Octanos en las Naftas

Origen de la Sal Natural Descripción de su Explotación y Turismo

Origen de las Minas de Sal Natural
Descripción de su Explotación

Lo que comúnmente llamamos “sal”, es el cloruro de sodio (NaCl) de uso cotidiano y que se encuentra en mayor proporción en nuestro planeta. La sal que utilizamos procede ya sea del agua del mar, o ya de una de las numerosas minas de sal gema que hay repartidas por distintos lugares del globo. La sal se extrae aproximadamente de la misma manera que el carbón, o con ayuda del agua.
Algunas minas de sal son verdaderos palacios subterráneos. Otras también, aunque menos notables, merecen ser visitadas. En la Argentina, se obtiene extrayéndola de las salinas , que son las “cuencas en donde  se  ha  acumulado  cloruro  de  sodio  en  cantidades  económicamente  explotables,  pudiéndose  extraer  por  labores  a  cielo  abierto”.  También  se  la  llama  salar.
Su origen puede ser el siguiente: a) Marino en donde las  sales  se  cristalizaron  a  partir  del  agua  de  mar. b) Continental: es el más común en la Argentina y resulta de la  cristalización de aguas subterráneas o superficiales en zonas áridas y c) de Aguas Termales típica de la zona de la Puna y que se formó a partir de movimientos orogénicos.

La sal es uno de los minerales más utilizados al tiempo que uno de los que más abundan y más fáciles son de explotar. La sal de cocina o cloruro de sodio se halla en multitud de lugares y en diferentes formas; de éstas las dos que podemos considerar principales son, sin embargo, la sal del agua del mar y la extraída de las minas de sal gema.

Como los mares cubren la mayor parte de la superficie del globo, las reservas de sal que contienen son inmensas. Pero también la sal gema se reparte  y la encontramos en numerosos lugares y países. Estos depósitos sedimentarios se han formado generalmente en lugares ocupados antaño por el mar o por lagos o lagunas salados.

Gema o también Halita: es una forma mineral de la sal común, con composición química NaCl. También llamada sal gema, es un mineral muy abundante formado tras el secado de cuerpos rodeados de agua salada; posteriormente, los lechos así formados quedan con frecuencia enterrados bajo estratos de roca formados por otros depósitos sedimentarios. Los lechos de halita tienen espesores que oscilan desde unos pocos metros hasta 30 m, y se han encontrado a grandes profundidades bajo la superficie terrestre.

Todavía  en  la  actualidad  se produce sal gema. El proceso es como sigue: el lugar de la operación es por ejemplo un golfo unido al mar por un estrecho canal. El golfo constituye de este modo, prácticamente, una extensión de agua cerrada en la que el agua permanece casi inmóvil, por lo que la evaporación es muy importante.

Sin embargo, la sal no se evapora, y a medida que lo hace el agua, aumenta su concentración salina. De este modo se forman depósitos salinos en el fondo del golfo. A medida que la evaporación prosigue, nuevas cantidades de agua procedentes del mar entran en el golfo por la estrecha abertura.

La  sal gema se encuentra en numerosos lugares de todas las partes del mundo. En Europa occidental hay importantes yacimientos salinos cerca de Stassfurt, en Alemania; en los alrededores de Salzburgo, en Austria; cerca de Wieliczka, en Polonia, y en la Lorena. En Estados Unidos los grandes productores de sal son los estados de Tejas, Nueva York, Luisiana, Kansas y Michigan. En este último estado se han encontrado depósitos de 150 a 600 m de espesor. Hay también otros países, como Colombia, que poseen minas de sal.

Minas de Wieliczk (a menos de 15 km al sudeste de Cracovia), estas minas han sido explotadas sin interrupción desde el siglo XIII y todavía hoy siguen produciendo sal de mesa.Declaradas Patrimonio de la Humanidad en 1978 por la Unesco, este conjunto de excavaciones subterráneas consta de 3 mil cámaras unidas mediante galerías cuya longitud llega a los 300km y nueve niveles de profundidad que llegan hasta los 327m. Pese a toda su extensión los turistas sólo pueden recorrer 3,5km.

La sal gema se encuentra a profundidades muy diversas; en España, por ejemplo, en los alrededores de Cardona, la sal se presenta en la superficie, mientras que en otros lugares es preciso buscarla a cierta profundidad. La  naturaleza  de  las  capas  difiere igualmente; en ciertos yacimientos las venas son regularmente horizontales, mientras que en otros constituyen plegamientos discontinuos.

Los métodos de explotación difieren también. En ciertos yacimientos se procede del mismo modo que se haría en una mina de carbón: se excavan dos pozos por mina después de haber determinado mediante un sondeo previo el lugar más favorable. Luego, en el inicio de estos pozos, se empiezan a excavar galerías y salas en el espesor de la capa de sal. Para sostener a estas últimas no hace falta emplear los mismos materiales que en las minas de carbón.

A menudo se dejan pilares compuestos por la propia sal cuando la dureza y el espesor son suficientes. Otra ventaja sobre las minas de hulla es que en las de sal no hay que temer al explosivo gas grisú.

Claro que éste es únicamente uno de los muchos métodos que existen para la extracción de la sal. En ciertos casos, por ejemplo, se hacen unas perforaciones por las que se inyecta agua en las capas de sal gema; cuando esta agua está lo bastante saturada de sal se bombea o se hace subir a la superficie mediante presión.

A veces se combinan ambos procedimientos: pozos y agua. En tal caso se disponen en ía mina lugares en los que la sal se disuelve en el agua para obtener una salmuera que es impelida a continuación hacia la superficie. A la larga se forman unas cavidades, unas salas. Cuando estas últimas alcanzan determinadas dimensiones se pone fin a la explotación para evitar un hundimiento. Pero la cavidad subsiste y el agua que cubre su fondo evoca un lago subterráneo.

No es corriente que la sal extraída por cualquiera de estos dos procedimientos sea cloruro de sodio puro; en la mayoría de los casos se presenta en mezcla con sulfatos y cloruros de calcio y de magnesio y con varios otros elementos. Pero, a veces, como en Wieliczka, a 25 km de Cracovia, se extrae sal pura.

La visita a una mina de sal no es sólo una excursión llena de interés, sino a menudo apasionante y muy agradable.

Algunas minas de sal se han transformado, en el transcurso del tiempo, en verdaderos palacios subterráneos. En la mina de Wieliczka, por ejemplo, que alcanza una profundidad de 280 m. y que está en explotación desde la Edad Media, encontrarnos en varias de sus salas bancos, columnas e incluso estatuas esculpidas en la sal. Cada año descienden a la mina numerosos visitantes para admirar estas obras maestras realizadas en sal.

También en otras partes se encuentran curiosas realizaciones hechas en sal. En América del Sur, en los alrededores de Bogotá, capital de Colombia, en el antiguo emplazamiento de una mina de sal se encuentra la catedral subterránea de Nuestra Señora del Rosario. Este templo es tan grande que puede albergar a miles de fieles.

http://historiaybiografias.com/archivos_varios5/catedral_sal.jpg

Bogotá , catedral subterránea de Nuestra Señora del Rosario

Sin embargo, no son estas minas artísticamente trabajadas las únicas que merecen que se íes haga una visita. Hay otras que también atraen a infinidad de turistas, como las de Salzkammergut, en Austria. En estas minas la sal es disuelta en agua y bombeada a la superficie.

La sal que se explota en el Salzkammergut quedó depositada allí, en forma de cristales sedimentarios, hace unos ciento ochenta millones de años y se cree que la mina está en explotación, aproximadamente, ¡desde unos novecientos años antes de Jesucristo! La posesión de sal era, tradicionalmente, un signo de riqueza no sólo entre los celtas, sino también entre los romanos.

Una de las más interesantes minas de sal del Salzkammergut es la de los alrededores de Dürnberg, una población cerca de Hallein. Esta mina de sal ocupa prácticamente la totalidad de las entrañas de una montaña. Para visitarla es preciso, en primer lugar, ir de Hallein a Dürnberg, situada en las alturas, por la Saizberg-Gondelbahn, en las cabinas de un teleférico. Con él la subida lleva sólo diez minutos, en tanto que a pie se tarda una hora.

Antes de que se les permita entrar en la mina se invita a los visitantes a que se protejan con una bata. Entonces empieza la visita bajo la guía de un minero experimentado. Esta visita, que viene a durar hora y media, se efectúa en grupos.pequeños y es realmente apasionante.

Se inicia penetrando horizontalmente en la montaña por un estrecho pasadizo; seguidamente los visitantes se dejan resbalar a lo largo de una pendiente de las que se encuentran varias durante esta travesía en dirección al valle, la más larga de las cuales mide alrededor de ochenta metros. Cada vez seis visitantes se deslizan pendiente abajo, detrás del guía, en un descenso vertiginoso.

La travesía de la mina de sal presenta muchos aspectos interesantes y puede comprobarse que sus instalaciones técnicas y su equipo son muy modernos. También se atraviesa, en una barquita, un lago salado subterráneo que se ha formado en el hueco de una cantera explotada antaño. Docenas de lámparas alumbran las riberas de este lago y hacen de él un espectáculo alucinante.

Al fin de esta excursión tan poco corriente se encuentra uno en el fondo de la mina, en donde le espera una especie de pequeño tren formado por bancos con ruedas en los que uno se sienta a horcajadas. Estos pequeños trenes, a los que llaman «Grubenhunden», arrastran a los visitantes, a toda velocidad, a través de dos kilómetros de estrechos corredores, hasta llegar de nuevo al aire libre. Los que hayan visitado la mina es seguro que no olvidarán la excursión. Aunque la mina de Dürnberg es sólo uno de los muchos yacimientos de los alrededores de Salzburgo.

http://historiaybiografias.com/archivos_varios5/fuente_credsa3.jpg

Uso de los Recursos Naturales y el Cuidado del Ambiente Historia

 Historia del Uso de los Recursos Naturales y el Cuidado del Ambiente

Las sociedades aprovechan los elementos naturales, como agua, minerales, animales y plantas, para satisfacer sus necesidades, por ejemplo para producir bienes de uso personal como calzados, muebles, automóviles, cerámicos, utensillos, etc. Así, los seres humanos van modificando y transformando la naturaleza para obtener alimentos, vivienda, vestimenta, etc.

En el campo, con la cría de ganado y el cultivo de plantas, y en las ciudades, con la construcción de edificios, caminos, etc. El ambiente es el resultado de la relación entre los elementos de la naturaleza y las transformaciones realizadas por las personas. Por ejemplo, una montaña es un elemento natural, pero si las sociedades construyen allí casas, caminos y puentes, se la considera un ambiente de montaña.

USO Y CONSERVACIÓN DE LOS RECURSOS NATURALES: La especie humana, aparecida hace aproximadamente 40.000 años atrás, ha sobrevivido principalmente como cazadora-recolectora nómada durante la mayor parte de ese tiempo.

Dos cambios culturales de gran importancia, la Revolución Agrícola (10.000 a 12.000 años atrás) y la Revolución Industrial (a fines del siglo XVIII) trajeron beneficios como el aumento de la tecnología, el suministro de alimentos, la obtención de mucha mayor energía, el aumento de la esperanza de vida, etc. Pero también tuvieron consecuencias negativas: se produjo un brusco aumento de la población y un crecimiento exponencial del uso de los recursos, de la contaminación y de la degradación del ambiente.

Nuestros primeros antecesores cazadores-recolectores (sociedades paleolíticas) lograron sobrevivir porque tenían un adecuado conocimiento del ambiente donde vivían, y entendían su íntima dependencia respecto ele la naturaleza.

Ellos aprendieron eficazmente a encontrar agua, a saber cuándo maduran los frutos y a conocer los movimientos de sus presas. Al mismo tiempo descubrieron una gran variedad de animales y plantas que les proveían alimento y a las que usaban como medicamentos. Estos hombres sólo empleaban, por un lado, la energía solar, y por el otro, su propia fuerza muscular.

En consecuencia, era escaso el impacto que causaban en el medio natural. Eran grupos humanos pequeños que poseían un comportamiento nómada y dependían de su propia fuerza física.

La Revolución Agrícola se produjo por un cambio gradual de los pequeños grupos nómadas cuando se establecieron en comunidades agrícolas, donde aprendieron a criar animales salvajes y a cultivar plantas silvestres para sobrevivir. Para preparar esos cultivos desmontaban pequeños sectores de bosque, derribando árboles y malezas, para luego quemar esa vegetación talada y utilizar las cenizas como abono.

Dichos cultivos eran de subsistencia, esto es, producían sólo lo necesario para comer ellos y sus familias. El trabajo era manual y usaban precarias herramientas de labranza, por lo cual hubo escaso impacto sobre el medio natural.

Más adelante, con la aparición del arado de metal tirado por animales domesticados, junto con el aumento de las parcelas cultivadas donde se abrían los suelos fértiles, la degradación se incrementó.

urbanizacion primitiva

La Revolución Urbana introdujo fuertes cambios culturales que aparejaron problemas ambientales, cuyas consecuencias se mantienen vigentes en la actualidad. La urbanización se originó en un grupo de agricultores con capacidad de producir alimento suficiente para mantener a sus familias, más un excedente que podía comercializar con otras personas. Estos grupos crecieron hasta convertirse en pueblos y ciudades, donde se centralizaron el comercio, los gobiernos y la religión, y el agua se transformó en un recurso económicamente valioso.

primeros asentamiento humanos

Empezó en esta etapa una verdadera contienda contra la naturaleza, donde la supervivencia de animales y plantas silvestres dejó de ser importante pues competían con el ganado y los cultivos; fueron eliminados o desalojados, ya no eran considerados recursos vitales para el hombre. Como consecuencia sobrevinieron guerras, sobrepoblación, contaminación y degradación ambiental.

La Revolución Industrial comenzó en Inglaterra a mediados del siglo XVIII y se extendió a los Estados Unidos en el siglo siguiente; la leña fue reemplazada por el carbón como combustible sustituto. El consumo promedio de energía por persona aumentó considerablemente y, por lo tanto, el poder de alterar y utilizar la Tierra para satisfacer las necesidades del crecimiento económico. El uso del carbón llevó a la invención de la máquina de vapor.

carbon y la maquina a vapor

Más adelante, el carbón fue reemplazado por el petróleo y el gas. Con el avance de la Revolución Industrial surgió la sociedad industrial avanzada, que se caracterizó por la intensa producción y el gran consumo de bienes motivados por la publicidad masiva para crear falsas necesidades o necesidades artificiales, alentando de esta manera lo que llamamos la “sociedad de consumo”.

maquina a vapor

Se produjo también un cambio en la utilización de materiales sintéticos en lugar de los naturales, con el correspondiente perjuicio al ambiente ya que los primeros se degradan muy lentamente y muchos son tóxicos para el hombre, los animales y las plantas. Conjuntamente con los beneficios que acompañaron a estas sociedades se intensificaron muchos problemas ambientales y aparecieron otros nuevos.

torre de petroleo

El uso desmesurado de combustibles fósiles fue el que generó un crecimiento económico vertiginoso, con la consecuente aparición de problemas ambientales graves. La industria de exploración y explotación de la “energía fósil” es la responsable de gran parte de la contaminación del aire y el agua del mundo.

Conquistar la naturaleza puede aparecer como una idea asociada al progreso, pero exacerbada por el proceso de industrialización. Es imprescindible revertir el uso irracional y abusivo de los recursos.

SINTESIS: Volviendo al inicio, decíamos que  las sociedades utilizan los recursos naturales para producir alimentos, ropa, calzados muebles, etc. La mayoría de las veces, las industrias no tienen: en cuenta los daños que generan en los ambientes al obtener los recursos naturales para fabricar sus productos.

El desarrollo sustentable consiste en una serie de acciones que tienen como objetivo lograr un equilibrio entre el desarro llo económico y el cuidado del ambiente. La idea principal en satisfacer las necesidades de las sociedades sin afectar los re cursos naturales y preservarlos para las generaciones futuras Para ello, es necesario que la sociedad y las industrias respeten los tiempos de la naturaleza.

Esto significa que al utilizar los recursos naturales se les debe conceder el tiempo necesario que se reproduzcan y se formen nuevamente. Si ese tiempo no se respeta, es posible que se agoten. Por ejemplo, realizar acti vidades de pesca solo en los períodos determinados para que los peces puedan reproducirse y no estén en peligro de extición. Lo mismo sucede con las plantas y otros animales.

Al mismo tiempo, las sociedades deben prac ticar un consumo responsable, que significa elegir productos teniendo en cuenta como has sido elaborados y cómo afectan al ambiente. Consiste en consumir y elegir lo indispensable y no comprar productos innecesarios, que tengan componentes contaminantes.

Realizar un consumo responsable requiere de un cambio en los hábitos, no muy diferente de los que ya se tienen. Por ejemplo, las bolsas de plástico se pueden reemplazar por una úni ca bolsa de tela y siempre llevar la misma para hacer las compras. De esta manera, se disminuye no solo la producción de plásticos, también los residuos de este material.

Ver: Basura Electrónica

Fuente Consultada: Espacio y Sociedades del Mundo Política, Economía, y Ambiente – Daguerre y Sassone – Edit. Kapeluz Biblioteca Polimodal

Desperdicios de Comida en el Mundo y Datos Alarmantes Huella

DESPERDICIOS DE COMIDA EN EL MUNDO
La Huella del Desperdicio

Desperdicios de Comida en el Mundo: Hoy el mundo vive la contraposición de niños muriendo de hambre por millones en el mundo, mientras en Europa se tirá a la basura anualmente el 50% de lo que se compra en alimentos. El autor del libro ‘Despilfarro’, Tristram Stuart, denuncia que 40 millones de toneladas de alimentos despilfarrados en los EEUU cada año, podrían alimentar a los 1.000 millones de personas que se van a la cama con hambre cada día. Si recogiera toda la comida despilfarrada en Gran Bretaña en un solo dia, podría ofrecer una comida a 60 millones de personas.

desperdicio de comida en el mundo

¿El desperdicio de comida aún comestible es algo cultural, típico de los paises ricos o bien es una práctica que se encuentra por todo el mundo?

Las personas tenemos el poder para producir los cambios necesarios si convertimos el desperdicio de comida en algo socialmente inaceptable.

¿Qué recomendarla a un ciudadano para evitar tanto desperdicio de alimentos? ¡Come lo que compras y compra lo que necesitas!

La solución es no producir más de lo necesario y no despilfarrar. Sin embargo, está claro que despilfarrar comida es el equivalente de sacar comida de las bocas de los pobres a escala global. Cuando compramos comida, por ejemplo, pan, estamos interactuando en el mercado global del trigo.

Las recientes subidas de precio de algunas materias primas como el trigo han sido provocadas en gran medida porque la demanda supera la oferta. Estas subidas de precio condenan a millones de personas al hambre.

Si nosotros, en los países ricos, despilfarráramos menos pan y, por lo tanto, compráramos menos trigo en el mercado mundial, quedaría más cantidad disponible para las personas en África y Asia que pasan hambre, y que compran el trigo en el mismo mercado mundial” dijo Stuart.

Si un supermercado u otro comercio de alimentación acaba teniendo excedentes de productos que van a caducar, deberían donarlos para que la gente pueda consumirlos, antes que despilfarrarlos.

Los paises ricos no invierten más en la agricultura de los países pobres.

En India hay montañas de frutas y de verduras que se están pudriendo simplemente porque faltan infraestructuras agrícolas. Hoy las ONG están dándose cuenta de que se puede aumentar la disponibilidad de alimentos en estos países invirtiendo cantidades de dinero relativamente pequeñas para crear infraestructuras, y asi asegurarse de que la comida llegue en condiciones a los consumidores y no se pudra.

Hoy 2 millones de personas que pasan hambre en España hoy como consecuencia de ia crisis económica. En este momento, se despilfarra más comida de la que podría ser consumida por todas ¡as personas hambrienta.

La producción agrícola mundial deberá aumentar en un 60 % de aquí a 2050 para satisfacer la demanda de una población mundial en crecimiento.

En la actualidad una gran parte de los alimentos producidos en el mundo se pierde. La expresión “pérdida de alimentos” se refiere a la disminución de la masa comestible de los alimentos en tres etapas de la cadena alimentaria ―producción, poscosecha y elaboración―, principalmente en los países en desarrollo.

Cada año un tercio de los productos que se producen en el mundo se pierden en los negocios o se desperdician en los hagares y restaurantes, esto no es solo una pérdida economica sino que todos los recursos naturales usados para el cultivo, la elaboración el envasado , el transporte y la comercializacion de los alimentos tambien se pierden.

desperdicios de comida

Si se vendiera al precio al consumidor los alimentos despilfarrado, el valor estimado es aproximadamente dos veces el producto bruto interno (PIB) de Noruega. No olvidemos que por otro lado esos alimentos desperdiciados lanzan a la atmósferá millones de gases de efecto invernadero generando verdaderos problemas ambientales, que mas tarde perjudicarán la producción de nuevos alimentos.

En el 28% de las tierra del mundo se producen cultivos que se desperdician, lo que equivale a toda la superficie de China, Mongolia y Kazajtán juntas y además toda el agua que se desperdicia es de unos 250 km³, volumen de agua que podría satisfacer la necesidad de agua de todo los habitantes del planeta.

Por otro lado conforme se expande la agricultura y la pesca, se sobreexplotan los recursos naturales y se pierden habitat marinos y forestales, junto con su biodiversidad.

Los alimentos desperdiciados despiden 3.300.000.000 (tres mil trescientos millones o 3,3 Gigatoneladas) de gases de efecto invernadero, y si suponemos que esos gases sean de un país, este se convertiría en el 3° país con mayor emisión del mundo.

Es fácil darnos cuenta que esto asi no puede continuar, en un planeta con cada vez mas personas y menos recursos, no podemos permitirnos tirar nuestros recursos naturales a la basura.

No olvidemos que los esfuerzos pequeños , pero en cantidad se suman, por ejemplo:

a) Los productores de alimentos deben invertir en una mejor tecnología de cosecha y almacenamiento para evitar pérdidas de alimentos.

b) Los minoritas de alimentos pueden reducir los precios de esas hortalizas imperfectas y donar los excedentes no vendidos a instituciones que atienden a los mas necesitados.

c) Los alimentos no utilizables como alimento humano deben utilizarse con pienso para los animales.

d) Los consumidores pueden ser compradores ma cuidadosos, cuidando los desperdicios en sus hogares para ser vueltos a consumir y también puede exigir porciones mas pequeñas en los restaurantes.

La pirámide del desperdicio de alimentos se basa en la basura y los encargados de las políticas pueden mejorar la capacidad de los productores, minoristasy consumidores para invertir la pirámide, por ejemplo crear capacidad en  los productores de alimentos para adoptar tecnologia post cosecha , revisar las fechas de caducidad de los alimentos para que no se desechen productos utilizables inútilmente, hacer campañas de concientización para alentar a los consumidores a aplicar medidas que estén a su alcance para frenar el desperdicio. Reducir los vertederos de basuras y convertir esos desechos en abono y biogas.

La solución viene con políticas nacionales, pero en fundamental el apoyo de los productores, industrias, comerciantes, familias y Ud., pues se requerirá la ayuda de todos los sectores para reducir la pérdida y el despilfarro de alimentos, para que todos los recursos naturales utilizados en la producción de alimentos terminen verdaderamente como recursos alimentarios y no como basura en los vertederos.

No olvidemos que para producir todos esos alimentos:

a) Se usó agua, (un bien escaso) para riego y lavado en volúmenes gigantes, aumentando la escasez.

b) Se talaron miles de Km² de bosques y erosionaron tierras.

c) Produjeron pérdidas de polinizadores, peces y otras biodiversidades.

Como se observa es importantísimo reducir el despilfarro de alimentos, porque la misma genera pérdidas económicas, ambientales y sociales. No todas las medidas son iguales y algunas son mejores que otras para la naturaleza y la sociedad.

EL PRINCIPIO DE LAS 3R: Cada persona tiene  la oportunidad y la capacidad de contribuir a mejorar nuestro espacio y nuestro mundo a partir de pequeñas acciones cotidianas. Por ello, es importante que busques, dentro de tu casa y oficina, aquellas oportunidades donde puedas:

Aplicar y transmitir el principio de las 3 erres puedes ser parte de la solución al problema de la basura.

Reducir tu consumo de energía (luz, gas, etcétera); de agua y de todo tipo de productos, especialmente aquellos que son contaminantes. Evitar todo aquello que de una u otra forma genera un desperdicio innecesario.

Reciclar los materiales susceptibles de ello, como plásticos, vidrio y cartón en puntos cercanos a tu casa. Volver a usar un producto o material varias veces sin tratamiento. Darle la máxima utilidad a los objetos sin la necesidad de destruirlos o deshacerse de ellos.

Reutilizar / Reusar: artículos como el papel y otros, antes de comprar dichos productos nuevamente. Utilizar los mismos materiales una y otra vez, reintegrarlos a otro proceso natural o industrial para hacer el mismo o nuevos productos, utilizando menos recursos naturales.

Ampliar En Este Sitio Sobre las 3R

CURIOSOS DATOS DEL MUNDO: POBLACIÓN, HAMBRE, EDUCACIÓN

UN MENSAJE DEL PAPA:

El Papa Francisco advirtió que en la actualidad puede hablarse de una tercera Guerra Mundial azuzada por intereses espurios como la codicia y permitida por la misma indiferencia que ya consintió atrocidades del pasado.

papa francisco

El pontífice dijo que la guerra es “una locura” alimentada por conceptos como “la avaricia, la intolerancia y la ambición de poder” que encuentran justificación en la ideología y que lo destruye y lo trastorna todo.

Es que en la “sombra” de la sociedad convergen “planificadores del terror”, o lo que es lo mismo, “estrategias de codicia de dinero y de poder” cuyo corazón está “corrompido”.

Aquí entran en juego los siete pecados capitales, que no deben ser entendidos como hechos religiosos sino como la trampa que envenena a la sociedad humana.

Es bueno tener convicciones pero cuando se exceden pasan a ser: La soberbia.

Es grato tener ambiciones, pero cuando es demasiada es: La avaricia.

Es buena la competencia que mide nuestro progreso pero no: La envidia.

Es útil la rebelión contra lo que nos oprime pero no: La ira.

Es placentera y humana la sexualidad pero no: La lujuria.

Es grata y necesaria la alimentación pero no: La gula.

Es una condición humana el placer del descanso pero no: La pereza.

UN VIDEO INTERSANTE DE LA F.A.O.

Historia del Descubrimiento de los Elementos Químicos

Hablar del descubrimiento de elementos antes de Juan Dalton (1766-1844) resultaría contradictorio, pues sólo después de los trabajos de este hombre de ciencia comenzó a definirse dicho concepto. Sin embargo hoy se tienen por tales muchas de las sustancias que ya eran conocidas antes del advenimiento de Cristo. Los metales sólidos, como el oro, la plata, el hierro, el estaño, el cinc, el cobre y el plomo, por ejemplo, ya fueron refinados por los pueblos de antaño, que apreciaban su utilidad o su valor decorativo.

El carbono (en forma de carbón de piedra), el azufre y el metal líquido mercurio también eran usados en aquellas épocas, aunque sin saber que eran elementos, es decir, sustancias básicas de que está hecho el universo. Cuando se contemplaban desde el punto de vista químico, sólo se los consideraba como meros ejemplos de la numerosa cantidad de sustancias que los alquimistas podían utilizar en sus experimentos.

Es cierto que el oro poseía un valor excepcional y gran parte del trabajo de los antiguos investigadores consistía en fútiles esfuerzos por obtenerlo a partir de otros metales más baratos. Pero no se tenía el concepto de cuál era su colocación en el cuadro general, porque ni aun remotamente se tenía idea de que tal cuadro existiese.

El primer elemento descubierto en los tiempos antiguos fue el arsénico. Aunque los griegos ya conocían varios compuestos de éste, probablemente fue Alberto Magno, en el siglo xm, el primero en afirmar que contenía una sustancia de tipo metálico. Químicos posteriores lo consideraron algo así como un metal “bastardo” o semimetal y le aplicaron el nombre de Arsenicum Rex.

En 1604 aparecieron ciertos trabajos, atribuidos a un monje benedictino llamado Basilio Valentine, en los que se describía el antimonio. Se decía que Valentine los había escrito alrededor de 1470, pero la obra fue “editada” por Tholde, un fabricante de sal de La Haya, y hay dudas acerca de si Valentine fue escritor.

Las obras que se le atribuyen también mencionan el bismuto, y si aceptamos que puede haberlas escrito, podríamos considerarlo su descubridor. Sin embargo, en 1556, medio siglo antes de su publicación, el bismuto había sido descripto por un médico alemán, Jorge Agrícola, en un libro sobre metales.

El aumento de la actividad química a partir del siglo XVIII produjo, como era de esperar, rápido progreso en el descubrimiento de nuevas sustancias. Puede explicarse en parte la falta de progreso antes de esa época por la enorme influencia del filósofo griego Aristóteles.

Durante más de mil años su errónea teoría acerca de la existencia de cuatro “elementos” (tierra, aire, fuego y agua) había detenido toda posibilidad de progreso en la química. Si bien en muchos campos del conocimiento dicho filósofo dejó importantes contribuciones, su influencia en la química, durante tanto tiempo indiscutida, resultó ser un grave impedimento para su adelanto.

OTROS DESCUBRIMIENTOS
El fósforo fue el siguiente elemento descubierto. Se le debe al alemán Henning Brand (1669). Medio siglo después, Jorge Brandt, un sueco, descubrió el cobalto. Esta conquista anunció la llegada de la Edad de Oro del descubrimiento de elementos.

En el mismo año (1735) Ulloa descubrió el platino. En los cincuenta años subsiguientes se registraron no menos de diez elementos, entre los cuales cabe mencionar: el níquel (Cronstedt), el hidrógeno (Enrique Cavendish), el flúor (Scheele), el nitrógeno (Daniel Ruthenford), el cloro (Scheele), el molibdeno (Hjelm), el telurio (Von Reichenstein) y el tungsteno (d’Elhujar).

Es interesante recordar la historia del descubrimiento del oxígeno, aunque sólo sea para ilustrar la forma a veces imprevista en que progresa la ciencia. José Priestley, científico notable en muchos campos, consiguió aislar oxígeno calentando óxido rojo de mercurio y demostró que una vela ardía en él con gran brillo y que un ratón podía vivir respirándolo. Hasta aquí sus observaciones eran correctas; pero cuando trató de aplicar estos nuevos hechos a la teoría tradicional de la combustión, se encontró con serias dificultades.

De acuerdo con el pensamiento corriente en aquella época, se suponía que una vela que ardía producía una sustancia denominada flogisto. El aire común, se decía, contenía cierta cantidad de flogisto y podía absorber más de él; luego ya no podía contribuir a la combustión. Priestley llamó a este gas “aire deflogisticado” porque en él la combustión era más violenta y duraba más tiempo que en el aire y porque debía deducirse que, al comenzar, no contenía nada de flogisto.

Años más tarde, Lavoisier explicó la verdadera naturaleza del proceso de la combustión y el papel que en ella desempeña el oxígeno. Al mismo tiempo que Priestley trabajaba en Inglaterra, Carlos Scheele efectuaba experimentos similares en Suecia.

Aunque descubrieron el oxígeno casi al mismo tiempo, un retraso de tres años en la publicación de sus trabajos hizo que Priestley se llevara la mayor parte del éxito. En realidad, la situación es aún más complicada: Juan Mayow, de la Real Sociedad, parece que había obtenido los mismos resultados un siglo antes, aunque rara vez se lo menciona.

La lista que acompaña este artículo nos da una cronología de los elementos y los nombres de sus descubridores. (Para simplificar sólo se indica el nombre del descubridor más generalmente aceptado, aunque en muchos casos tanto éste, como la fecha, están sujetos a discusión.)

NOTAS SOBRE LOS ELEMENTOS: Se llama elemento químico al componente que se encuentra en todas las sustancias simples. Por ejemplo, el componente de la sustancia simple denominada azufre, es el elemento azufre. Un elemento no puede descomponerse en otro. Asi, del azufre, no se obtiene más que azufre. *Si se combinan dos elementos simples, como el azufre y el hierro, obtenemos, al calentarlos, un compuesto qoe se llama sulfuro de hierro. *Los nombres de los elementos suelea tomarse de sus propiedades u orígenes: así hidrógeno, significa engendrador de agua; cloro quiere decir de color verdoso; fosfora significa portador de luz; el germanio designóse así en honor de Alemania; el galio por Francia; el magnesio por una región de Tesalia; el uranio por el planeta Urano; telurio por la Tierra, y helio por el Sol.

CINCO ELEMENTOS IMPORTANTES
Humphry Davy, que con tanto éxito trabajó en muchas ramas de la química y la física, también descubrió cinco elementos (potasio, sodio, bario, boro y calcio) entre 1807 y 1808. Un poco antes, en 1805, Juan Dalton, trabajando en Manchester, dio a conocer su teoría atómica que sirvió para enfocar el problema de los elementos. Dalton afirmó que los elementos químicos están compuestos por diminutas partes indivisibles (átomos) que conservan su individualidad eñ todas las reacciones químicas.

También decía que los átomos de un determinado elemento son idénticos entre sí y de forma diferente a los de otros elementos. Finalmente afirmó que la combinación química es la unión de átomos en cierta proporción establecida. El trabajo de este hombre de ciencia constituye la primera explicación comprensible acerca de qué son los elementos y cómo se comportan. Durante los siglos XIX y XX fueron descubriéndose nuevos elementos.

Un grupo especialmente interesante, el de los gases inertes —que no se combinan químicamente con otros— fue descubierto hace unos sesenta años. Guillermo Ramsay, un químico escocés, ayudó a individualizar el neón, criptón, xen helio y argón. Por la misma época, en 1898, Pedro y Marie Curie consiguieron aislar el radio y el polonio, ambos elementos intensamente radiactivos, con lo que se abrió el camino a la investigación actual en física nuclear. Sólo alrededor de 90 de los elementos químicos que han sido descubiertos se encuentran la naturaleza.

El resto son artificiales, y generalmente se ot nen “bombardeando” átomos e inyectándoles partículas nucleares complementarias. Cambia así la estructura del núcleo y con ello la identidad del átomo. En algunos casos estos nuevos elementos sólo duran una fracción de segundo. Sin ninguna duda los descubridores de elementos artificiales que han logrado más éxitos son los estadounidenses Glenn T. Seaborg (imagen) y A. Ghio Entre ambos han contribuido al descubrimiento de nada menos que de otros nueve.

Glenn T. Seaborg

Ver Una Tabla de Elementos Químicos Moderna

CRONOLOGÍA APROXIMADA DE LOS ELEMENTOS DESCUBIERTOS

Elemento: Año Descubridor
Carbono
Cobre Conocidos a.C.
Oro Conocidos a.C.
Hierro Conocidos a.C.
Plomo Conocidos a.C.
Mercurio Conocidos a.C.
Plata Conocidos a.C.
Azufre Conocidos a.C.
Estaño Conocidos a.C.
Cinc CConocidos a.C.
Arsénico Siglo XIII Alberto Magno
Bismuto 1556 Mencionado por Jorge Agrícola
Antimonio 1604 Mencionado en obra atribuida a Basilio Valentine del siglo anterior
Fósforo 1669 Brand
Cobalto 1735 Brandt
Platino 1735 Ulloa
Níquel 1751 Cronstedt
Hidrógeno 1766 Cavendish
Flúor 1771 Sebéele
Nitrógeno 1772 Rutherford
Cloro 1774 Sebéele
Manganeso 1774 Gahn
Oxígeno 1774 Priestley, Sebéele
Molibdeno 1782 Hjeim
Telurio 1782 Von Reichenstein
Tungsteno 1783 d’Elhujar
Titanio 1789 Gregor
Uranio 1789 Klaproth
Circonio 1789 Klaproth
Estroncio 1790 Crawford
Itrio 1794 Gadolin
Cromo 1797 Vauquelin
Berilio 1798 Vauqueüiit
Niobio 1801 Hatchett
Tantalio 1802 Eckberg
Cerio 1803 Klaproth
Paladio 1803 Wollanston
Sodio 1803 WolloBstoa
Iridio 1804 Tenaant
Osmio 1804 Tetinani
Potasio 1807 Davy
Sodio 1807 Davy
Bario 1808 Davy
Boro 1808 Davy
Calcio 1808 Davy
Yodo 1811 Courtois
Cadmio 1817 Stromeyer
Litio 1817 Arfedson
Setenio 1817 Berzelius
Silicio 1823 Berzelius
Aluminio 1825 Oersted
Bromo 1826 Balard
Torio 1822 Berzelius
Magnesio 1830 Liebig, Bussy
Vanadio 1830 Sefstrom
Lantano 1839 Mosander
Erbio 1843 Mosondp»
Terbio 1843 Mosander
Ratenio 1845 Claus
Cesio 1861 Bunsen, Kirchoff
Subidlo 1861 Bunsen, Kirchoff
Talio 1861 Crookes
Indio 1863 Reich, Richter
Galio 1875 Boisbaudran
Iterbio 1878 Marignac
Hoinvio 1879 Cleve
Samaría 1879 Boisbaudran
Tulio 1879 Cleve
Neodimio 1885 Welsbach
Praseodimio 1885 Welsbach
Disprosio 1886 Boisbaudran
Gadolinio 1886 Marignac
Germanio 1886 Winkler
Argón 1894 Rayleigh, Ramsay
Helio 1895 Ramsay
Criptón 1898 Ramsay, Travers
Neón 1898 Ramsay, Travers
Polonia 1898 P. y M. Curie
Radio 1898 P. y M. Curie, Be
Xenón 1898 Ramsay, Travers
Actinio 1899 Debierne
Radón 1900 Dorn
Europio 1901 Demarcay
Luteeio 1907 Welsbach, Urbain
Protactinio 1917 Hahn, Meitner
Hafnio 1923 Coster, Hevesy
Renio 1925 Noddack, Tacke
Tecnecio 1937 Perrier, Segre
Francio 1939 Perey
Astatino 1940 Corson y otros
Neptunio 1940 McMillan, Abelso»
Plutonio 1940 Seaborg y otros
Americio 1944 Seaborg y otros
Curio 1944 Seaborg y otros
Prometió 1945 Glendenin, Marisd
Berkelio 1949 Thompson, Ghi Seaborg
Californio 1950 Thompson y otros
Einstenio 1952 Ghiorso y otros
Fermio 1953 Ghiorso y otros
Mendelevio 1955 Ghiorso y otros
Nobelio 1958 Ghiorso y otros
Lawrencio 1961 Ghiorso y otros

Fuente Consultada:
Revista TECNIRAMA N°22 Enciclopedia de la Ciencia y La Tecnología -Descubridores Químicos-

Primeros Huevos de Dinosaurios Encontrados Fosilizados

IMPORTANCIA DEL DESCUBRIMIENTO DE LOS HUEVOS DE DINOSAURIOS

En 1923, un miembro de la expedición del Museo Americano de Historia Natural de Estados Unidos, dirigida por el doctor Roy Chapman Andrews, a la zona de areniscas rojas del desierto de Gobi, en Mongolia, encontró un nido completo de huevos de dinosaurio fosilizados.

Los huevos habían sido puestos a fines del período cretácico, hace unos 80 millones de años. Estaban enterrados cerca de la superficie, que había estado expuesta a los efectos de la erosión durante millones de años también. Los dinosaurios fueron animales dominantes —es decir, de gran importancia por su influencia sobre todas las restantes formas de vida— en la era Mesozoica. Se los divide en dos grandes órdenes, siendo, por una parte, parientes de los cocodrilos y, por otra, antecesores de los pájaros.

Los primeros representantes de los dinosaurios que aparecieron en escena eran de tamaño pequeño, pero, en conjunto, se observa en ellos una evolución gradual hacia dimensiones cada vez más gigantescas. Algunos constituyeron los mayores animales terrestres que han existido. Unos eran carnívoros y otros, la mayoría, herbívoros.

Los primeros dinosaurios se caracterizaron por ser bípedos (marchaban de pie sobre las patas posteriores). Sin embargo, se ha observado que a lo largo de su evolución muchos tendieron a adquirir la postura cuadrúpeda, sobre todo los herbívoros. Bastantes carnívoros conservaron la posición bípeda.

La clasificación que se ha hecho de los dinosaurios se basa en las afinidades de su esqueleto y de la estructura de los huesos con los reptiles o los pájaros. Aquellos que presentaban semejanzas con los reptiles se clasifican en el orden de los saurisquios.

huevos de dinosaurios hallados en Gobi Mongolia

El descubrimiento de los huevos de dinosaurio es uno de los raros hallazgos (como el de las impresiones de las membranas interdigitales momificadas) que nos ilustran sobre el modo de vida de estos seres. Quizá si los detalles de su biología estuviesen más claros, podrían conocerse las causas de la desaparición repentina de los dinosaurios, después de un período de florecimiento espectacular. Se ha pensado, fundamentalmente, en cambios climáticos que afectaron de tal modo a la flora, que las especies herbívoras, demasiado especializadas, no, pudieron adaptarse a un cambio de régimen alimenticio. La desaparición de los herbívoros trajo consigo la de los carnívoras que vivían a costa de ellos. La imposibilidad de los dinosaurios de evolucionar, y adaptarse a las cambiantes condiciones, parece radicar en la extremada especialización de su forma de vida. De hecho, es una regla; comprobada por el estudio de los fósiles, que las formas de animales se adaptan mejor a las condiciones cambiantes cuanto menos evolucionadas están, es decir, cuanto menos especializadas se hallan   en   una   forma   de  vida   determinada.

A pesar de los abundantes datos existentes sobre la morfología de los dinosaurios, nuestros conocimientos sobre su biología y costumbres se apoyan, en muchos aspectos, solamente en conjeturas. Se sabe que la médula espinal presentaba, en algunas formas, un ensanchamiento a la altura de la cintura pelviana (caderas), que podía tener un tamaño mayor que el del cerebro (ganglios cerebroides).

Este ganglio actuaría como un centro local de reflejos en las formas gigantes, dado el tiempo considerable que los reflejos habían de tardar en recorrer el largo camino existente entre el cerebro y las patas. Desde que se comenzó a estudiarlos, se supuso que estos antecesores de animales realmente ovíparos (que ponen huevos), fueron ovíparos también, pero no se tuvo una prueba material hasta dicho hallazgo de huevos fosilizados del Protoceratops, pequeño reptil antecesor de los dinosaurios cornúpetas a que nos hemos referido.

El mismo no presenta, sin embargo, traza de cuernos, pero sí el citado repliegue posterior de la cabeza. En una expedición previa a Mongolia ya se había encontrado parte de la cascara de un huevo, pero el descubrimiento, realizado después, del nido entero, en una zona desértica —a cientos de kilómetros de distancia de los habitantes más próximos— sobrepasó las esperanzas.

Por fin se había conseguido la prueba de que, al menos, algunos dinosaurios ponían huevos. Además, este dinosaurio (Protoceratops) los ponía (en cantidad de 15 o más) en un nido, de la misma forma que los ponen las tortugas y muchas aves actuales. Las rocas de color rojo ladrillo donde, se encontraron los huevos se componen de granos de arena fina y roja. Son blandas y se desmenuzan e, indudablemente, fueron formadas por la arena arrastrada por el viento. Mongolia debe de haber sido un desierto muy seco y cálido cuando el Protoceratops vivía.

Probablemente, los huevos fueron enterrados a demasiada profundidad por la arena movediza, de forma que los rayos solares no pudieron incubarlos. Poco a poco se fueron hundiendo cada vez más, a causa de la continua presión ofrecida por la gran carga de arena que soportaban encima y, a su vez, la arena que los rodeaba fue comprimiéndose y trasformándose en roca arenisca.

Entretanto, los huevos mismos fueron rellenándose de arena, al fosilizarse, y conservaron su estructura. Las condiciones de Mongolia resultaban ideales para la formación de fósiles, y de hecho el país es el lugar perfecto para buscarlos. Había muy poca humedad, y el aire, indudablemente, velaba por los restos animales, arrastrando la arena, que los enterraba en enseguida, lo que evitaría su descomposición. Además, desde que se extinguióle! Protoceratops, se ha sumergido uña pequeña extensión de Mongolia,, por lo que las rocas sedimentarias (rocas formadas bajo el agua) se han depositado sobre la arenisca sólo en contados lugares.

El Protoceratops vivía en condiciones desérticas. Sin embargo, debió de haber algunos ríos o lagunas cerca del nido, ya que se han encontrado fósiles de tortugas en los alrededores, y el esqueleto de la cola del Protoceratops hace pensar que este animal pasaba parte de su vida en el agua. Su pico córneo y la escasez de dientes sugieren que era herbívoro, y quizás arrancaba las hojas y las ramas de las plantas o arbustos del desierto.

Además de abandonar el agua para ir a comer, ponía sus huevos en hoyos que cavaba en la arena de las dunas. Colocaba los huevos en círculos, con el extremo más alargado dirigido hacia el centro del nido. La cascara era dura. Los huesos que se encontraron cerca del nido fueron después cuidadosamente conjuntados. Es curioso el hecho de haberse hallado cierta cantidad de esqueletos de jóvenes animales, próximos unos a otrosflo que hace pensar en la existencia de una especie de “colonia infantil”, o de un lugar de cría.

También se han encontrado esqueletos de adultos, que no tenían más qué unos dos metros de longitud. La placa o expansión de la cabeza que protege el cuello está muy desarrollada, y en ella van insertos los músculos de la mandíbula y de la cabeza.

El notable descubrimiento de parte del esqueleto de un dinosaurio con forma de avestruz, el Oviraptor (“ladrón de huevos”), en el nido del Protoceratops, hace pensar que dicho ser estaba realmente robando los huevos del nido. Por desgracia, sólo se ha conservado una pequeña parte de este esqueleto, pero es tan semejante al de otros dinosaurios con forma de avestruz, que el Oviraptor, probablemente, presentaba el aspecto que se le da en el grabado.

SIEMPRE SIGUIERON LOS DESCUBRIMIENTOS EN EL MUNDO

Huevos Hallados en China, Cuando Se Excavaba Para Una Zanja

La ciudad de Heyuan, en China, es conocida popularmente como “la ciudad de los dinosaurios”, debido a los constantes descubrimientos de fósiles en su territorio. Esta vez, unos obreros han descubierto 43 huevos de dinosaurio mientras instalaban un nuevo sistema de cañerías, y muchos están intactos.

Fuente Consultada:
Revista TECNIRAMA N° 67
Enciclopedia de la Ciencia y La Tecnología

Amianto Aplicaciones, Propiedades y Riesgos de Cancer

El amianto o asbesto es conocido por el hombre desde hace por lo menos 2.500 años. A causa de su singular resistencia al fuego, se atribuían a esta sustancia propiedades mágicas. Se dice que el emperador Carlomagno demostró sus poderes sobrenaturales arrojando al fuego un mantel de amianto que recuperó intacto. La resistencia al fuego es la propiedad que más llamaba la atención de los antiguos, pero no es la única cualidad del amianto, que ha probado ser enormemente apto en aplicaciones industriales.

Es un excelente aislante del calor, del sonido y de la electricidad, y su naturaleza fibrosa permite que se pueda trabajar para elaborar telas para trajes, etc. Mezclado con otros materiales como el cemento proporciona un excelente material de construcción. El amianto es flexible, resistente a los ácidos y a los álcalis y no se deteriora  con el  tiempo.

Amianto

Hablar solamente de “amianto” no es precisar mucho, pues el amianto no es una sustancia única. Hay muchas variedades de él, y cada variedad posee en distinto grado las propiedades ya indicadas.

El valor comercial del amianto depende grandemente de dos cualidades: su incombustibilidad y su singular estructura fibrosa. La última permite separarle en fibras o filamentos que, en la variedad usada con más frecuencia, poseen una gran resistencia a la tracción y son muy flexibles.

Podemos decir que las principales propiedades del amianto son:

Incombustibilidad.
Elevado aislamiento térmico.
Elevado aislamiento acústico.
Resistencia a altas temperaturas.
Resistencia al paso de electricidad.
Resistencia a la abración.
Resistencia al ataque de microorganismos.

Debido a estas especiales características, el amianto se ha usado para una gran variedad de productos manufacturados, principalmente en materiales de construcción (tejas para recubrimiento de tejados, baldosas y azulejos, productos de papel y productos de cemento con asbesto), productos de fricción (embrague de automóviles, frenos, componentes de la transmisión), materias textiles termo-resistentes, envases, paquetería y revestimientos, equipos de protección individual, pinturas, productos de vermiculita o de talco. El amianto también está presente en algunos alimentos.

YACIMIENTO Y ORIGEN
El amianto, tal como se encuentra en la naturaleza, es una roca, tan sólida y densa como el granito. Se encuentra subterráneamente en vetas delgadas, incluidas en rocas que tienen una composición química parecida.

Incluso hoy día no hay una idea clara de cómo el amianto se formó en la corteza terrestre. La teoría más generalizada es la de que la roca subterránea se transformó por la acción del agua caliente, que contenía sales disueltas y anhídrido carbónico. Al producirse grietas en la roca, éstas se llenaron de agua, y, durante largos períodos de tiempo, ocurrieron reacciones químicas, que dieron lugar a capas gelatinosas que eventualmente cristalizaron para formar el mineral, fibroso y estrechamente empaquetado, que hoy día conocemos.

VARIEDADES   DE   AMIANTO
El nombre de amianto, en una acepción amplia, puede darse a todo mineral natural capaz de ser manejado o transformado en fibras. Hay, por lo menos, treinta tipos distintos de minerales que forman lo que se llama el grupo asbestiforme, y que tienen grandes semejanzas, pero solamente seis poseen importancia comercial.

En orden de importancia, son:   el crisotilo  o  amianto blanco,  la crocidolita o amianto azul, la amosita, antofilita, tremolita y actinolita. Se dividen en dos grupos principales: los amiantos de crisotilo (o serpentina) y los amiantos anfibólicos.

Las diferencias entre los distintos tipos provienen de la roca o matriz donde el amianto se encuentra. Desde el punto de vista químico, son complicados silicatos de magnesio que, generalmente, contienen uno o varios de los siguientes metales: sodio, aluminio, hierro y calcio.

CRISOTILO
Es la variedad más importante de mineral de amianto, y constituye el 80 ó 90 por ciento de la producción mundial. Se encuentra principalmente en Canadá, en la U.R.S.S. y en Rodesia del Sur. Su color varía desde el blanco puro hasta el verde grisáceo, dependiendo de las impurezas que contenga.

El crisotilo no se altera a temperaturas de hasta 450 ó 500 °C, en que empieza a perder agua estructural. Sus fibras resisten la acción de los álcalis, pero no la de los ácidos, y los ácidos minerales  fuertes  las  disuelven  completamente.

Crisolito o Amianto Blanco

Algunas fibras de crisotilo tienen hasta ocho centímetros de longitud, aunque la mayoría están por debajo de los cuatro centímetros. Son fuertes y flexibles, trabajándose con facilidad, probablemente a causa de las cantidades de talco que se encuentran en ellas.

Estas propiedades, juntamente con su resistencia, longitud, y mala conductividad eléctrica (gran resistencia al paso de la corriente), lo hacen muy adecuado para la manufactura de amianto textil. Cuando se muele la roca, el amianto se descompone en fibras, y la parte de roca adyacente se pulveriza.

De esta forma, ambos se separan fácilmente. Frotando la superficie de la roca, pueden obtenerse fibras extremadamente finas, que, de hecho, son haces de fibras todavía más finas, las cuales pueden separarse a mano. Incluso esas fibras pueden subdividirse a su vez.

Con el microscopio electrónico han podido medirse los diámetros de las fibras más finas, que son del orden de dos millonésimas a veinte millonésimas de centímetro. Las fibras que se usan en la práctica son mucho  más  gruesas.

Los  estudios  modernos  con  el  microscopio electrónico sugieren que. las fibras de crisotilo son huecas, a pesar de que los tubos pueden estar rellenos de material menos cristalino, pero con la misma composición química. Esto serviría de explicación al hecho de que las fibras sean suaves, elásticas y absorbentes. Su resistencia a la tensión es muy grande; por término medio, del orden de la de una cuerda de acero para piano del mismo diámetro, aunque se han obtenido valores de resistencia doble.

AMIANTOS ANFIBÓLICOS
Los amiantos que derivan de este grupo se diferencian de los del crisotilo por su mayor riqueza en sílice, hierro, aluminio, sodio y calcio. Sin embargo, contienen menos magnesio. Cada uno de ellos incluye dos o más de esos metales en diferentes proporciones. La crocidolita, que tiene un color azul peculiar, y la amosita, que varía desde el blanco al pardo amarillento, son las variedades más importantes. Ambos son silicatos de hierro; el primero contiene dos tipos de hierro y sodio, y el segundo, hierro ferroso y magnesio.

La crocidolita posee magníficas propiedades de resistencia al calor, semejantes a las del crisotilo. Los amiantos anfibólicos son más ásperos al tacto y, por’consiguiente, más difíciles de trabajar, y menos aptos para la fabricación de tejidos, a pesar de que sus fibras son más largas y que su resistencia a la tracción es grande (mayor que la de las cuerdas de acero para piano). La propiedad más importante de la crocidolita es su resistencia al ataque por los ácidos.

La crocidolita se encuentra principalmente en Sudáfrica, pero también hay grandes yacimientos en Bolivia y en Australia. La amosita se encuentra solamente en Sudáfrica. La resistencia a la tensión es mediana, pero, para algunas aplicaciones, su resistencia al calor resulta superior a la del crisotilo o la crocidolita. Sus fibras pueden tener hasta 30 centímetros de largo, y se usa principalmente para la fabricación de aislantes térmicos. Dado que la amosita es menos flexible y tiene menor resistencia a la tracción que el crisotilo y la crocidolita, sus aplicaciones son bastante limitadas.

Las fibras de los amiantos anfibólicos no sólo son más largas que las del amianto blanco, sino también más gruesas (de 400 a 100 milésimas de centímetro, en vez de dos millonésimas de centímetro). Son sólidas, y, por lo tanto, duras y elásticas, pero quebradizas.

Riesgos del amianto: Existe el riesgo de contraer determinadas enfermedades específicas provocadas por la inhalación de fibras de amianto: asbestosis, cáncer pulmonar y mesotelioma de pleura y/o peritoneo, además de una irritación crónica de la dermis.

Está compuesto por fibras microscópicas que pueden permanecer en suspensión en el aire el tiempo suficiente para que representen un riesgo respiratorio. Cuando el contacto es prolongado puede provocar son enfermedades del aparato respiratorio. El cáncer de pulmón es la más mortal de las enfermedades que afectan a las personas expuestas al amianto.

Otra enfermedad respiratoria es la asbestosis es una enfermedad asociada directamente a la exposición al amianto. Consiste en el desarrollo de una fibrosis pulmonar tras la inhalación de asbesto que con el tiempo dificultad para respirar.

MINERÍA Y TRATAMIENTOS
La mayoría de las rocas que contienen los minerales del amianto se explotan relativamente cerca de la superficie, por lo que esta minería resulta relativamente económica y sencilla, en comparación -con la minería profunda. Con frecuencia, las explotaciones están al descubierto.

A veces, sin embargo, se practican túneles en el frente de la roca, y el mineral se saca en vagonetas. El mineral bruto, con grandes cantidades de ganga, se pica o se dinamita de la roca, de forma parecida a como se hace con el carbón, y se separa provisionalmente a mano. La roca acompañante se tira y el material se lleva al grupo separador donde se extraer; las fibras largas.

Éstas forman el 3 % del mineral extraído, y son susceptibles de ser tejidas. El resto se tritura y se pasa por tamices. Los residuos se aventan para recuperar las pequeñas cantidades de amianto que puedan quedar. La producción de fibra es pequeña: una tonelada de fibra por cada ocho o hasta treinta toneladas de roca triturada.

La fibra de amianto separada por los tamices se lleva a un molino que funciona como un mortero, y a continuación se pasa a un molino de alta velocidad, donde las fibras se separan aún más.

APLICACIONES DEL AMIANTO
Las fibras largas usadas para tejer reciben un tratamiento más cuidadoso para separar las longitudes desiguales, los fragmentos de roca y las fibras no abiertas. A continuación se cardan, se bobinan y se tejen o trenzan. Generalmente se refuerzan con alguna fibra vegetal o, en algunos casos, con finos hilos de metal.

El tejido de amianto tiene muchas aplicaciones industriales. Se usa en revestimientos aislantes de muchas clases, para juntas y protecciones de calderas. Para estos revestimientos, la cubierta exterior de tejido de amianto se rellena de fibra suelta del mismo material. Los revestimientos están solamente extendidos y tensados, de forma que pueden quitarse fácilmente cuando hay que hacer reparaciones o para su manejo.

Los trenzados de amianto tienen usos muy variados en la industria para empaquetamientos y juntas, especialmente para máquinas de vapor y para bombas. Su resistencia al calor y su larga duración les hace excelentes para tales aplicaciones. Otra aplicación de relieve es en los frenos y embragues, donde las propiedades importantes son las de la resistencia y no alteración por el calor. La lisura del amianto permite que la pieza giratoria encaje sin vibración ni desgaste. La mayoría de las camisas anti-fricción se fabrican con tejido de amianto o se moldean con fibras o resina de este material.

Las fibras cortas de amianto son la mayor parte de las obtenidas en la mina y se usan para hacer tableros y objetos prensados. Hay una demanda creciente de fibrocemento (cemento con fibras de amianto) en la industria, especialmente en la de la construcción. Se usa para cubiertas de tejados y paredes, para edificar depósitos y hangares, así como para compartimientos. Los productos de fibrocemento moldeado se usan en la construcción de canales, desagües, tuberías, depósitos, tubos para cables y acequias.

Los tubos subterráneos de fibrocemento de gran diámetro se fabrican con destino a aprovisionamientos de aguas, cloacas y drenaje. La fibra de amianto puede también esparcirse sobre objetos, especialmente si se desea protección contra el fuego. Cuando la fibra se mezcla con un líquido, cada haz de fibras absorbe cierta cantidad de éste. Esta propiedad hace posible el pegarla sobre estructuras de acero, por ejemplo, o sobre la parte inferior de los pisos, para evitar que las llamas puedan extenderse a otras habitaciones.

El amianto de usa también mucho en el aislamiento del sonido. El amianto esparcido o pegado en las superficies es especialmente útil. Como material absorbente del sonido, se usa en las salas de cine o de conciertos, para eliminar las superficies que reflejan el sonido produciendo eco.

El amianto esparcido se aplica también a superficies frías donde, de otra forma, se acumularía la humedad. El amianto esparcido disminuye el enfriamiento de la capa de aire próxima a la superficie (por ejemplo, en un techo) y, de esta manera, evita la condensación.

El uso de amianto fue absolutamente prohibido en España en diciembre de 2001, si bien algunas de sus variedades se prohibieron antes como el amianto azul en 1984 y el amianto marrón en 1993.

Fuente Consultada:
TECNIRAMA La Enciclopedia de la Ciencia y la Tecnología Fasc. N°56
Sitio web español: http://www.amianto.com.es/

Vida de Bunsen Roberto Inventor del Mechero Científico

En el siglo XIX floreció en Alemania una aristocracia científica. En aquella época, los químicos eran personajes muy importantes y gozaban de gran estima entre el resto de la población. Pero no sólo eran respetados, sino que, con frecuencia, los científicos notables estaban muy bien remunerados, disfrutando de un elevado nivel de vida. La admiración general que la química despertaba, atrajo a los mejores investigadores de otros países, y nadie podía ser considerado un buen químico si no había realizado estudios en Alemania.

Bunsen Robert

Roberto Guillermo Bunsen (1811-1899) fue uno de los personajes más brillantes de la Alemania del siglo xix. Inició sus estudios de zoología,  física y  química  en su ciudad natal, Goettinga (Alemania), ampliando sus conocimientos en París, Berlín y Viena. Fue nombrado profesor de química de la Universidad de Heidelberg, en 1852.

Fue un experimentador audaz. En el curso de uno de sus experimentos perdió la visión de un ojo, lo que no impidió que repitiera el experimento delante de sus alumnos, aterrorizando a los que ocupaban los primeros bancos. En otra ocasión, estuvo a punto de morir envenenado por arsénico y, durante sus experiencias con este elemento, descubrió que el óxido de hierro hidratado era un antídoto eficaz contra dicho tóxico.

Su nombre es recordado, principalmente, por el aparato de laboratorio ideado por él y llamado, en su honor, mechero Bunsen. El gas era, en aquella época, la fuente de calor más usada en los laboratorios; pero si abrimos una llave de gas y prendemos el chorro que brota por el extremo del tubo, la llamita luminosa que se produce es relativamente fría.

Esto se debe a que no existe suficiente cantidad de oxígeno, en el interior de la llama, para que el gas se queme por completo, y el carbono que no ha ardido se deposita en forma de una capa negra, ennegreciendo los objetos calentados. El mechero diseñado por Bunsen aumenta la eficacia calorífica de la llama, ya que su temperatura es más elevada y no deposita hollín. Para conseguirlo, dispuso una entrada de aire regulable en la base del tubo.

La corriente de gas succiona el aire a través del orificio y, si la mezcla resultante contiene 2,5 veces más aire que gas, la llama que produce un zumbido característico será limpia y de gran poder calorífico. Pero si contiene un exceso de aire, la llama se propagará al interior del tubo, ardiendo en la base, en lugar de hacerlo en el extremo superior; es decir, el mechero se cala. Bunsen estudió el tamaño del tubo y del orificio de entrada de aire, hasta conseguir resultados satisfactorios.

Mas, sus esfuerzos científicos no se concentraron en una sola dirección, sino que trabajó en diversos campos, realizando descubrimientos importantes. Inventó una pila de carbono-cinc y un calorímetro de hielo; obtuvo magnesio metálico en grandes cantidades, empleándolo, en parte, como fuente luminosa; contribuyó al análisis de gases y estudió las solubilidades de éstos en los líquidos. Otra de sus invenciones, el jotómetro de mancha, es un dispositivo que se emplea para comparar la intensidad de dos fuentes luminosas, y todavía lleva su nombre.

En colaboración con Kirchhoff, estudió el espectro emitido por los elementos al calentarlos, encontrando dos espectros no identificados, que les condujeron al descubrimiento del cesio y el rubidio. Tras una vida muy activa, falleció en 1899, a la edad de 88 años.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología TECNIRAMA N°88 Roberto Bunsen

Diferencia entre peso y masa Concepto Físico

El peso y la masa son, probablemente, las palabras más intensamente empleadas por el lenguaje científico. Están en tan íntima relación que, en circunstancias normales, el peso y la masa de un objeto tienen exactamente el mismo valor numérico. 10 kilos de papas tendrán un peso de 10 kilos y una masa de 10 kilos.

Como los valores son los mismos, se tiene la falsa impresión de que las palabras son sinónimas. Si hemos pesado una zapallo con un aparato que funciona mediante el alargamiento de un resorte (cuanto más pesado sea el objeto, el resorte se estira más), entonces medimos realmente el peso. El zapallo tiene un peso de 10 kilos.

Cuando se ponen las papas en el platillo del aparato, el resorte tira del platillo y de su contenido hacia arriba, oponiéndose a su alargamiento. Por otra parte, la fuerza de la gravedad actúa sobre el zapallo, empujándolo hacia abajo. El resorte se larga hasta que estas dos fuerzas opuestas se equilibran exactamente, y el peso se lee como una medida de dicho alargamiento.

balanza de resorte pensado

Esta balanza de resorte mide la fuerza (P) con que es atraída la masa del zapallo, que según la Ley de Newton, es igual a la masa (m) por la aceleración de la gravedad (g) , ósea: P=m.g. Esta balanza mide peso o fuerza, y según donde se haga a medición variará, porque depende del valor de “g”, no es lo mismo pesar en la Tierra que en la Luna, o en cualquier orto planeta, es decir, el peso varía según la masa m y la aceleración g. Cuanto mas masa o mas aceleración, mayor será el estiramiento “x” del resorte.

El resorte mide, por tanto, la magnitud de una fuerza que intenta estirarlo, y por ello el peso debe ser una clase de fuerza. El empuje hacia abajo del zapallo  depende de dos factores: la cantidad de sustancia o materia contenida en las papas y la atracción de la gravedad de la Tierra. La masa del zapallo no depende del lugar donde se encuentre éste; a menos que se les quite algún trozo, la cantidad de materia que las compone será siempre la misma.

En cambio, el campo gravitatorio de la Tierra (la atracción que ésta ejerce sobre un cuerpo) varía. Si dejamos caer una piedra en un pozo sufrirá un incremento de velocidad de 9,8 metros por cada segundo que cae.

Si la piedra cayera desde un satélite en órbita, situado a muchos kilómetros de distancia, entonces, en un segundo, el incremento de velocidad sería muchísimo menor. Esto es debido a que la piedra se encuentra más lejos de la Tierra y la influencia de esta última sobre ella es mucho menor.

A medida que cambia la acción del campo gravitatorio de la Tierra, cambia el peso del objeto. Si utilizamos un dinamómetro, el zapallo pesará ligeramente menos en la cima de una montaña que al nivel del mar. En cambio, la masa es algo que no varía nunca. Es la cantidad de materia que contiene una sustancia.

Un bloque de plomo está compuesto de un número determinado de átomos. Cada átomo tiene 82 protones, 126 neutrones y 82 electrones. En otras palabras, cada átomo tiene cierta cantidad de materia en él. No importa que el bloque de plomo está en el fondo de un pozo, en la cima de una montaña o en la superficie de la Luna: si no se le ha quitado ni añadido nada, contiene la misma materia y, por lo tanto, la misma masa.

Por este motivo, para medir la masa hay que utilizar un aparato que dé la misma medida, cualquiera que sea el lugar donde sea utilizado. A este fin se usa una balanza. El objeto cuya masa se desconoce, se coloca en el platillo izquierdo de la balanza.

balanza de masa

El platillo desciende, y el brazo de ésta se inclina al no haber nada en el otro platillo para equilibrarlo. Unas pesas metálicas (denominación impropia, pues deberían llamarse masas) se colocan en el otro platillo hasta alcanzar el equilibrio: una masa se equilibra con otra masa.

Si se lleva la balanza a un lugar donde la atracción de la gravedad sea mucho menor, el objeto sufre un menor empuje, pero también le ocurre lo mismo a las “pesas” del otro platillo, y se obtiene el mismo resultado. La balanza de precisión se utiliza para medir masas con una exactitud de cuatro diez-milésimas.

Las pesas, por lo tanto, deben tratarse con mucho cuidado. Si se desgastan pierden cierta masa, y en contacto con los dedos se ensucian con la grasitud de las manos y sufren un aumento de masa. Por ello se deben tomar siempre con pinzas. Éste es uno de los motivos por los que las balanzas de mayor precisión se manejan por control  remoto.

Fuente Consultada:
Enciclopedia de la Ciencia y Tecnología TECNIRAMA N°86

Descubrimiento del Oxígeno Experiencias de Priestley

Descubrimiento del Oxígeno Experiencias de Priestley

José Priestley nació cerca de Leeds (Inglaterra), en 1733, y trabajó en una época en la que la alquimia comenzaba a desacreditarse y ser reemplazada por el pensamiento científico lógico. Anteriormente, la investigación química había sido instigada por el sueño de convertir en oro sustancias de escaso valor, y se sabía, a la sazón, muy poco de ciencia química.

Priestley y sus contemporáneos, Lavoisier, Black, Scheele y Cavendish, contribuyeron a la acumulación de datos y a la preparación de nuevas sustancias químicas. Como ha ocurrido a menudo en la historia de la ciencia, sus trabajos, muchas veces, eran idénticos y se obtenían los mismos resultados por dos científicos que trabajaban independientemente.

Por ejemplo, Priestley y Scheele pretendieron ambos ser los descubridores del gas conocido hoy como oxígeno. Años después, se derivaron muchas leyes del conjunto de conocimientos químicos que estos hombres aportaron, y con ello dio comienzo el desarrollo de las ideas generales de la química.

Priestley José Oxigeno

Priestley fue el primero en introducir gases, mediante burbujas, en una vasija invertida llena de mercurio, aplicando su boca a un tubo de mercurio. De esta manera, podían ser recogidos gases imposibles de recoger a través del agua porque se disuelven en ésta. Hacia 1770, Priestley había recogido y estudiado los gases solubles en agua que conocemos como amoníaco, dióxido de azufre y cloruro de hidrógeno.

Se recuerda a Priestley, fundamentalmente, por sus trabajos con los gases. Su principal interés se centró en el aire y en la necesidad de éste para el desarrollo de la vida. Experimentó con ratones, colocándolos en un espacio de aire cerrado, para observar cuánto tiempo podían vivir en esas condiciones, y comprobó que, una vez muerto el ratón, era imposible hacer arder una vela en aquel aire.

Sin embargo, al colocar una planta dentro del aire enrarecido, observó que, de algún modo, el aire parecía regenerarse y la vela podía arder nuevamente. Ésta fue la primera noticia que se tuvo de la reacción hoy conocida como fotosíntesis, pero Priestley no se dio cuenta de que la luz era un factor esencial en la regeneración del aire.

En 1774, Priestley preparó y recogió una muestra de oxígeno bastante puro, cubriendo óxido mercúrico rojo con una campana de vidrio y calentándolo con los rayos solares, mediante una lente. Comprobó que una vela ardía con más brillo en el nuevo gas, y que un ratón podía vivir durante más tiempo en un recipiente lleno de dicho gas, que en otro del mismo volumen lleno de aire. El mismo Priestley respiró el gas, para comprobar sus efectos, y notó que se sentía lleno de energía y que sus pulmones respondían eficientemente. Pensó que tal vez el gas sería útil en medicina.

Es sorprendente que, con este conjunto de datos, Priestley no se diera cuenta de que el gas obtenido del polvo rojo era el componente vital del aire. En vez de ello, se aferró a la teoría del flogisto. Priestley pensó que, cuando se quemaban las sustancias, perdían flogisto, y que éste era absorbido por algún otro cuerpo. Los cuerpos podían arder en el aire porque éste no estaba saturado de flogisto y era capaz de absorberlo. Cuando el aire se saturaba ya no podía mantenerse por más tiempo la combustión.

En 1772, Priestley publicó un importante trabajo, con el título de Observaciones sobre las diferentes clases de aire, en el que se describía la obtención, en el laboratorio, de varios gases nuevos, como los óxidos nitroso y nítrico, nitrógeno, bióxido de nitrógeno y ácido clorhídrico. Recogió los gases insolu-bles sobre agua y los solubles sobre mercurio. El soporte utilizado por él para recoger gases es el antecesor del soporte en forma de colmena que se utiliza en los laboratorios hoy día.

Aunque era bastante conservador en sus ideas científicas, sus ideas políticas eran todo lo contrario, su violento apoyo a la Revolución Francesa fue causa de que su casa se viera asaltada por las turbas de Birmin-ghan, que la mantuvieron asediada durante tres días.

José Priestley, científico y pastor protestante no-conformista, murió en  1804.

equipos quimicos de priestley
Parte del  laboratorio  de  Priestley.  Los  gases  desprendidos  por  las  sustancias  calentadas  en   la  chi’ menea   o   con   una   vela   se   recogen   sobre   mercurio.En su recogida de gases, Priestley trabajó con el mercurio, pero no pudo emplearlo de manera más directa en sus experimentos. En efecto, cuando el mercurio se calienta en el aire, forma un compuesto rojo ladrillo que ahora llamamos óxido de mercurio.

Priestley calentó algo de este compuesto en un tubo de ensayo, utilizando una lupa a fin de concentrar en él los rayos de sol. Al proceder así, el compuesto se fragmentó, liberando mercurio en forma de glóbulos brillantes en la parte superior del tubo de ensayo. Además, se desprendió un gas que poseía las más insólitas propiedades. Los combustibles se consumían más brillante y rápidamente en él que en el aire ordinario.

Los ratones colocados en una atmósfera de este gas se mostraban particularmente retozones, y el propio Priestley se sintió “ligero y a gusto» cuando lo respiró. Estaba claro que era el oxígeno lo que mantenía la combustión y la vida animal, y asimismo lo que intervenía en la oxidación.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnologia TECNIRAMA N°86 -José Priestley –

Anticongelantes: Uso de Etilenglicol Baja Punto de Congelamiento

ETILENGLICOL: PARA BAJAR EL PUNTO DE CONGELAMIENTO DEL AGUA

En los climas intensamente fríos, los automóviles pueden sufrir averías si no se toman medidas para protegerlos. El radiador y el bloque de los cilindros (bloque del motor) son las partes afectadas en primer lugar. Si el agua que contiene el bloque de los cilindros llega a congelarse, éste se parte, del mismo modo que los conductores de agua cuando el líquido que contiene se hiela. El hielo es menos denso que el agua y, por tanto, cuando éste se congela, convirtiéndose en hielo, ocupa un volumen mayor.

En el radiador de un automóvil, el agua está encerrada en un espacio limitado. El metal no puede dilatarse; de hecho, se contrae cuando disminuye la temperatura. Así, cuando el agua se congela, el sistema refrigerante está sometido a una presión interior, puesto que aquélla se expande, haciendo lugar para el hielo; el bloque de los cilindros o el radiador no pueden soportar esta tensión y se rompen.

Estas roturas son costosas, pues la dificultad de la reparación obliga a sustituir las piezas. Una vez que se ha roto el bloque, el sistema de refrigeración del motor deja de funcionar y, si se usa el coche en estas condiciones, el motor se sobrecalienta, expulsando chorros de vapor de agua.

Por esto, resulta muy importante que el agua del sistema de refrigeración no se congele, aunque la temperatura externa descienda por debajo de O° C. Hay que añadir alguna sustancia que rebaje el punto de congelación. En otras palabras, al agua de refrigeración debe añadírsele un anticongelante.

Cuando se añade al agua un poco de sal, el punto crioscópico (punto de congelación) baja ligeramente. Si añadimos más sal, dicho punto sigue descendiendo.

La adición de una impureza tiene, pues, el efecto de hacer descender el punto de congelación. Aunque con sal se puede conseguir este efecto perfectamente, no se usa nunca como anticongelante por su fuerte poder corrosivo, que atacaría rápidamente el metal del radiador. Normalmente, se usa el compuesto orgánico etilénglicol.

Éste es muy eficaz para disminuir el punto de congelación del agua de refrigeración. Al contrario que la sal, no es nada corrosivo y, por tanto, puede usarse sin peligro de dañar el radiador. Los anticongelantes que compran los automovilistas contienen, fundamentalmente, etilénglicol, junto con un pequeño porcentaje de otros compuestos químicos, que actúan como inhibidores (antioxidantes), protegiendo de la corrosión el interior del radiador.

Los antioxidantes son muy necesarios, porque la misma agua es un agente corrosivo que puede atacar la superficie metálica, si no lo evitamos. Aunque se podría usar el mismo glicol indefinidamente, los antioxidantes tienden a perder su eficacia.

Por tanto, es aconsejable usar anticongelante nuevo cada invierno, para impedir la corrosión del radiador.El anticongelante se mezcla con agua y, una vez diluido, se vierte en el radiador. Una solución con un 25 % de glicol en volumen tiene un punto crioscópico de — 12,8° C, y es la adecuada porque no resulta fácil que la temperatura descienda por debajo de este punto. Este tipo de mezcla, naturalmente, no se puede usar dentro del Círculo Polar Ártico, donde la temperatura desciende, con frecuencia, por debajo de —12,8° C.

Se necesita, por tanto, un líquido cuyo punto de congelación sea mucho más bajo. A medida que se va aumentando la proporción de glicol, el punto crioscópico desciende hasta un cierto límite, desde el que empieza a subir nuevamente. El punto de congelación más bajo que puede obtenerse con una mezcla de etilénglicol y agua es — 44° C. Se trata del punto crioscópico de una mezcla al 50 % de glicol y agua.

Para las condiciones extremas del Ártico se añade una pequeña cantidad de éter de glicol. Así se consigue que el punto descienda hasta — 68° C. Casi todos los sistemas de refrigeración de los automóviles que -circulan actualmente pueden ser vaciados o llenados por sus dueños, pero la tendencia moderna es que estén precintados y que su contenido sea renovado solamente cada dos años.

El radiador se llenará y precintará en la fábrica, usando una mezcla más concentrada que las habituales. Se utiliza una mezcla al 50 % de glicol y agua, que hace descender el punto crioscópico hasta — 44° C. De este modo, los autos pueden funcionar en cualquier país. Los antioxidantes plantean problemas, pero se están llevando a cabo investigaciones para prolongar su período de actividad. Con mejores antioxidantes, no sería necesario cambiar el anticongelante tan frecuentemente.

En el gráfico se observa: A medida que se va añadiendo más etilénglieol al agua, el punto crióscopico desciende gradualmente. El refrigerante del radiador puede elaborarse de tal forma que siga estando liquido por debajo de O°C. Esto no se puede conseguir indefinidamente. Cuando se añade mucho glicol, el punto crioscópico se eleva de  nuevo, como se vé en la línea roja de la derecha.
grafico etilenglicol

Fuente Consultada
Revista TECNIRAMA N°113 Enciclopedia de la Ciencia y la Tecnología

Subproductos Derivados del Petroleo Etileno Destilación y Refinación

Aunque el petróleo es importante como fuente de lubricantes y carburantes para los motores de combustión interna, los subproductos de las refinerías se utilizan como el punto de partida para la obtención de nuevas sustancias. Rápidamente, estos subproductos se han convertido en las principales materias primas para la obtención de una amplia gama de compuestos orgánicos complejos y, en particular, de los polímeros.

Hasta hace quince años, las principales fuentes de compuestos orgánicos eran el alquitrán de hulla y el alcohol etílico, obtenido por la fermentación de melazas. Cuando las compañías de petróleo más importantes comenzaron a trasportarlo crudo para su refinación posterior cerca de los centros, consumidores, en vez de refinarlo en los campos petrolíferos, se pudo disponer de los subproductos del petróleo en gran cantidad.

Desde un punto de vista económico, esta fue una situación ideal. Por un lado, las refinerías producían hidrocarburos gaseosos (con moléculas que contienen uno, dos, tres o cuatro átomos de carbono), de los cuales había una demanda limitada en aquella época.

Por otra parte, varios productos nuevos estaban en etapa de desarrollo y necesitaban materias primas económicas. Así, pues, los subproductos del petróleo se convirtieron en materiales de partida para muchos otros procesos.

Debido a la interdependencia entre las refinerías y las plantas químicas que utilizan sus productos, gran parte de los procesos iniciales se realiza en fábricas que dependen de las compañías de petróleos y de las empresas de productos químicos.

MATERIAS PRIMAS
Los elementos básicos con los que se obtiene gran número de compuestos son los hidrocarburos gaseosos, que son separados de los componentes sólidos y líquidos del petróleo crudo cuando éste se destila.

También se producen en gran cantidad durante la operación del craqueo catalítico. En este proceso, el gasóleo (fracción de petróleo con un punto de ebullición más alto que la gasolina) se vaporiza, se mezcla con vapor de agua y se hace circular por un catalizador caliente.

Las moléculas más grandes del gasóleo se rompen, para formar moléculas más pequeñas. Entre los compuestos más importantes que se obtienen por este procedimiento figuran el etileno, el propileno, el butileno y el butadieno. Sus moléculas no están saturadas (es decir, tienen dobles enlaces débiles), y algunos se utilizan para obtener hidrocarburos de cadena ramificada de peso molecular mayor, que se añaden a la gasolina para mejorarla (le dan un mayor índice de octano). Como hay una superproducción de gasóleo, no es difícil producir cantidades suficientes de estos compuestos no saturados para atender cualquier demanda.

Antes de que los gases se puedan utilizar en las plantas químicas, deben separarse. Esto se hace por destilación fraccionada, que se efectúa a presiones altas y baja temperatura, con lo cual los hidrocarburos se licúan.

Casi todos los gases que provienen de la planta de destilación son hidrocarburos saturados (es decir, los átomos de la molécula están unidos por enlaces sencillos fuertes). El propano y el butano se utilizan, principalmente, como gases trasportables. Éstos se licúan fácilmente a presiones moderadas y se envasan. Las garrafas o bidones de propano y butano se utilizan mucho, sobre todo en los lugares donde no hay gas de alumbrado.

Sin embargo, el metano (gas natural) es importante como materia prima. Este hidrocarburo (CH4), en sí, es poco reactivo, pero se puede convertir en alcohol metílico (CH3-OH), que tiene muchas aplicaciones. Esta conversión tiene lugar en dos etapas. Primero, el metano, mezclado con vapor de agua y anhídrido carbónico, se pasa sobre un catalizador caliente de níquel. Se forma una mezcla de monóxido de carbono e hidrógeno en las proporciones adecuadas. Cuando se comprime la mezcla, se obtiene alcohol metílico.

El alcohol metílico es un disolvente importante como tal, pero grandes cantidades de él se convierten en formaldehído (CHaO) por una reacción de oxidación. El formaldehído se usa en la preparación de varios fármacos, pero la mayor parte del producto se utiliza en la fabricación de plásticos de fenol-formaldehído (por ejemplo, la bakelita),

REFINACIÓN  DEL PETRÓLEO: En la refinería, la primera operación a la que se somete el petróleo crudo es la “destilación”. Ésta separa el petróleo en seis “fracciones”, la mayoría de las cuales sufre un tratamiento posterior. La gasolina destilada contiene gran proporción de parafinas de cadena lineal, que producen el picado o detonación cuando se quema aquélla en el motor del coche.

Este efecto se puede disminuir añadiendo a la gasolina parafinas de cadena ramificada e hidrocarburos cíclicos. Para producir estos compuestos cíclicos y ramificados se realizan tres procesos, que son: el craqueo, la polimerización y el “reforming”. Calentando a temperaturas elevadas los compuestos orgánicos, cuyas moléculas constan de muchos átomos, éstos se descomponen, dando compuestos de moléculas más pequeñas.

torre de destilación de petroleo

En el proceso de destilación primario se suministra petróleo crudo y se separan las distintas fracciones.

Este proceso, llamado “craqueo”, tiene lugar en las refinerías de petróleo, donde se rompen los aceites de alto punto de ebullición y se obtienen compuestos más volátiles, que se pueden añadir a la gasolina. Para facilitar estos cambios químicos se utilizan catalizadores, por lo cual el proceso se llama “craqueo catalítico”.

Además de dar compuestos adecuados para la destilación de gasolina, también se producen hidrocarburos gaseosos. Estos últimos (que contienen uno, dos, tres o cuatro átomos de carbono por molécula) se obtienen tanto en la etapa de destilación como en las del craqueo Catalítico.

Algunos de estos compuestos, especialmente los hidrocarburos no saturados propileno y butileno, se utilizan en reacciones de “polimerización”, para obtener hidrocarburos ramificados mayores, que, cuando se añaden a la gasolina, le confieren propiedades antidetonantes y elevan su índole de octano. Estos gases son también la materia prima para la industria petroquímica.

ETILENO
El etileno y los hidrocarburos superiores no saturados (propileno, butileno y butadieno) son mucho más reactivos que los hidrocarburos saturados, y por eso tienen muchas más aplicaciones como materias primas. Se obtienen, principalmente, en la planta de craqueo catalítico, donde, controlando con cuidado las condiciones de reacción (temperatura y presión) y la proporción de vapor añadido, se puede obtener un gran rendimiento en compuestos no saturados.

Como el etileno es un compuesto no saturado, resulta bastante reactivo. Toma parte en reacciones de adición (es decir, se le pueden añadir otras moléculas), y con facilidad forma polímeros, como el polietileno.

La mayor parte del etileno se usa en la fabricación de plásticos: polietileno, poliestireno, policloruro de vinilo (P.V.C.) y acrilonitrilo. El etileno también puede convertirse en alcohol etílico, que se emplea como disolvente.

El alcohol se oxida para dar acetaldehído y ácido acético, que, a su vez, se usan como materiales de partida para la fabricación de otros productos

También se utiliza el etileno en la fabricación de óxido de etileno, del cual se puede obtener etilénglicol, que se emplea como anticongelante en los sistemas de refrigeración de los automóviles. El etilénglicol es una materia prima utilizada en la fabricación de la fibra artificial llamada terilene.

La obtención de alcohol etílico a partir de etileno y agua es también un proceso catalítico en el que se usa ácido fosfórico como catalizador. En este proceso se obtiene, al mismo tiempo, éter dietílico en pequeña cantidad. Sólo un 5% del etileno que’entra en el reactor se convierte en alcohol etílico; por eso, el etileno se separa para reciclarlo, y el alcohol y el éter se separan por destilación fraccionada. El éter que se produce se utiliza como disolvente y anestésico.

La producción de plásticos y fibras artificiales que se derivan del etileno constituyen un tema demasiado extenso para describirlo aquí.

En casi todos los casos, la polimerización se realiza abriendo los dobles enlaces y utilizando las valencias libres para unir muchas moléculas entre sí. El polietileno se obtiene directamente del etileno, mientras que el cloruro de vinilo se produce a partir de etileno y cloro, antes de polimerizarlo.

El estireno, del cual se obtiene el poliestireno, también se consigue del etileno. Cada uno de esos plásticos tiene gran variedad de aplicaciones; algunos son buenos aislantes eléctricos, otros resisten el ataque químico. Unos son trasparentes, mientras que otros resultan traslúcidos u opacos.

En la actualidad, el propileno se utiliza principalmente para la obtención de otros compuestos orgánicos intermedios, como alcohol isopropílico, acetona y fenol, entre los más importantes; pero parece probable que en el futuro se utilicen cantidades mayores en la producción de un nuevo plástico: el polipropileno. Actualmente, la acetona se fabrica del propileno por medio de dos procedimientos diferentes. El primero consiste en obtener alcohol isopropílicoy luego oxidarlo a acetona.

En el proceso más reciente, el propileno reacciona con benceno para dar eumeno, que se oxida después y se descompone en fenol y acetona. La acetona es un disolvente muy importante y se utiliza en la producción de explosivos y adhesivos. El fenol es uno de los principales materiales de partida para la fabricación de gran número de plásticos y resinas; por ejemplo, el plástico fenol-formaldehído (bakelita)  y las epoxiresinas.

Cuando se unen cuatro moléculas de propileno, se obtiene una sustancia llamada isododeceno (CH2HE,), que se utiliza en la fabricación de varios detergentes de uso doméstico e industrial. Grandes cantidades de butadieno (CH2=CH—CH=CH2) y butileno (C4H8) se utilizan actualmente en la producción de varios tipos de caucho sintético y de plásticos.

Estos cauchos sintéticos se emplean en la fabricación de suelas de calzado y de neumáticos de automóvil. Durante el proceso de refinación del petróleo, también se obtiene gran número de compuestos inorgánicos. En el petróleo hay varios compuestos de azufre que deben eliminarse y que pueden ser una fuente de azufre para la producción de ácido sulfúrico.

El exceso de gas hidrógeno procedente de las refinerías se puede utilizar en la elaboración de amoníaco, que es un material esencial en la fabricación de varios fertilizantes.

tabla uso del petroleo

ALGO MAS SOBRE LOS USOS DEL PETROLEO:

El petróleo es una sustancia que las personas conocen y usan desde hace miles de años. Con el nombre de aceite de roca se empleaba, por ejemplo, para impermeabilizar todo tipo de embarcaciones, y en el antiguo Imperio babilónico (el actual Irak) ya se asfaltaban con él las calles principales. Sin embargo, sus utilidades eran escasas.

El primer pozo petrolero se perforó a mediados del siglo XIX, obteniendo como primer subproducto el queroseno, que sustituyó al aceite de ballena como combustible. A finales de ese mismo siglo aparecieron los primeros automóviles impulsados por gasolina, y la creciente demanda de coches con motor de combustión convirtió al petróleo en la principal fuente de energía en unas pocas décadas.

La industria petroquímica comprende la elaboración de todos aquellos productos que se derivan de los hidrocarburos, tanto del petróleo como del gas natural. Produce cientos de productos diferentes, con aplicaciones en casi todos los ámbitos de nuestra actividad:

•  Las fibras textiles artificiales, como el nailon. Presentan, sobre las fibras naturales, grandes ventajas, como resistencia ante el ataque de bacterias, hongos e insectos, se arrugan menos, se secan más rápidamente, etc.
•   Fertilizantes, herbicidas e insecticidas de todo tipo para la agricultura.
•   Colorantes, conservantes, antioxidantes y otros productos aditivos para la industria alimentaria.
•   Detergentes.
•   Envases y embalajes variados.

Todos los tipos de plástico son polímeros, es decir, materiales derivados del petróleo. Sus utilidades son incontables: carcasas para aparatos electrónicos (teléfonos, computadoras, televisores, etc.); film transparente para envolver alimentos; fibra óptica para comunicaciones; encapsulados y coberturas para material eléctrico; neumáticos, etc. Las aplicaciones del petróleo y sus derivados en nuestra vida diaria son muy numerosas.

CUADRO SOBRE EL USO DEL DERIVADO ETILENO:

cuadro uso del etileno

Fuente Consultadas:
Revista TECNIRAMA N°124 El Petróleo Como Materia Prima
La Enciclopedia del Estudiante Tomo 04 Tecnología e Informática Santillana

Energía Geotermica Concepto y Técnicas de Producción

Hasta las mayores centrales de producción de energía creadas por el hombre quedan empequeñecidas por la principal fuente de energía de la Tierra, el Sol. Directa o indirectamente, el Sol proporciona casi toda la energía que necesitamos, porque él es quien calienta el planeta, y en último extremo, quien impulsa el viento y las olas. Incluso la energía química de las reservas mundiales de carbón, petróleo y gas, procede originariamente de plantas y algas, que obtuvieron a su vez su energía del Sol.

Cada  vez   se   necesita   más   energía   para mover toda la maquinaria del mundo, y el hombre busca continuamente nuevas fuentes de ella. Además de quemar carbón y petróleo, rompe los átomos de los elementos radiactivos (energía atómica), construye presas en los ríos (energía hidráulica) y convierte directamente el calor del sol (energía solar).

Incluso, las fuerzas de los vientos y los grandes movimientos de las mareas han sido aprovechados. Una nueva fuente de energía, llamada a tener gran importancia en el futuro, es el calor producido por la misma Tierra: la energía geotérmica. No se conocen con absoluta certeza las causas de este calor terrestre; pero no puede dudarse de su existencia.

En muchas partes del mundo hay volcanes que expulsan grandes cantidades de lava fundida; el vapor se escapa a través de grietas; hay conos volcánicos donde hierve la lava, y agua hirviente que sale a la superficie en forma de manantiales calientes o geiseres. Se calcula que la energía que disipa la Tierra excede la contenida en los combustibles convencionales. Lo único que hace falta es descubrir el procedimiento para utilizar la potencia geotérmica.

No es una novedad la utilización del calor terrestre. Los islandeses tienen una larga conducción de agua, procedente de manantiales termales, que terminan en sus casas y huertos. Las casas de 46.000 personas (la cuarta parte de la población de Islandia) están calentadas geotérmicamente. En Larderello, cerca de Pisa, en el norte de Italia, los gases calientes que  salen del suelo se han utilizado, desde comienzos de siglo, para producir electricidad.

Pero, hasta muy recientemente, la potencia geotérmica no se consideraba como una fuente de energía importante, sino, simplemente, como un suplemento de las otras grandes fuentes naturales.

Los “geiseres” son manantiales calientes, que expulsan agua y vapor sólo a intervalos. Junto a la superficie, hay un sistema de cámaras intercomunicadas, que están llenas de agua caliente. En la base, el agua llega a sobrecalentarse y su temperatura sube a más dé 100°C; pero, debido al peso de las capas superiores del líquido, no puede hervir. Lentamente, se eleva la temperatura del agua próxima a la superficie. Por fin, parte de ella hierve, convirtiéndose en vapor. Con ello, la presión desciende y el agua sobrecalentada hierve también; como consecuencia, se produce un violento surtidor de vapor, que puede alcanzar alturas considerables.

La Tierra intercepta cientos de miles de millones de megavatios de energía del Sol. Aunque la mayor parte de ellos es devuelta por irradiación al espacio y no resulta utilizable, la cantidad de energía solar absorbida por la Tierra en un solo año es todavía mucho mayor que la energía que se podría obtener de toda la reserva aprovechable de combustibles fósiles del mundo.

Bastaría con utilizar al máximo una fracción minúscula de esta energía solar para satisfacer nuestras necesidades actuales. El Sol seguirá brillando durante miles de millones de años; por ello, las formas de energía obtenidas diariamente de él reciben el nombre de energías renovables.

Tarde o temprano se agotarán las reservas mundiales de carbón y petróleo, pero abajo de nosotros hay otra fuente de energía virtualmente ilimitada. Se trata de la energía geotérmica, el calor del núcleo de la Tierra. La parte externa del núcleo, justo debajo de la corteza terrestre, se compone de magma, esa roca al rojo vivo que expelen los volcanes en erupción.

En muchas zonas volcánicas, la energía geotérmica brota a la superficie en forma de agua caliente o vapor, que puede usarse para accionar generadores de electricidad. En 1904 se inauguró en Larderello, Italia, una planta activada por energía geotérmica, pero la electricidad que produce satisface apenas las necesidades locales. Hoy, en Cornwall, Inglaterra, y en Los Alamos, Nuevo México, se investiga la forma de extraer la energía que se halla escondida en el centro del planeta.

tecnica para geotermia

Gambusinos del calor Cerca de Los Alamos (desierto de Nuevo México) se han hecho perforaciones por pares. La más profunda de ellas llega a 4.400 m, donde la temperatura de la roca es de 327°C. Se inyecta agua, bombeándola a alta presión, para romper la roca y formar fracturas que unan los pozos. Así, el agua impelida por uno de los barrenos se vuelve vapor, que se fuga por las fracturas hacia el otro barreno, de donde se devuelve a la superficie por bombeo. Si se perfecciona esta tecnología de “ardientes rocas secas”, el agua calentada servirá para generar electricidad a gran escala, sin dañar el ambiente.

Energía geotérmica: A unos 30 km por debajo de nuestros pies, la roca alcanza una temperatura de aproximadamente 900°C. Este calor proviene principalmente de la descomposición radiactiva gradual de los elementos en el interior de la Tierra. En sentido estricto esta fuente de energía no es renovable, pero es inmensa. En los 10 km superiores de la corteza terrestre, a profundidades accesibles con las técnicas actuales de perforación, hay energía suficiente para cubrir todas nuestras necesidades energéticas durante cientos de años.

En algunas partes del mundo, como Islandia, por ejemplo, la cantidad de calor geotérmico que llega a la superficie es notablemente superior a la de otros lugares y puede utilizarse directamente como método de calefacción doméstica. En otros países, se calientan bloques de pisos con agua caliente procedente de pozos de unos 2 o 3 km de profundidad.

Sin embargo, las mayores reservas de calor geotérmico se encuentran a una profundidad muy superior, a unos 6 km. Como a esa profundidad las rocas están secas, resulta más difícil y costoso extraer su calor, porque es necesario bombear agua hacia abajo para transportar posteriormente el calor hacia arriba.

En un proyecto experimental llevado a cabo en Cornualles, Inglaterra, tres perforaciones de 2 km de profundidad han sido interconectadas mediante un sistema de grietas, que permite bombear el agua desde una perforación a otra.

Existen proyectos para taladrar agujeros de hasta tres veces esa profundidad, pero incluso a las profundidades actuales el agua vuelve a la superficie lo suficientemente caliente como para producir el vapor que hace funcionar las turbinas. Algunas estimaciones sugieren que en Cornualles y otros lugares donde las rocas están más calientes a menores profundidades, proyectos de este tipo podrían llegar a generar una energía equivalente a diez mil millones de toneladas de carbón.

Soltando vapor:En Islandia,Italia y Japón, la energía geotérmica es liberada, por medios naturales, de
su asiento bajo la corteza. Desde la superficie se filtra el agua de lluvia  y se acumula en capas de roca porosa, donde el magma subyacente la calienta. El agua caliente  sube de nuevo a la superficie por entre las fisuras de la roca y brota en forma de fuentes termales, charcos de lodo, chorros de vapor o geiseres. La humanidad puede abastecerse de energía natural con ayuda de una tecnología sencilla. Más del 80% de las casas islandesas cuentan con sistemas de calefacción alimentados con agua caliente geotérmica entubada.

Fuente Consultada:
Guinnes Publishing Limited Fasciculo N°20
Actualizador Básico de Conocimientos Universales Océano Tomo I

PLANISFERIO MAPA DEL MUNDO MAPAMUNDI Mapa Político del Mundo Paises

POR RAZONES DE ESPACIO SE HA DIVIDIDO EL PLANISFERIO EN DOS PARTES, PERO PUEDE ACCEDER A UN GRAN PLANISFERIO OCUPANDO TODA LA PANTALLA.

planisferio

planisferio

planisferio

planisferio

VENTANA CON MAPA COMPLETO

 

Descargar Distintos Planisferios en Diversos Formatos
 Planisferio Mudo con Sus Costas y Ríos
 Planisferio Mudo con Sus Costas y Poblados
 Planisferio Mudo con Poblados con Nombres
 Planisferio con los Estados o Países
 Planisferio con los Estados o Países a Color
 Planisferio Hidrográfico a Color
 Ver Todas Las Opciones

 Descarga de Mapas de los Países del Mundo

Otros Enlaces en Este Sitio
Mapa de América
Mapa de África
Mapa de Asia
Mapa de Europa
Mapa de Oceanía
Los Continentes del Planeta
10 Curiosos Datos Estadísticos del Mundo
Nombres y Banderas De  Los Países de América
Geografía del Mundo
Turismo Virtual
Juego de Ubicar Lugares en el Mundo

Cartografía del mundo
Hace casi 500 años, cuando se generalizó la creencia de que la Tierra era una esfera, los cartógrafos establecieron dos premisas esenciales. Una implicaba un sistema general de meridianos de longitud (del latín longus, «largo») y paralelos de latitud (de latus, «ancho»), que harían posible fijar cualquier situación en el globo. La segunda suponía un método de transferir detalles de una esfera a un planisferio, procedimiento que los cartógrafos modernos llaman una «proyección». Como la Tierra es redonda, no tiene esquinas desde las cuales puedan ser hechas las mediciones. Por lo tanto se utilizan dos puntos definidos de medición, el Polo Norte y el Polo Sur que son los extremos del eje imaginario sobre el cual gira la Tierra.

Al cartografiar la Tierra, los cartógrafos sitúan el Ecuador (la línea del centro alrededor de la Tierra) y los paralelos de latitud como rebanadas de la esfera. Cada paralelo es un enorme círculo dividido en 360°. Cada grado es equivalente aproximadamente a 60 millas náuticas empezando por el Ecuador (una milla náutica equivale a 1.852 metros). Los grados se dividen en 60 minutos, y cada minuto equivale a una milla náutica. El minuto se divide en 60 segundos.

El Ecuador está a 0° de latitud. Hacia el norte, los paralelos a partir del Ecuador están divididos de 1° a 90° (1/4 de círculo) y son llamados «latitud norte». Los paralelos, hacia el sur están también numerados del 1° al 90° y son denominados «latitud sur».

Los paralelos no son suficientes para indicar una localización en la Tierra, así que los cartógrafos colocan meridianos curvados (también medidos en grados, minutos y segundos) de longitud que convergen en los polos Norte y Sur. Como los meridianos cruzan los paralelos, dada la latitud y longitud de cualquier punto de la Tierra, uno puede localizarlos fácilmente.

Mientras que los paralelos de latitud empiezan con 0° en el Ecuador, el meridiano 0° de longitud utilizado desde 1884 por unos 25 países es el meridiano en que está situado el observatorio de Greenwich en Londres, Inglaterra. (Anteriormente muchos países utilizaban los meridianos que pasaban por sus capitales como primer meridiano.) Los meridianos se miden hasta el 180° al este de Greenwich y 180° al oeste de Greenwich. La longitud y el tiempo son inseparables. Una hora es el equivalente a 15° de longitud. Un grado es igual a 4 minutos de tiempo.

La transferencia de las líneas curvadas de los meridianos y paralelos al papel plano de modo que las líneas rectas puedan ser utilizadas como direcciones de compás, se logra por un sistema generalmente llamado como proyección Mercator, por Gerardus Mercator, matemático, geógrafo y grabador, que falleció en 1594.

En su sistema de proyección, todos los paralelos y meridianos forman ángulos rectos entre sí (no curvados como serían en el globo). Los meridianos convergentes de longitud son separados hasta que quedan rectos y paralelos. Mercator lo compensó extendiendo las distancias entre paralelos a un promedio creciente desde el Ecuador hasta los polos. Las tierras y mares fueron distorsionados por el método Mercator, particularmente en las regiones polares. Al enderezar los meridianos, Mercator produjo un enrejado de líneas rectas sobre el mapa, haciéndolo de gran valor para direcciones exactas de compás. El profesor Edward Wright de la universidad de Cambridge mejoró el sistema de proyección Mercator en 1 5 90 y esta adaptación fue aceptada generalmente hacia 1630 y continúa sirviendo a los navegantes aéreos y terrestres y se dice que no tiene igual como ayuda en la navegación. En la actualidad hay en uso otros tipos de proyección; pero todos tienen cierto grado de distorsión.

Los mapas del mundo revelan que menos del 30 % de la superficie de nuestro planeta es tierra; el resto es agua. La navegación segura en el agua en la actualidad depende de una carta náutica, que muestra las profundidades del agua, las posiciones de los cables submarinos, las marcas de reconocimiento terrestres, zonas de anclaje o de prohibición de anclaje, localización de boyas, luces u otras señales luminosas, y otras informaciones. Una carta oceanógrafica es empleada para proporcionar información sobre la distribución de propiedades físicas y químicas en el mar (temperatura, salinidad, etc.), geología, meteorología y biología marina.

En tierra, los mapas topográficos son utilizados por todas las naciones para revelar la elevación de las distintas zonas. La elevación promedio de los Estados Unidos, exceptuando Alaska y Hawaii, es de unos 700 m sobre el nivel del mar. Un mapa topográfico es un registro detallado de la topografía de una zona terrestre, con posiciones geográficas y elevación de los rasgos naturales o hechos por el hombre. Por medio de las líneas de contorno y otros símbolos, los mapas topográficos muestran la forma de la Tierra (las montañas, valles y llanuras) en su forma mensurable. Muestran la red de cursos de agua y de ríos y otros rasgos acuáticos en su verdadera relación
con la Tierra, y las principales obras del hombre en su tamaño relativo y verdadera posición.

Cosa sorprendente, sólo una pequeña porción de la superficie terrestre ha sido cartografiada hasta el grado de exactitud requerido hoy con propósitos industriales, militares, científicos y recreativos. (Sólo un 40 % de la superficie de los Estados Unidos está cubierta por mapas topográficos.)

Los mapas geológicos, que emplean un mapa topográfico como base, revelan qué clase de rocas existen dentro de un país. Los geólogos entrecruzan la Tierra, examinando formaciones rocosas de su superficie y haciendo proyecciones estudiadas de las del subsuelo.Los mapas geológicos son vitales para determinar la localización, profundidad y dimensiones de valiosas masas rocosas tales como las piedras de construcción o las vetas de mineral.

Hoy se hace un creciente uso de la «fotogeología», fotografía aérea y orbital (espacio) para identificar y cartografiar las formaciones geológicas, ciertas características del agua y las fallas terrestres, indicando dónde se pueden producir terremotos. Los aparatos muy sensibles instalados en los aviones, o los satélites que orbitan la Tierra, pueden detectar diferencias de temperatura en varios tipos de formaciones rocosas. La cartografía geológica desempeña un papel vital en determinar dónde están colocadas las estructuras (y cómo son diseñadas, construidas y mantenidas) analizando las rocas y suelos que los rodean.

Los terremotos, inundaciones y otros desastres, pueden hacer que un mapa quede anticuado. La naturaleza puede causar cambios en una costa, requiriendo revisiones para hacer que los mapas usados corrientemente sean exactos.
Los mapas revelan mucho a una nación sobre el mundo que la rodea, como el hecho poco conocido de que la costa occidental de Alaska está a menos de 50 millas de la Unión Soviética.

Teoría Especial de la Relatividad Explicacion Sencilla y Breve

La Teoría Especial de la Relatividad
Explicación Sencilla y Breve

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton “estaba mal” y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es “incorrecta”, da la impresión de que entonces la teoría de Einstein es la “correcta”.  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein “está mal” en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Experimento de Michelson Morley Explicación Buscando el Eter

Experimento de Michelson Morley
Explicación de la Busqueda del Éter

Todos oímos hablar alguna vez de Einstein y su teoría de la relatividad, que E=mc², que la velocidad de la luz es constante, y un montón de otras cosas que suenan lindo pero no significan nada. Para poder entender por qué estos términos siguen vigentes luego de casi 100 años de inventados, primero hay que hacer un poco de historia.

El año 1905 quedará como el annus mirabilis (año prodigioso) de Einstein, el año en que este físico de 26 años irrumpió en el mundo de la física, literalmente desde la nada, publicando cuatro importantísimos artículos científicos, cada uno de los cuales podría considerarse como un gran descubrimiento científico.

Estos artículos, de los que el más significativo fue el que exponía la teoría especial de la relatividad, aparecieron todos en Annalen der Physik, la principal revista de física de Alemania. Todos los artículos que se enviaban debían ser evaluados antes de publicarse; puesto que las credenciales de Einstein como físico estaban en orden y como utilizaba el lenguaje de las matemáticas y la física para expresar sus ideas, los físicos que evaluaron su trabajo lo consideraron adecuado para su publicación, aunque algunos de ellos tuvieran dificultades para comprenderlo, y realmente creyeron que la teoría de la relatividad no era correcta.
Ver Biografía de Albert Einstein

Introducción Histórica:

La física clásica comenzó allá por el año 1688 con un libro publicado por el británico Isaac Newton (llamado Principia Mathematica o algo así), en el cual especificaba 3 leyes de movimiento (todo cuerpo se mueve en línea recta y a velocidad constante cuando no es afectado por ninguna fuerza, cuando se aplica una fuerza sobre un cuerpo este ejerce la misma fuerza pero en dirección contraria, y que la aceleración producida por una fuerza neta en un objeto es directamente proporcional a la magnitud de la fuerza e inversamente proporcional a la masa) y que también contenía la ley de gravitación de Newton (dos cuerpos son atraídos entre sí en proporción inversa al cuadrado de la distancia). Esto que puede sonar complicado en realidad se puede resumir en unas pocas ecuaciones.

Con estas cuatro simples leyes se pudo explicar por primera vez hechos aparentemente tan variados como el por qué las manzanas se caen de los árboles y por qué la Luna gira alrededor de la Tierra. Newton también realizó observaciones sobre la naturaleza de la luz, alegando que la misma estaba compuesta de partículas (“corpúsculos”) y rechazando la idea de que la luz estaba compuesta de ondas, ya que las ondas necesitan un medio por el cual desplazarse (por ejemplo, el sonido se desplaza por el aire, o cuando tiramos una piedra al agua se ve que se generan ondas en el agua justo en el lugar donde tiramos una piedra) y la luz se desplaza por el vacío del espacio.

Si deseas puedes continuar hacia abajo con las conclusiones de la teoría  

El experimento Michelson-Morley

Pero la ciencia fue avanzando, y los instrumentos de medición fueron mejorando. Los datos obtenidos por los científicos demostraban que la luz se comportaba como una onda, ero si esto ocurría, entonces debería haber una “cosa” no detectada hasta el momento, que cubre todo el universo, por la cual se desplaza la luz. A esta cosa indetectable hasta entonces se la denominó éter lumínico. La tierra y todos los objetos, incluyendo la luz, se deberían desplazar a través del éter.

Un día de 1881, un señor llamado Michelson realizó un experimento con el fin de calcular la velocidad de la tierra cuando se mueve a través del éter (experimento de Michelson-Morley).

Para calcular esto, disparó varios rayos de luz en varias direcciones y calculó el tiempo que tardaban en regresar con un aparato inventado por él llamado interferómetro. Teóricamente, los rayos de luz que menos tardaran en regresar indicarían la dirección en la que se mueve la tierra dentro del éter (o sea, indicarían el “adelante”), mientras que los que más tardaran en llegar indicarían el “arriba”. Grande fue la sorpresa de este tipo cuando no descubrió ninguna diferencia en los tiempos de recorrido de la luz: la velocidad de la luz era constante midiera como se la midiera.

Esto significaba una cosa: la luz se movía a una velocidad constante… ¿pero con respecto a qué? Según la teoría de newton, si yo voy corriendo a 20 km/h, la velocidad de la luz que yo emito sería 20km/h mayor de la luz que emitiría si estoy quieto. Pero no, la luz parecía tener siempre la velocidad de 299.792,458 km/s, independientemente de la velocidad de la tierra.

ESQUEMA DEL EXPERIMENTO: Demostrada ya la existencia de las ondas, quedaba pendiente el delicado problema del éter: el medio en el que, según Maxwell, se propagaban dichas ondas. Como, por definición, era un medio inmaterial, no había forma de observarlo directamente. Fue entonces cuando se le ocurrió al físico norteamericano Albert Abraham Michelson (1852-1931) una idea realmente «cósmica»: puesto que la Tierra se halla en movimiento con relación a las estrellas (su velocidad orbital es de 30 km/s), este desplazamiento debería traducirse en la existencia de un «viento de éter», esto es, en

esquema experimento de michelson morley

Esquema del Experimento de Michelson-Morley.
Un rayo luminoso incide sobre un espejo semitransparente. El rayo reflejado va a parar a un segundo espejo; el que lo atraviesa sigue su trayecto rectilíneo y va a reflejarse en un tercer espejo. Ambos rayos, superpuestos, alcanzan el ojo del observador. Éste ve, en general, unas franjas de interferencias, alternativamente claras y oscuras. Como los dos brazos del dispositivo tienen la misma longitud, se puede utilizar el eventual desplazamiento de las franjas para detectar diferencias entre las velocidades de la luz en las dos direcciones. Michelson y Morley confiaban en que podrían medir alguna diferencia entre la velocidad de la luz propagándose en dirección norte-sur y la de la luz propagándose en dirección este-oeste. Pero no hallaron ninguna diferencia.

Teoría de la relatividad

Acá apareció un simple profesor alemán que trabajaba en una oficina de patentes en Suiza. En el año 1905 publicó un ensayo titulado “Sobre la electrodinámica de los cuerpos en movimiento” en el cual suponía que la velocidad de la luz es la misma desde donde se la mida: la velocidad de la luz es igual si la mido cuando estoy parado o cuando estoy yendo a una velocidad de 100.000 km/seg o a cualquier otra velocidad, un hecho que puede parecer antinatural. Decir esto contradecía las leyes de Newton, que estaban vigentes desde hacía más de doscientos años.

Esta es la base de la teoría de la relatividad: todos los fenómenos físicos se producen del mismo modo en un marco de referencia inerte (por “inerte” se quiere decir “a velocidad constante”). O sea, suponiendo que esté en una habitación sin ventanas ni otro contacto con el exterior, sería imposible determinar si estoy en movimiento o no, ya que cualquier experimento que realice dará el mismo resultado independientemente del movimiento. Obviamente asumir esto les costó a los científicos, la mayoría hasta se rehusaba a aceptar la teoría.

Pero Einsten no se inmutó, y en 1915 publicó una extensión a su teoría de la relatividad (conocida como la teoría general de la relatividad) en la que tomaba en cuenta los efectos de la gravedad y otras yerbas. Hasta ahí las teorías de Einstein eran sólo eso: teorías.

Las manzanas se seguían cayendo de los árboles, la luna seguía girando sobre la Tierra, lo demás poco importaba. Pero en 1919 un eclipse solar permitió comprobar que la luz era desviada por campos gravitatorios fuertes (en este caso el del Sol), justo como la teoría de Einstein y no la de Newton había predicho. El nombre Albert Einstein se volvió famoso de la noche a la mañana. Su teoría había logrado explicar la realidad mejor que la teoría de Newton.

Algunas consecuencias de la teoría de la relatividad

Para aceptar que la velocidad de la luz es constante desde donde se la mida, Einstein se vio obligado a aceptar algunas otras cosas raras, como por ejemplo:

     Nada puede viajar más rápido que la luz: La velocidad de la luz es el límite de velocidad del Universo.

A mayor velocidad, el tiempo pasa más lento: Si, esto suena muy extraño. Si tengo dos relojes perfectamente sincronizados, y pongo uno en un cohete supersónico, cuando el reloj vuelva a mis manos se notará que la hora que marca este reloj será inferior a la hora que marca el reloj que no se movió. Pero este paso más lento del tiempo es sólo aparente, si una persona viajara junto con el reloj no le sería posible percibir ninguna alteración en el paso del tiempo (el paso del tiempo en este caso es “relativo” al observador). El paso del tiempo se hace cada vez más lento a medida que uno se acerca a la velocidad de la luz, hasta hacerse 0 justo cuando se alcanza dicha velocidad. Por esto, se puede decir que la luz no envejeció ni un segundo desde el Big Bang.

A mayor velocidad, se produce un encogimiento en la dirección del movimiento: Por ej., si yo tengo una regla de 30 cm y de algún modo logro que viaje a 260.000 km/s (0,866 veces la velocidad de la luz) veré que la regla tiene ahora una longitud de… ¡15 cm!. De nuevo, este cambio es aparente: si yo pudiera propulsarme hasta alcanzar la misma velocidad de la regla, vería que vuelve a tener 30 cm.

e=mc2: Probablemente la ecuación más famosa de la física moderna. Esto quiere decir nada más y nada menos que la materia es una forma de energía y viceversa, donde e = energía, m = masa, c = velocidad de la luz. La masa y la energía se pueden transformar libremente. Este fue el principio de la reacción nuclear y la bomba atómica. Por ejemplo, si se convierte un gramo de masa en energía de acuerdo a la famosa ecuación, se estaría obteniendo suficiente energía como para darle a una familia entera electricidad suficiente por 10 años.   

Bueno, esta es una introducción a este interesante tema. Si algunas partes suenan confusas, entiéndanme, algunas cosas son realmente difíciles de explicar :

 Si quieren más información, acá les tiro un par de lugares donde pueden consultar:

– El libro “Nueva Guía para la Ciencia” de Isaac Asimov tiene una demostración de  e=mc2 que se entiende con conocimientos básicos de álgebra.

Esta es sola una de las miles que se encuentran explicando el tema, una gran mayoría son     muy buenas  y hacen que estos revolucionarios conceptos sean “digeridos” por los más profanos.

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

 

Plataforma Petrolera Funcionamiento Caracteristicas La Vida en el Mar

Existen grande construcciones civiles de acero a las que no se les puede negar valores formales de notable interés y una incidencia excepcional sobre la transformación del paisaje (que por fortuna no siempre es degradación). En este aspecto, la plataforma de barrenado de la BP en el mar del Norte entra, sin duda,, dentro de la categoría de estas realizaciones.

Plataforma Petrolera Funcionamiento Caracteristicas La Vida en el MarCuando, pocos minutos después de las 7 de la tarde del miércoles 3 de julio de 1974, en aguas de Gran Bretaña, el Graythorp I de la BP fue situado en aguas profundas, a 110 millas de Aberdeen, se asistió a un gran acontecimiento en el campo de la ingeniería marina. Para los pocos privilegiados que siguieron el acontecimiento, la instalación de esta estructura constituyó una visión verdaderamente espectacular.

La historia de estas plataformas está estrechamente vinculada, como es natural, a la otra historia, relativamente reciente, de la exploración y explotación de los yacimientos petrolíferos existentes en los fondos marinos. Los hidrocarburos líquidos (petróleo) y gaseosos (metano) constituyen la principal fuente de nuestra civilización industrial. Pero las reservas de “oro negro” de los yacimientos terrestres hasta ahora conocidos se encuentran en vías de rápido agotamiento.

Y de ello se saca una conclusión a todas luces evidente: si no se encuentran y se explotan nuevos yacimientos, la colosal maquinaria de la civilización industrial se quedará sin “carburante” dentro de cuarenta o cincuenta años como máximo. Por otra parte, de momento no parece muy probable que la nueva fuente de energía, la nuclear, pueda sustituir totalmente a los hidrocarburos en tan breve espacio de tiempo; de ahí la necesidad absoluta de intensificar las exploraciones de nuevos yacimientos.

Y en este aspecto ya no queda otro recurso que efectuarlos en el fondo de los mares y de los océanos, ya que la superficie terrestre ha sido explorada con tal fin a todo lo largo y a lo ancho de las zonas accesibles. Así empezó, en la última posguerra, la era de las exploraciones de hidrocarburos llamadas off-shore, término inglés, hoy día de uso internacional, que podría traducirse por “costa afuera”.

Las exploraciones off-shore se realizan en franjas de mar costeras, donde los fondos son más idóneos para este fin y las comunicaciones con tierra firme más fáciles. En la práctica, la técnica actual de las exploraciones off-shore permite la prospección de casi toda el área de las “plataformas continentales”, entendiendo con este término el “zócalo”, el ligero declive, en el que una tierra emergida se hunde gradualmente en el mar.

Es una zona muy amplia, calculada en 28 millones de km2. Sólo una parte de ella (7 millones de km2) ha sido explorada hasta ahora con tales fines. Sin embargo, ya en 1970, los hidrocarburos extraídos del fondo del mar constituían el 20 % del total mundial. La primera plataforma de perforación fue instalada en 1947 en el golfo de México. Pero el acontecimiento más importante de estos últimos años en Europa, respecto a la citada exploración de hidrocarburos en los fondos marinos y que ha llamado la atención de la opinión pública mundial es, sin duda alguna, el realizado en el mar del Norte.

Tras el “boom” del metano de Groninga, Holanda, los geólogos empezaron a sospechar que también bajo las tempestuosas aguas del mar del Norte pudieran ocultarse yacimientos de metano y de petróleo. Y si el depósito de gas de Groninga estaba considerado como el más importante hasta ahora conocido en el mundo occidental, la certeza de que pudiera ocurrir otro tanto en el mar del Norte dependía de los resultados de las exploraciones de los expertos de todo el mundo que allí se habían reunido.

El mar del Norte cubre casi por entero un banco continental formado por un espesor considerable de roca sedimentaria, y es precisamente en este tipo de roca, que a lo largo de los tiempos llenó las cuencas sedimentarias formadas por depresiones de corteza terrestre de muchos kilómetros de longitud y de profundidad, donde se encuentran los hidrocarburos líquidos y gaseosos. En Holanda y en la vecina Alemania se ha hallado no sólo metano, sino también yacimientos petrolíferos de pequeña y mediana categoría. Por lo tanto, la posibilidad de que pudieran encontrarse también bajo el mar del Norte constituía una hipótesis muy bien fundamentada.

La explotación de los eventuales yacimientos del citado mar podría permitir a Gran Bretaña, entre otras ventajas, y relativamente en breve tiempo, una autonomía casi total desde el punto de vista de la producción energética. Así, pues, se realizaron profundos estudios sobre la concreta estructura geológica de esta cuenca, estudios que permitieron clasificarla como una zona petrolífera en potencia. Geográficamente, el mar del Norte está dividido en dos zonas: la parte meridional, más bien estrecha, donde las condiciones del mar son menos favorables, y la septentrional, más ancha y abierta sobre el Atlántico.

Vista Aerea de una Plataforma Petrolera en México

La variabilidad extrema de las condiciones atmosféricas hace notablemente difícil, en cualquier parte de dicho mar, establecer las previsiones meteorológicas, a pesar de que en estos últimos años se hayan conseguido notables progresos en las previsiones a largo plazo. Añádase a esto que, si el medio marino era poco conocido, la naturaleza de los fondos marinos lo era aún mucho menos, lo que forzosamente había de plantear graves problemas a la estabilidad de las instalaciones y a la colocación de las conducciones.

En consecuencia, las instalaciones debían ser proyectadas de modo que hicieran frente a este conjunto de condiciones ambientales negativas. El término “plataforma”, con el cual habitualmente se denominan las susodichas instalaciones da, sin embargo, una idea falsa de estos colosos marinos que de planos no tienen nada.

El aspecto imponente de estas obras, y en particular de la Graythorp I de la BP, es excepcional; la estructura tubular de acero sobre la que se instalan una serie de equipos de gran complejidad, establece un parentesco, también formal, con la tradición de la ingeniería ochocentista; pero, por otra parte, la perfección y novedad técnica de las maquinarias, su diseño y su distribución, que tiene en cuenta la explotación en mayor escala y más funcional del espacio disponible, hacen de ellas unas de las más avanzadas realizaciones de la tecnología y la arquitectura modernas.

Como la perforación de un pozo en el fondo del mar no difiere técnicamente, por lo menos en la operación de excavación propiamente dicha, de lo que se hace con el mismo fin en tierra firme, el problema nuevo, hoy por cierto brillantemente resuelto, consistía en establecer las condiciones técnicas para la perforación partiendo de la superficie del mar y actuando a través del diagrama de decenas o cientos de metros de agua. Para esto era preciso crear artificialmente sobre la superficie marina una zona que pudiera contener todas las máquinas para la perforación, además del personal empleado en los trabajos.

Se trata, por tanto, de verdaderos pueblos situados en medio del mar. El equipo completo de estas plataformas comprende: por un lado, perforadoras dirigidas eléctricamente, bombas tubulares, depósitos para materiales químicos, máquinas para la producción primaria, que comprenden divisores de gas-petróleo y bombas de emisión con motor de turbina, instrumentos de refrigeración para la producción condensada y generadores de energía, con un total de 10 MW; por otro, los laboratorios, las cocinas, los locales de descanso, la sala cinematográfica y los depósitos de víveres, piezas todas ellas con aire acondicionado.

También hay una o más estructuras en forma de torre que más tarde serán las torres de perforación, con mesas giratorias, grandes válvulas, la pila para el limo y, finalmente, la zona de aterrizaje para los helicópteros. Toda esa formidable maquinaria se ha estructurado de forma que ocupe el menor espacio posible.

Por otra parte, era evidentemente necesario que las turbinas no descargasen en la zona de perforación, que la antena de radio estuviera dirigida hacia tierra firme y que la zona ocupada por los aposentos estuviera situada en el lugar más tranquilo posible; al mismo tiempo, la situación de cada parte individual debía tener en cuenta que la distribución de las cargas se realizaría de forma uniforme sobre toda la estructura de sustentación.

La división Menck de la Koehring Co. construyó, para la Graythorp I, el taladro más grande del mundo hasta entonces realizado; pesa 255 toneladas, tiene una potencia de golpe de 87.500 mkg y su golpe máximo es de 1,25 m, con una capacidad de 35 percusiones por minuto. Él proyecto final de toda la plataforma se realizó teniendo en cuenta las circunstancias ambientales, las cargas y las condiciones del subsuelo bajo la superficie del mar y además sufrió, respecto al original, muchos cambios; en efecto, al principio se establecieron 36 pozos y dos taladros, pero consideraciones sucesivas sobre el abastecimiento y los depósitos hicieron que se descartara esta primera hipótesis, ya que, por una parte, la limitación de espacio no permitía tener a bordo suficientes suministros y por otra el mal tiempo en el mar del Norte hacía imposible el aprovisionamiento de materiales de barrenado.

El actual proyecto es de 27 pozos y un solo taladro, ya que hay un depósito suficiente para la estiba del crudo extraído en 30 días de perforación. La eficacia, tanto de ésta como de las demás plataformas, y, por lo tanto, la posibilidad de desarrollar las funciones esenciales para las cuales han sido realizadas, se ven amenazadas por un enemigo implacable y multiforme, representado por la corrosión a la que se ven sometidas las estructuras de acero. El agua de mar constituye ya en sí un temible enemigo del acero, como de la mayor parte de los metales, incluso de los más nobles que el hierro; y el hecho de que además esta agua esté casi totalmente contaminada, en distinta medida, por productos más o menos nocivos, contribuye a empeorar en gran manera la situación.

La ejecución de todas las tareas, incluso de las más sencillas, requiere siempre condiciones meteorológicas favorables. Las inmersiones, en efecto, se ven obstaculizadas a menudo por el estado de la superficie del mar y por la turbulencia de las mareas; no es posible sumergirse cuando la altura de las olas supera los dos metros, y éstas son unas condiciones precisamente muy habituales en el mar del Norte durante la estación invernal, que dura unos siete meses.

La visibilidad del fondo, en verano, varía entre 9 y 12 metros si el tiempo es bueno; en invierno, a causa de la acción de las mareas sobre las arenas y sobre el limo, esta visibilidad puede reducirse a pocos centímetros, determinando una situación que hace casi imposible cualquier actividad.

Por ello no son raros los retrasos notables en el cumplimiento de las distintas tareas y, a menudo, durante el invierno, los hombres rana deben esperar inactivos durante semanas enteras antes de que una pausa en las tempestades les permita reanudar sus habituales trabajos. Las condiciones en que se ven obligados a trabajar estos hombres rana no son más que un aspecto de la vida que se desarrolla sobre estas plataformas; su tripulación, por completo masculina, está formada por unas 40 ó 70 personas, y está obligada a permanecer en la instalación durante un mes aproximadamente.

Esta permanencia suele verse prolongada a menudo, y a veces durante bastantes días, por las imprevistas condiciones atmosféricas en el mar del Norte, sujetas a cambios tan repentinos que escapan virtualmente a toda previsión meteorológica, haciendo imposible, incluso durante largos períodos, los transportes y los aprovisionamientos regulares. Debido a ello deben utilizarse tipos de buques especiales, capaces de servir a las plataformas en alta mar y de permitir también el intercambio del personal de mantenimiento.

Como vemos, la vida de los servidores de esos monumentales “edificios” anclados en medio del mar es tan admirable como las mismas construcciones.


Hundimiento Plataforma Petrolera-Golfo de México

La Explotacion del Petroleo Busqueda Cientifica y Técnologica

UN POCO DE HISTORIA SOBRE EL PETRÓLEO: A pesar de que el hombre ya conocía el petróleo desde los albores de la historia, la industria petrolífera apenas si cuenta con cien años de vida, y aun cuando los hombres han utilizado el petróleo durante miles de años, sólo desde hace poco se ha pensado en aprovecharlo como fuente de energía.

En muchas partes de la Tierra, el petróleo manifiesta su presencia con afloramientos que surgen de las profundidades terrestres, o con manchas oleosas que aparecen sobre la superficie de los ríos.

En las antiguas civilizaciones de la cuenca del Mediterráneo, se excavaban pequeños pozos para recoger el petróleo que surgía de los afloramientos superficiales, y la pez y el asfalto que se extraían del negro líquido eran utilizados para proteger las quillas de madera de las naves y hacerlas más resistentes para la navegación. La pez también se utiliza como aglomerante para pavimentos y otras construcciones. El asfalto sirvió para pavimentar las calles y las terrazas de Babilonia. Los egipcios, los chinos y los indios de América, utilizaban el petróleo crudo con fines medicinales y como desinfectante.

La existencia de petróleo y gas era conocida desde tiempos de los romanos. En su Historia Natural, Plinio habla del “aceite siciliano”, que se extraía de pequeños depósitos naturales y era utilizado por los griegos para la iluminación. Plinio habla también de los gases que servían para los fuegos sagrados en las fiestas en honor del dios Vulcano en la región de Emilia y describe una violenta erupción natural, acaecida en la provincia de Modena el año 91 a. de C. En un antiguo texto sobre los manantiales de aguas ricas en sales sódicas de Salsomaggiore, se hace mención de la existencia de gas y petróleo en aquella región, con manifestaciones y fenómenos registrados desde el año 589 d. de C.

El petróleo era utilizado como combustible en las lámparas de los egipcios y de otros pueblos antiguos, y ésta fue la aplicación que se le dio durante muchos siglos.

A mediados del siglo pasado, la fuente principal de luz eran las velas de sebo y las lámparas alimentadas con aceite de ballena. En aquel tiempo se producía con el petróleo crudo que emergía del suelo y era destilado en pequeñas refinerías, una pequeña cantidad de petróleo para la iluminación. La creciente demanda por parte del público, obligó a la busca del precioso líquido, pero hasta el año 1850 no se empezó a pensar en la utilidad de perforar pozos para extraerlo.

No puede señalarse con precisión quién tuvo por vez primera la idea de perforar un pozo para extraer petróleo. Muchos la atribuyen a un tal Georges H. Bissell, de Nueva York, quien adquirió un terreno en el que parecían existir, yacimientos petrolíferos, a la “Oil Creek” de Pennsylvania, y se dedicó a realizar investigaciones. Bissell fue uno de los fundadores de la “Petroleum Society” de Pennsylvania, que más tarde fue bautizada con el nombre de “Séneca Oil Company”.

Esta sociedad encargó a un tal Edwin L. Drake la excavación del primer pozo de petróleo. El 27 de agosto de 1859, después de dos meses de arduo trabajo, Drake encontró petróleo a unos 21 metros de profundidad, y del pozo surgieron tres metros cúbicos de petróleo por día.

El petróleo se reveló desde un principio como una notable fuente de riqueza, y a este primer experimento siguieron otros. Donde quiera que se descubriese petróleo, se manifestaba enseguida una gran actividad y confusión. Surgían nuevas ciudades como por encanto y la gente se disputaba a mano armada los terrenos petrolíferos.

De las experiencias prácticas cotidianas surgieron poco a poco las bases de los estudios científicos para la busca del petróleo. La composición y características físicas de la Tierra habían sido objeto de la curiosidad humana desde los tiempos más lejanos y la geología había ido evolucionando poco a poco. Sólo a principios del siglo actual, la experiencia de los investigadores del petróleo y la ciencia de los geólogos se unieron para dar vida a la “geología del petróleo”.

Entre 1965 y 1970 el petróleo había reemplazado al carbón como principal producto energético. Europa occidental y el Japón dependían cada vez más de los suministros petrolíferos del Cercano Oriente. Incluso los EE. UU., antaño el principal país exportador de petróleo, se veían obligados a importar desde finales de los años cincuenta debido a su elevada demanda energética. La creciente dependencia de Occidente de las importaciones petrolíferas incrementaba el poder de los países exportadores. Pronto iban a utilizarlo.

LA INDUSTRIA PETROQUÍMICA
El petróleo no es hoy solamente el principal producto energético, sino la materia prima más importante para la industria química, pues del petróleo se obtiene el 90 por ciento de las materias con que dicha industria elabora plásticos, abonos artificiales, caucho sintético, fibras químicas, detergentes, insecticidas y medicinas.

Desde que en 1868 el americano John W. Wyatt inventara el celuloide, indignado por el elevado precio de las bolas de billar de marfil, las cifras de producción de las materias sintéticas han aumentado ininterrumpidamente. Esta revolución técnica apenas tiene paralelo en la historia de la humanidad.

El desarrollo de las técnicas petroquímicas parte del hecho de que las moléculas de hidrocarburos se unen entre sí formando largas cadenas elásticas. Mediante el aprovechamiento de esta reacción química (polimerización) se han creado cada vez más sustancias orgánicas a partir de los hidrocarburos obtenidos del carbón, del gas natural y hoy principalmente del petróleo, sustancias que no solamente resultan más baratas que las inorgánicas (sobre todo los metales), sino que también reúnen todas las propiedades requeridas. Especial importancia tienen los termo-plásticos, materiales moldeables mediante el calor.

Los termoplásticos (dos tercios de la producción mundial de plásticos) han experimentado un desarrollo espectacular, y apenas hay campo en el que no encuentren aplicación. Entre otros muchos productos, el cloruro de polivinilo se utiliza para fabricar revestimientos de suelos, cuero artificial, esponjas sintéticas, discos y juguetes infantiles; el poliestireno, para vajillas, muebles, material de embalaje y de aislamiento; y las poliolefinas (polietileno y polipropileno), para artículos de uso doméstico, piezas de aparatos y máquinas, tubos y hojas. En pocas palabras, no es posible ya concebir un mundo sin plásticos. También desempeñan un importante papel en la fabricación de prótesis, dientes artificiales o válvulas cardíacas. Los aspectos negativos residen principalmente en la difícil eliminación de los residuos.

La industria de los plásticos consume anualmente unos 15 millones de toneladas de petróleo, es decir, sólo un 4 por ciento de la producción de crudos.

La energía alternativa
Después de la segunda crisis del petróleo de 1979, se emprendieron esfuerzos para encontrar fuentes alternativas de energía en los países avanzados. Pese a los considerables ahorros en el consumo de petróleo en los años entre 1979 y 1982, y el descenso relativo de los precios, el ímpetu siguió hasta finales de la década de los 80. Para complementar las tradicionales fuentes hidráulicas, de combustibles minerales, turba, madera y de energía nuclear, las nuevas alternativas incluían la conversión directa de la energía solar, la biomasa, la energía geotermal y la extracción de calor de los océanos, y el uso de energía de las mareas, así como el regreso a la tradicional energía eólica.

Muchas de éstas implicaban enormes programas de capital. Por tanto, la investigación y el desarrollo de las energías renovables habían sido emprendidos por gobiernos o con el apoyo gubernamental, por la friolera de 7.000 millones de dólares estadounidenses entre los 21 países miembros del Organismo Internacional de la Energía entre 1977 y 1985 inclusive. Los gobiernos también facilitaron subsidios, concesiones tributarias, préstamos baratos y otros incentivos.

La energía solar directa, por ejemplo la procedente del calentamiento del agua y del espacio, es ahora competitiva en cuanto al precio en muchos países y su uso se está ampliando. La energía eólica ha demostrado ser viable, aunque sólo para unidades pequeñas. La biomasa, en dos formas (los desperdicios o las cosechas especialmente cultivadas) se utiliza de modo creciente ya sea a través de la combustión o la conversión en combustibles líquidos o gaseosos.

En esta conversión se han utilizado el azúcar y el maíz. El excedente de azúcar de la CEE podría proporcionar cerca del 2 por ciento de las necesidades de petróleo de los países y existe un amplio potencial en otros excedentes agrícolas, así como en las cosechas especialmente plantadas.

Entre los programas a gran escala se encuentran los proyectos de las mareas en Gran Bretaña y Francia. Para sacar la energía de los océanos o de los estratos más profundos de la Tierra se necesitará mucha investigación costosa, pero finalmente ello puede resultar competitivo.

LA BÚSQUEDA CIENTÍFICA DEL PETRÓLEO. Algunas veces los estratos que contienen petróleo están cerca de la superficie terrestre, pero generalmente los depósitos se encuentran a profundidades de un kilómetro o más. Los primeros pozos fueron poco profundos y eran perforados casi al azar, guiándose los buscadores por las manifestaciones espontáneas de petróleo que aparecían en la superficie.

Hoy la búsqueda del petróleo depende de muy cuidadosos estudios científicos, realizados por geólogos, geofísicos y paleontólogos. No es posible asegurar con toda exactitud si existe petróleo en una región, pero los geólogos, estudiando los tipos de rocas y la forma en que se encuentran dispuestos los estratos pueden señalar si hay o no posibilidad de que existan depósitos; igualmente los paleontólogos, estudiando los fósiles extraídos en las perforaciones, pueden señalar si las rocas subyacentes pertenecen a formaciones propensas a contener petróleo.

Los geólogos buscadores de petróleo emplean distintos me dios para conocer la disposición de los estratos de las rocas a grandes profundidades. Uno de estos métodos es el empleo del sismógrafo, o sea, el mismo instrumento que se emplea para registrar los terremotos. El sismógrafo es tan sensible que puede registrar los pasos de una hormiga. Los geólogos perforan un pequeño pozo y depositan una carga explosiva.

Cuando se produce la explosión, las ondas viajan hacia el interior de la litosfera, en la forma en que sugiere el diagrama. Las ondas son reflejadas con mayor violencia por las rocas más duras, y regresan a la superficie en un tiempo más breve desde los estratos menos profundos que desde los situados a mayor profundidad. Igualmente las ondas varían de acuerdo con la naturaleza e inclinación de los estratos. Todas estas variaciones las registra el sismógrafo por medio de los teléfonos que aparecen colocados sobre la superficie.

El sismógrafo revela el tiempo transcurrido entre la explosión y el retorno del eco en los distintos lugares donde se instalaron los teléfonos. Estos datos, que son tomados en distintas áreas de la región estudiada, sirven a los geólogos para determinar si a grandes profundidades existen domos, anticlinales y trampas en las cuales pueda haber petróleo depositado. Si el informe es favorable, indica la posibilidad de que haya petróleo, pero no la seguridad; a veces son perforados numerosos pozos en una región, a enorme costo, sin resultada positivo alguno. (Cortesía de la Esso Standard Oil Company.)

DISTRIBUCIÓN DEL PETRÓLEO EN EL MUNDO
El petróleo se encuentra en el subsuelo, a grandes profundidades, y proviene de restos animales y vegetales que hace millones de años fueron aprisionados entre las rocas por movimientos telúricos y que, con el correr de los milenios, se transformaron en el tan codiciado “oro negro”.

Las mayores cantidades de petróleo se encuentran en los sedimentos rocosos de la era terciaria (que data de unos 200 millones de años). Las formaciones geológicas más antiguas, destrozadas y aplastadas por ios aluviones, se vieron despojadas de todo vestigio de restos orgánicos, y el petróleo que contenían terminó por perderse. Ello explica su ausencia en vastas zonas del Canadá, Brasil, Groenlandia, Escandinavia y en gran parte de África y Australia, constituidas por sedimentos muy antiguos.

La primacía en la producción mundial de petróleo le corresponde a los Estados Unidos, donde se extrae casi la mitad de toda la producción mundial; el segundo lugar lo ocupa Venezuela, en cuyo subsuelo existen reservas inmensas; el tercero Rusia y el cuarto Kuwait, un pequeño estado asiático.

Entre las naciones sudamericanas, la Argentina explota con un ritmo creciente sus riquezas petrolíferas existentes en Comodoro Rivadavia, Santa Cruz, Tierra del Fuego, Neuquén (Plaza Huincul), Salta y Mendoza. La industria de refinación cuenta con grandes y poderosas instalaciones en La Plata, Campana y San Lorenzo.

LA PERFORACIÓN DE LOS POZOS:
El petróleo solamente puede ser hallado por medio de un procedimiento bastante costoso: la perforación de pozos. En algunos yacimientos, el petróleo se encuentra relativamente cerca de la superficie; en otros, puede hallarse a bastante profundidad. A medida que la perforación alcanza mayor profundidad, el coste aumenta. La perforación se controla a medida que avanza; pero en tanto el taladro no penetre en una capa petrolífera, nada se sabe. Fuera de los campos petrolíferos muy extensos, solamente un pozo entre siete produce petróleo en cantidad comercial.

La técnica de la perforación de los pozos ha ido evolucionando durante el transcurso de los tiempos. Los primeros pozos petrolíferos eran perforados como si se tratara de pozos corrientes de agua, levantando y dejando caer alternativamente un pesado martillo, que fracturaba el terreno. Antes de comenzar su pozo, Drake levantó una torre de madera, en cuya cúspide colocó una polea que funcionaba por medio de una cuerda.

Esta torre, que en inglés se denomina derrick, se utilizaba para introducir y extraer los martillos de perforación del pozo. La verdadera perforación se realizaba mediante una especie de martillo bastante pesado que era alzado y bajado alternativamente por medio de una palanca formada por una gran viga de madera fijada a un perno.

Actualmente la perforación se realiza por medio de un taladro rotativo, colocado en el extremo de una larga transmisión de acero, compuesta por varias secciones o ejes de perforación que tienen una longitud de 27 a 36 metros, empalmándose uno tras otro a medida que la perforación se hace más profunda.

La extremidad superior de los ejes de perforación está adaptada a un eje cuadrado de acero, que a su vez se hace girar por medio de la rotary, para transmitir el movimiento a los citados ejes de perforación inferiores y a la broca, que gira en el fondo del pozo. A través de los ejes, se bombea un fluido especial para remover los restos producidos por la broca.

Estos residuos, una vez elevados a la superficie por el mismo barro que sale al exterior, son recogidos para obtener informaciones geológicas. El barro sirve también como refrigerante de la broca, reviste las paredes del pozo y con su peso impide posibles escapes de gas. Cuando el pozo alcanza la capa productiva, se retiran los ejes y la cabeza de perforación del agujero, mientras el peso del barro impide que el petróleo irrumpa en la superficie.

En el mismo terreno se cimenta la columna de tubos de revestimiento y se introduce en el agujero un tubo de pequeño diámetro a través del cual surgirá el petróleo. En la cabeza del tubo se fija, por último, un aparato llamado árbol de Navidad, compuesto por una serie de válvulas que sirven para distribuir el petróleo a las diferentes tuberías que lo conducen a los depósitos. Una vez han sido colocados el tubo y el “árbol de Navidad” en su sitio, se procede, por lo general, a desmontar el derrick.

EL REFINADO Y SUS PROCEDIMIENTOS

Tal como se encuentra en el subsuelo, el petróleo es sencillamente una materia bruta que, antes de utilizarse, ha de ser sometida a varios procedimientos. Estos procedimientos se designan con el nombre genérico de refinado y sirven para transformar el petróleo crudo en un centenar de productos diferentes.

Este apreciado líquido está constituido por una mezcla de diferentes compuestos cuyas moléculas están formadas por carbono e hidrógeno. Por esta razón a estos componentes del petróleo se les denomina hidrocarburos.
Existen diversas clases de petróleo crudo con características físicas variadísimas: algunas veces es pesado y denso; otras, ligero y claro como la gasolina. Hay tipos de petróleo negro, marrón, verde y amarillo.
La primera operación a realizar para el refinado del petróleo crudo, es la destilación, que sirve para separar las moléculas que lo componen en varias categorías, según su forma y peso.

El petróleo crudo, una vez calentado en el horno tubular, pasa a la torre de fraccionamiento, donde se transforma en vapores. Dado que la temperatura decrece del fondo a la parte alta de la torre, los diversos vapores se condensan a diferentes alturas, haciendo así posible la separación del petróleo crudo en sus diversos componentes. Mientras los aceites combustibles se condensan en los receptáculos inferiores, el petróleo de calefacción e iluminación se condensa en lo alto. Los vapores de gasolina se sitúan en la cabeza de la torre y se licuan en un condensador.

Cada componente sale de la torre a un nivel diferente y es conducido a otros aparatos para ser sometido a nuevos procesos de refinamiento que lo preparan para su ulterior uso. La necesidad de obtener de un solo producto crudo una gran cantidad de productos subsidiarios más apreciados (especialmente la gasolina), ha obligado a los industriales a desarrollar diversos procedimientos: el cracking, que permite obtener gasolina partiendo de fracciones más pesadas; la hidrogenación, con la que se obtiene por otros medios un resultado final análogo al cracking, y la polimerización, que permite obtener gasolina partiendo de los gases o de hidrocarburos ligeros.

El fin del eter de Aristoteles Quintaesencia llena el espacio Quinto

Durante el siglo XIX la idea de que la luz era un fenómeno ondulatorio estaba bastante afirmada. Las ondas que pueden observarse habitualmente a nivel macroscópico siempre son perturbaciones de algún medio material: las ondas de sonido son oscilaciones de las moléculas de aire, las ondas en un estanque son oscilaciones de las moléculas de agua, las ondas en una soga son oscilaciones de las moléculas que componen la soga, etc.

Por ese motivo resultó natural suponer que existía un medio material necesario para la propagación de las ondas luminosas. A este medio se lo llamó éter. Esta palabra ha tenido muchos usos a través del tiempo en explicaciones sobre la naturaleza, cuando se necesitaba postular la existencia de algún fluido que hiciera posible algún proceso (se ha hablado alguna vez de cierto éter que conduciría las sensaciones de una parte a otra del cuerpo humano).

El éter lumínico, de existir, debía tener propiedades muy particulares: ser lo suficientemente tenue como para llenar todos los espacios, incluso el interior de los cuernos transparentes o traslúcidos, y ser lo suficientemente rígido como para poder transmitir ondas de altísima frecuencia como las que conforman la luz. Los años pasaban y nadie podía diseñar una experiencia en la que se manifestara claramente la presencia del éter.

Si el éter llenaba también el espacio interestelar a lo largo de todo el Universo, esto hacía surgir una pregunta: ¿El mar de éter estaba fijo en el espacio y a través de éste se movían los astros sin perturbarlo, o cada planeta arrastraba el éter como si friera una atmósfera? La sistema de referencia absoluto respecto del cual se moverían todos los otros cuerpos. Y como la luz se propagaría a velocidad c en el éter estacionario, desde un cuerpo en movimiento, como la Tierra, se vería que la luz se mueve a distintas velocidades según lo haga en la misma dirección del movimiento terrestre, en sentido contrario o perpendicularmente.

Cuando el haz de luz viaja en la misma dirección y sentido que la Tierra, su velocidad relativa a ésta es c — y. Cuando viaja en una sentido contrario, su velocidad vista desde la Tierra es c + y.

En 1887, el físico Albert A. Michelson (1852-1931) diseíió un interferómetro y, junto con el químico Edward W Morley (1838-1923), realizó un experimento que debía mostrar la diferencia en las velocidades, vistas desde la Tierra, de dos rayos que se mueven en direcciones diferentes. Se usaban dos rayos provenientes de la misma fuente (para asegurar la coherencia), y luego de desplazarse en direcciones perpendiculares, se los hacia interferir.

La clave del experimento residía en que el patrón de interferencia debía cambiar si se rotaba el aparato con respecto a la dirección del movimiento de la Tierra.

El aparato original tenía muchos espejos para aumentar el camino recorrido por los rayos hasta unos 10 m, y así aumentar el efecto de interferencia. El dispositivo descansaba sobre una gran piedra que flotaba en mercurio.

El experimentador iba observando el patrón de franjas mientras hacía rotar lentamente la piedra. Hicieron miles de mediciones en diferentes puntos de la órbita terrestre y nunca notaron ni siquiera el mínimo corrimiento en el patrón de franjas. La orientación de los rayos de luz con respecto al movimiento de la Tierra no parecía afectar el movimiento de aquéllos. Algunos años más tarde, Michelson también investigó interferométricamente la posibilidad de que la Tierra arrastrara con ella al éter y demostró que esto tampoco era posible. La teoría del éter fue abandonada.

Cuadro Sinoptico de Estados de la Materia Resumen Cambios Físicos

QUE ES LA MATERIA?

Matería es todo aquello que tiene masa y .ocupa un lugar en el espacio. Un árbol, el aire, una roca y un ser humano son cuerpos materiales.

La masa es definida como la cantidad de materia que contiene un cuerpo. La unidad de masa que se usa en química es el gramo (g).

La masa y el peso están relacionados. El peso es la fuerza de atracción que ejerce la gravedad de la Tierra sobre la masa de los cuerpos. Esto significa que el peso y la masa no son iguales.

La masa permanece constante pero el peso varía de acuerdo con la gravedad de los cuerpos.

El volumen de un cuerpo corresponde al espacio tridimensional que ocupa. Las sustancias como los líquidos y los gases tienen la propiedad de escurrirse con facilidad, es decir, de tomar la forma del recipiente que los contiene. Esta propiedad se llama fluir, por lo cual se les ha llamado a los gases y a los líquidos fluidos.
La materia de la cual está compuesta el Universo tiene

 

Cambios de estado de la Materia:
Cada una de las sustancias que nos rodean se encuentra normalmente en un estado físico característico: por ejemplo, el aire es un gas, la nafta es un líquido, el hierro es un sólido, etc.

Sin embargo, sabemos que es posible encontrar estas sustancias en otro estado distinto del habitual. Así conocemos la existencia del hierro fundido  o del butano líquido, con el que se llenan los encendedores.

¿De qué factores depende el que una sustancia se encuentre en un estado físico determinado?

• En primer lugar depende, evidentemente, del tipo de sustancia que estemos considerando.
• También depende de la temperatura: calentando se puede transformar en vapor toda el agua de una cacerola; enfriando, esa misma agua se puede transformar en hielo.
• La presión es el tercer factor a tener en cuenta. Si se somete una sustancia a grandes presiones, se puede conseguir que cambie de estado, aunque no se modifique la temperatura. El gas butano con el que se cocina se encuentra en estado líquido dentro de la garrafa que lo contiene, y se transforma en gas al salir de ella. Esto es debido a que la presión atmosférica es mucho menor que la presión a la que está envasado el butano.

El estado físico en que se encuentra una cierta sustancia depende de la temperatura y de la presión a las que dicha sustancia se encuentra sometida. Modificando uno de estos dos factores, o los dos, es posible conseguir que la sustancia cambie de estado.

En la figura  se representan en un diagrama los posibles cambios de estado y el nombre característico que recibe cada uno de ellos.

cuadro cambio de estados de la materia

Cuadro cambio de estados de la materia


Es de destacar que el paso de líquido a gas o vaporización puede producirse por dos mecanismos diferentes:

• La evaporación, que tiene lugar a cualquier temperatura y únicamente ocurre en la superficie del líquido.
• La ebullición, que tiene lugar a una temperatura característica de cada sustancia y ocurre en todo el líquido.

NATURALEZA DE LA MATERIA

La naturaleza nos muestra una multitud de objetos distintos formados por diferentes materiales y, a la vez, vemos la desintegración de muchos de estos cuerpos: las montañas sufren la erosión del viento y del agua, que convierten en polvo lo que fueron inmensas piedras, la materia orgánica que forma a los seres vivos se degrada en componentes microscópicos por la acción de bacterias y otros organismos. ¿Hasta qué punto puede llegar en la desintegración de un objeto material?

Si tomamos una hoja de papel y la rompemos una y otra vez obteniendo en cada corte trozos más y más pequeños, ¿hasta dónde podrá continuar el proceso? Esta pregunta la formularon los griegos (y probablemente también otras civilizaciones) hace muchos siglos.

Algunos, como Aristóteles, creían que el proceso de división de algo material era infinito, o dicho de otro modo: afirmaban que la materia es continua. El espacio entre los astros estaría ocupado por la materia más sutil y perfecta: el éter. (Teoría Fracasada)

Pero bien, ¿Cómo está constituida la materia? Esta es una pregunta que ha preocupado siempre al hombre y lo ha hecho meditar muchísimo.

En la antigüedad los griegos pensaron acerca de dos posibilidades: o bien sería posible dividir un trozo de materia una y otra vez, indefinidamente; o bien la materia podría dividirse hasta llegara cierto punto; a este límite lo llamaron átomo, precisamente porque “a — tomo” quiere decir “no — cortable” o “no — divisible”.

Leucipo, Demócrito y Epicuro especularon con una estructura atómica de la materia, siglos antes de Cristo; pero en aquella época todo era cuestión de opinión, pues no había medios para comprobar experimentalmente la existencia de lo que hoy conocemos como átomo o como molécula. Para ello fue necesario llegar a los tiempos modernos.

El químico inglés John Dalton, en 1806, propuso formalmente la teoría atómica para explicar las relaciones cuantitativas en que se combinan ciertos gases. Posteriormente un químico italiano, Amadeo Avogadro, introdujo la idea de molécula.

Uno de los descubrimientos científicos más notables del siglo XX fue que “los átomos no son tales”, en el sentido de que sí se los puede dividir, pues están formados por un núcleo, que contiene protones y neutrones y una corteza que contiene a electrones en capas energéticas que giran a su alrededor.

LOS “LADRILLOS” DE LA MATERIA
Es muy tentadora la idea de que la materia esté constituida por unos pocos elementos.
Hace siglos se pensó que éstos podrían ser el agua, el fuego, la tierra y el aire; más adelante, en el siglo XIX, llegó a afirmarse que todas las sustancias tendrían come base una sola, el hidrógeno, pues las masas atómicas de todos los elementos son, aproximadamente, múltiplos enteros de la mase atómica del hidrógeno. Pero prontamente se desechó esa hipótesis.

Actualmente la situación se ha aclarado mucho; y una descripción sencilla (útil para comenzar a estudiar el tema pero incompleta) se basa en la existencia de tres clases de partículas componentes fundamentales de la materia: el protón, el neutrón, (ambos son llamados nucleones) y el electrón. (actualmente hay también decenas de partículas mas elementales)

COMPONENTES DEL ÁTOMO

Núcleo

Corteza

Protones (+) Neutrones (neutros) Electrones que Giran (-)

El átomo mas simple se llama Hidrógeno, y tiene solo un protón en su núcleo y un electrón girando a su alrededor. La carga del protón siempre es (+) y la del electrón (-), los neutrones no tienen carga eléctrica. Los protones van aumentando de uno en uno, y el siguiente elemento se llama Helio, dos protones y dos electrones, luego sigue el Litio con tres , y así se van sumando hasta el átomo mas complejo conocido como Uranio que contiene 92 protones en su núcleo, junto a 146 neutrones. Todos los átomo se puede agrupar ordenadamente en una tabla llamada Tabla Periódica de los Elementos Químicos, o bien , tabla de Mendeleiev, quien fue el autor de la misma. Actualmente se ha incrementado de forma artificial el numero de elementos químicos, llegando a 114.

Los átomos son neutros, porque hay tantas cargas positivas en el núcleo como cargas negativas en la “corteza” electrónica. Pero en las cercanías del átomo, una carga eléctrica es atraída en unas zonas y rechazada en otras: el átomo no actúa rigurosamente como neutro. Por eso, cuando dos átomos están a distancias relativamente cercanas unos de otros (a pocos diámetros atómicos), ejercen atracciones y repulsiones entre ellos, según la estructura de cada átomo en particular.

Esas interacciones tienen como consecuencia que los átomos se reúnan en estructuras, algunas sumamente simples y otras sumamente complejas: las moléculas . Estas son las estructuras más pequeñas en que las sustancias manifiestan sus propiedades químicas características: en que el agua es agua, la sal común es sal común, el oxígeno es oxígeno, el ácido sulfúrico es acido sulfúrico, etc.

LAS SUSTANCIAS PURAS SIMPLES
Son las sustancias cuyas moléculas tienen una sola clase de átomos: sus nombres coinciden con los de los elementos químicos. Estas moléculas pueden estar constituidas por diversos números de átomos: monoatómicas (como la plata, el cobre y los metales en general); diatómicas (como el oxígeno, el hidrógeno, el nitrógeno, y muchos otros gases); triatómicas (como el ozono).

Una molécula se representa con el símbolo químico y un número como subíndice de acuerdo con el número de átomos que forman la molécula: O3, Hz, Ag (en las monoatómicas se omite el subíndice), O3 (ozono), etc. El estado (sólido, líquido o gaseoso) en que se encuentre una sustancia pura simple depende de las condiciones de temperatura y presión; y en condiciones normales hay sólo dos líquidas (mercurio y bromo), once gaseosas y el resto sólidas.

LAS SUSTANCIAS PURAS COMPUESTAS
Cuando reaccionan dos o mas átomos entre sí para formar una sustancia, a dicha unión se la llama: molécula, y por lo tanto dicha molécula tienen varias clases de átomos: el agua, con dos átomos de hidrógeno y uno de oxígeno (H
2O); la sal de cocina, o sal común, o cloruro de sodio, con un átomo de cloro y uno de sodio (NaCl); el ácido sulfúrico, con un átomo de azufre, cuatro de oxígeno y dos de hidrógeno (H2SO4); y otros innumerables ejemplos.

Como en la naturaleza todas las partículas están en movimiento, cuando dos o más átomos se chocan o se acercan suficientemente, actúan fuerzas eléctricas entre ellos. Y cuando las condiciones son las necesarias y suficientes, los átomos se agrupan formando moléculas.

Una sustancia compuesta estará en estado sólido, líquido o gaseoso según las condiciones de temperatura y presión. Pueden coexistir distintos estados, como en el agua: agua líquida en un arroyo mientras está nevando y hay trozos de- hielo en el suelo y vapor en la atmósfera; pero se están transformando unos estados en otros.

RESUMEN: Si la materia se encuentra en estado puro, se denomina sustancia pura; éstas tienen siempre la misma composición y pueden ser elementos y compuestos.

Los elementos son sustancias que no pueden descomponerse en otras más sencillas por métodos químicos. En la naturaleza existen 92 elementos en estado natural, los restantes han sido creados en el laboratorio. Éstos se encuentran organizados en la tabla periódica donde se han clasificado 114 elementos.

Cada clase de elemento se representa por un símbolo. El oxígeno es O; el hidrógeno es H, por ejemplo.

Los compuestos son sustancias formadas por la combinación de elementos. Los compuestos pueden descomponerse por métodos químicos en sus respectivos elementos. Las propiedades de un compuesto son distintas de las propiedades de los elementos que lo forman.

Una molécula está formada por dos o más átomos. Las moléculas pueden separarse químicamente.
Una molécula de agua está formada por dos átomos de hidrógeno y un átomo de oxígeno.

La división química de una molécula en otras moléculas más pequeñas o en átomos produce cambios en la composición y por lo tanto, cambio en las propiedades.

El agua es un compuesto formado por los elementos hidrógeno y oxígeno. Cuando una corriente eléctrica fluye por el agua, la acción de la electricidad termina descomponiéndola en oxígeno e hidrógeno. Es decir, en sus elementos.

La sal de cocina es un compuesto llamado cloruro de sodio. La molécula de sal está formada por los elementos cloro y sodio.

El oxígeno que respiramos es un compuesto formado por dos átomos del mismo elemento.

Hasta aquí hemos dicho que:

MEZCLAS

SUSTANCIAS PURAS

ELEMENTOS COMPUESTOS

Oxígeno
Hidrógeno
Sodio

Agua
Alcohol
Sal

 Física Moderna: La Materia de Comporta Como Onda?