Naturaleza de la Materia

Biografia de Carlo Rubbia Fisico de los Bosones

Biografia de Carlo Rubbia Fisico de los Bosones

Rubbia, Carlo. (Gorizia, 1934.) Físico italiano. Estudió Física en la Universidad de Pisa, doctorándose en 1957. Trabajó en dicha Universidad, en la de Columbia (Nueva York), en la de Roma (1960) y en la de Harvard (1970).

Desde 1962 ha trabajado en el Centro Europeo de Investigaciones Nucleares (C.E.R.N.), en Ginebra. También ha colaborado (1969-78) con el Laboratorio Acelerador Nacional Fermi de Chicago (Fermilab).

En 1973, un equipo dirigido por Rubbia en el C.E.R.N. y el Fermilab descubrió la existencia de interacciones débiles que no suponían intercambio de carga eléctrica, como todas las que hasta entonces se conocían.

Antes de continuar con la vida del físico, nos preguntamos: ¿Qué son los bosones?.

Desde que el átomo ha entrado con fuerza en el mundo de la física moderna y se ha introducido en los llamados aceleradores de partículas para ser estudiado, descompuesto y sometido a toda una larga serie de experimentos, ha revelado la existencia en su interior de una enorme cantidad de partículas con funciones energéticas bien definidas, si no para nosotros los profanos, al menos para los físicos que se ocupan de ellas.

En uno de estos experimentos, constituidos por la colisión de dos partículas de carga eléctrica opuesta (positiva y negativa), o sea, entre protones y antiprotones, aparecieron los bosones.

¿Por qué se llamaron bosones?… En honor del físico hindú que describió sus particularidades: Satyendranath Bose.

La observación de las partículas W y Z en 1983 por Rubbia y sus colegas les permitió predecir y posteriormente establecer la teoría electrodébil, que aúna las fuerzas electromagnética y nuclear débil. Recibió el premio Nobel de física en 1984, junto con el holandés Van der Meer.

Por entonces se estaba trabajando en la unificación de las fuerzas nuclear débil y electromagnética, y la existencia de estas interacciones débiles neutras exigía la existencia de una partícula fundamental para la interacción débil (un bosón) que no tuviera carga eléctrica.

Compartió en 1984 el Premio Nobel de Física con su colega holandés Simon van der Meer por su descubrimiento de las partículas subatómicas W y Z. Estas partículas transmiten la fuerza nuclear débil, una de las cuatro fuerzas fundamentales de la naturaleza (las otras tres son la fuerza gravitatoria, la electromagnética y la nuclear fuerte).

Steven Weinberg y Abdus Salam habían construído una teoría electrodébil unificada que predecía la existencia de tres bosones diferentes para la interacción débil, que recibieron los nombres de W+, W- y Z°.

Estos bosones tendrían una masa elevada, por lo que su detección estaba fuera del alcance de los aceleradores de partículas de la época.

Carlo Rubbia propuso, para localizarlos, transformar el acelerador de partículas del C.E.R.N. (un sincrotrón de protones), que permitía lanzar protones contra un objetivo fijo, en un acelerador de colisión de haces de partículas, que lanza un chorro de protones contra otro de antiprotones.

Las energías generadas en su desintegración mutua han permitido obtener partículas de masa elevada, entre ellas los tres bosones de la interacción débil.

En 1984, Carlo Rubbia recibió el premio Nobel de Física, que compartió con Simón van der Meer, por su contribución al descubrimiento de las partículas W y Z, mediadoras de la interacción débil.

¿Por qué obtuvieron ambos el galardón?: En el siglo XX, el personaje protagonista cede siempre paso al equipo, a la colaboración entre los individuos, entre distintos expertos en cada sector.

Esto es lo que ha hecho posible tanto la conquista del espacio —macrocosmos—, como la del mundo microscópico —microcosmos—. Los genios aislados, que han sido a lo largo de la historia los protagonistas de una época o una empresa, no pueden darse hoy debido a la complejidad de la tecnología.

Carlo Rubbia ha tenido la genialidad de intuir que algo venía al encuentro de las partículas; el holandés Van der Meer ha hecho posible que se realizara la experiencia.

¿Qué consecuencias trae consigo este descubrimiento?
De estas partículas, sólo se conocían los fotones, después fueron descubiertos los guiones y, por último, los bosones, que hacen presumible la existencia de otras fuerzas todavía «inexplicables».

En Ginebra, se está perfeccionado un acelerador de partículas, el LEP, que será instalado a cien metros de profundidad. Estamos ante una nueva época de desconcertantes descubrimientos.

Veáse también:
Teoría del Campo Unificado
Partículas Elementales
Bosón de Higgs

Fuente Consultada:
Grandes Científicos de la Humanidad Tomo II de la m a z de Manuel Alfonseca Editorial Espasa
¿Por que se hicieron Famosos? Editorial Susaeta

Naturaleza Ondulatoria de la Materia Resumen Descriptivo

Naturaleza Ondulatoria de la Materia

RESUMEN DESCRIPTIVO DE LA FÍSICA CUÁNTICA APLICADA A LA MATERIA: Durante los últimos 300 años, los científicos han invertido mucho tiempo en discutir e investigar la naturaleza de la luz. En el siglo XVII, Isaac Newton sostenía que los rayos luminosos consistían en flujos de partículas muy pequeñas. Esta teoría corpuscular prevaleció durante muchos años, aunque Christian Huygens, contemporáneo de Newton, tenía el convencimiento de que la luz era trasmitida mediante vibraciones (es decir, ondas) en el éter.

Isaac Newton

HUYGENS Christian (1629-1695

En los primeros años del siglo XIX, Thomas Young realizó sus famosos experimentos sobre las interferencias luminosas. Estos fenómenos podían explicarse muy bien con sólo suponer que la luz es un conjunto de ondas y no un flujo de partículas.

Por consiguiente, la teoría ondulatoria parecía explicar satisfactoriamente todas las observaciones experimentales hechas hasta la época, por lo que se pensaba que remplazaría para siempre a la teoría corpuscular. Después, a fines del siglo XIX, se descubrió que, en ciertas condiciones, se liberaban electrones cuando incidía un rayo luminoso sobre una superficie.

Al incidir un haz de luz sobre ciertos materiales se desprenden electrones, creando una corriente electrica, medida por el galvanómetro.

La teoría ondulatoria no podía explicar este fenómeno, que conocemos con el nombre de efecto fotoeléctrico. Este nuevo descubrimiento planteó a los físicos un serio dilema. El efecto fotoeléctrico era más fácilmente explicable acudiendo a la teoría corpuscular, aunque casi todos los otros fenómenos luminosos se explicaban mejor a partir de la teoría ondulatoria.

Éstos eran algunos de los problemas teóricos que tenían planteados los físicos cuando apareció en escena el joven aristócrata francés Luis de Broglie. En una tesis publicada en 1922, cuando sólo tenía 30 años, sugirió que la luz presentaba un comportamiento a veces ondulatorio y a veces corpuscular, aunque no ambos al mismo tiempo.

Científico Luis De Broglie

LOUIS DE BROGLIE (1892-1960): Físico nacido en Francia el año 1892. Sus trabajos de investigación le permitieron descubrir la naturaleza ondulatoria de los electrones. Fue galardonado con el Premio Nobel de Física en 1929.

De Broglie supuso que, así como la luz, normalmente de naturaleza ondulatoria, podía, en ciertos fenómenos, comportarse corpuscularmente, las partículas pequeñas, tales como los electrones, podían presentar características ondulatorias. Pero tuvo que esperar 5 años para que se descubriera la evidencia de este fenómeno.

Fue en 1927 cuando los estadounidenses Clinton G. Davisson y L. H. Germer, trabajando en los laboratorios de la Bell Telephone, consiguieron producir fenómenos de  difracción  con un flujo de electrones, usando un cristal como red de difracción.

La teoría dualista de De Broglie puede aplicarse a todas las partículas en movimiento, cualquiera que sea su naturaleza.

La longitud de onda de esta onda De Broglie (la onda asociada con la partícula) se averigua dividiendo la constante de Planck por la cantidad de movimiento de la partícula. Luis Víctor de Broglie nació en Dieppe (Francia), en 1892. Su hermano mayor, Maurice, el sexto duque De Broglie, fue también un físico de cierta importancia.

Luis se interesó, primero, por la historia y la literatura, pero después, sirviendo en el ejército francés durante la primera guerra mundial, se dedicó a la física. En reconocimiento a su contribución al avance de la física teórica, Luis de Broglie fue galardonado, en 1929, con el premio Nobel. Desde 1928 fue profesor de física teórica en la Universidad de París, donde había cursado sus estudios.

PARA SABER MAS…

La teoría cuántica puso una bomba bajo la visión de física clásica y, al final, la derrocó. Uno de los pasos críticos de esta rebelión se dio cuando Erwin Schrodinger formuló su teoría de la mecánica de ondas, en la que sugería que un electrón, en un átomo, se comporta como una onda. Se guiaba por la belleza, por su principio básico de que si una solución no era matemáticamente hermosa, casi seguro era incorrecta. El trabajo de Schrodinger recibió un estímulo vital cuando leyó la tesis doctoral en Filosofía de Louis de Broglie, y fue oficialmente reconocido cuando, en 1933, Schrodinger compartió el Premio Nobel de Física con Paul Dirac.

El saludo de la onda de electrones
En 1900, Max Planck había sugerido por primera vez que la energía venía en conglomerados. Esto llevó a pensar que la luz — que es una forma de energía— también estaba compuesta de partículas. Al principio no parecía probable, pero Einstein había desarrollado el concepto hasta el punto de tener una credibilidad considerable, y las partículas de la luz se conocieron como fotones.

A pesar de que la luz era claramente una partícula, :ambién tenía propiedades de onda. El trabajo de Planck había demostrado que distintas luces se transformaban en diferentes colores porque los fotones tenían distintas cantidades de energía. Sin embargo, si se divide la energía por la frecuencia a la que ese color oscila, siempre resulta el mismo valor, la llamada constante de Planck.

Eso para la luz. ¿Pero qué hay de las partículas de materia? la pregunta empezó a tener respuesta cuando Louis de 3roglie, un aristocrático físico francés del siglo XX, sugirió c¡ue las partículas de los materiales parecían ser :onglomerados localizados porque no éramos capaces de verlas más de cerca. Una mejor observación, creía, revelaría que ellas también tienen propiedades de onda.

Buscando soporte para sus ideas sobre la teoría de la relatividad de Einstein, de Broglie demostró que, con las ecuaciones Je Einstein, podía representar el movimiento de la materia :omo ondas. Presentó sus descubrimientos en 1924, en su :esis doctoral Recherches sur la Théorie des Quanta (Investigación sobre la Teoría Cuántica).

Se demostró experimentalmente gracias al trabajo con electrones llevado a cabo por los físicos americanos Clinton Joseph Davisson y Lester Hallbert Germer en 1927, quienes demostraron que los electrones, aun siendo partículas, se comportan como ondas. Planck había cambiado nuestra visión de la luz, Broglie cambió la de la materia.

La aportación de Schrodinger en esta revelación, fue tomar .as observaciones de Broglie y desarrollar una ecuación que describía el comportamiento de los electrones. Usó la ecuación para definir los modos de movimiento de los electrones en los átomos, y descubrió que las ecuaciones sólo funcionaban cuando su componente de energía era múltiplo de la constante de Planck.

En 1933, Schrodinger recogió el Premio Nobel de Física, aero, al hacerlo, pagó tributo a Fritz Hasenhórl, el profesor de Esica que había estimulado su imaginación cuando era estudiante en la Universidad de Viena. Hasenhórl había sido asesinado en la Primera Guerra Mundial, pero durante su aiscurso de recepción, Schrodinger remarcó que de no haber ;:do por la guerra, habría sido Hasenhórl, y no él, quien recibiera el honor.

Fuente Consultada:
Las Grandes Ideas que Formaron Nuestro Mundo Pete Moore
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología

Nanociencia Nanotecnologia Que es la Nanociencia? Aplicaciones de la

Nanociencia Nanotecnologia ¿Qué es la Nanociencia?

Uno de los avances mas espectaculares llevados a cabo en Física e Ingeniería en años recientes es el experimentado por la nanotecnología: la habilidad de diseñar, controlar y modificar materiales a nivel cuasi-microscópico ó “mesoscópico”. La nanotecnología nos promete la posibilidad —largamente soñada— de influir en las propiedades de los materiales con el fin de producir materiales “inteligentes” para todo tipo de aplicaciones.

Es ahora frecuente ver en las más prestigiosas revistas científicas reportes sobre avances en diseño de microcircuitos, microestructuras artificiales y máquinas microscópicas. Ahora es posible el crecimiento sistemático y controlado de pequeñas estructuras artificiales compuestas de varia capas delgadas de materiales diferentes, algunas de unos pocos átomos de ancho mediante técnicas, tales como los “haces moleculares epitaxiales”.

A escala comercial, quizás la aplicación mas espectacular a la fecha es el uso de la magnetoresistencia gigante, descubierta en 1998, en las cabezas lectoras de la mayoría de los discos duros de los computadores actuales.

Estos y otros avances relacionados, han provocado un explosivo interés en el tema y el término nanotecnología se ha convertido en palabra clave de muchas propuestas de investigación en ciencia de materiales e ingeniería.

ORÍGENES: E 29 de diciembre de 1959, por ejemplo, el físico Richard Feynman -uno de los científicos más importantes del siglo XX- miró con determinación a si audiencia en una conferencia en el Instituto de Tecnología de California EE.UU., se aclaró la garganta y dijo: «Hay mucho lugar allá abajo» y lanzó no uno, sino dos desafíos a los presentes en el auditorio: le daría 1.000 dólares a aquel capaz de hacer un motor más pequeño que 8 mm3 y a quien lograra escribir los 24 volúmenes de la Enciclopedia Británica en la cabeza de un alfiler, es decir, reducir unas 25.000 veces un texto.

Casi sin querer  (o saberlo), este premio Nobel de física había abierto las puertas de lo desconocido. Había dado a luz un nuevo campo científico, de dominio íntimos, liliputienses, vírgenes: habían nacido las nanociencias.

Richard Feynman

La electrónica había encontrado su camino en la miniaturización.

Y Feynman, todo un provocador, estaba seguro de que se podía bajar incluso unos pisos más: en teoría, nada impedía manipular conjuntos de átomos, reordenarlos con suma precisión como si fueran ladrillos 1.000 millones de veces más pequeños que un metro, un «nanómetro», o sea, el tamaño de un virus.

Y hacerlo, pese a que, como muchos comprobaron más tarde, el comportamiento de la materia cambia por debajo de un cierto tamaño.

Las leyes que rigen son distintas. El tamaño importa: en este mundo ínfimo donde las cosas no pesan casi nada, la gravedad mucho no importa. (Fuente: Todo lo que necesitas saber sobre ciencias, Federico Kukso)

La opinión pública y la dirigencia política desconocen casi por completo el desafío de las nanotecnologias, portadoras de muchas más esperanzas y peligros que todas las tecnologías hasta hoy conocidas.

Su difusión potencial preocupa a los ciudadanos, mientras las industrias prometen el advenimiento de materiales milagrosos. Como ya ocurrió con los organismos genéticamente modificados (OGM), el ritmo de desarrollo de sus aplicaciones es más rápido que el control de los peligros que encierran.

Qué tienen en común un neumático inteligente y una crema sol milagrosa? ¿O una prenda de vestir isotérmica, cuyo color cambia con nuestro humor, y una pintura resistente a las manchas? ¿O un “acero” tan liviano como el plástico y un interruptor sin cable? ¿O las medias que no toman olor y la destrucción selectiva de una célula cancerosa? En todos los casos, se trata de aplicaciones de la nanotecnología.

Hoy se sabe cómo producir esos objetos cuyo tamaño está en el orden del millonésimo de milímetro (0,000001mm). Constituidos por una pequeña cantidad de átomos o de moléculas, están dotados de extraordinarias características físicas, químicas o biológicas que les otorgan resistencia, flexibilidad, liviandad o capacidad de almacenamiento de información. Esta confluencia de la materia, la electrónica y la biología se presta a aplicaciones informáticas, industriales, ambientales y médicas.

El significado de la «nano» es una dimensión: 10 elevado a -9.

Esto es: 1 manómetro = 0,000000001 metros. Es decir, un manómetro es la mil millonésima parte de un metro, o millonésima parte de un milímetro. También: 1 milímetro = 1.000.000 manómetros. Una definición de nanociencia es aquella que se ocupa del estudio de los objetos cuyo tamaño es desde cientos a décimas de manómetros.

Hay varias razones por las que la Nanociencia se ha convertido en un importante campo científico con entidad propia. Una es la disponibilidad de nuevos instrumentos capaces de «ver» y «tocar» a esta escala dimensional. A principios de los ochenta fue inventado en Suiza (IBM-Zurich) uno de los microscopios capaz de «ver» átomos. Unos pocos años más tarde el Atomic Force Microscope fue inventado incrementando las capacidades y tipos de materiales que podían ser investigados…

En respuesta a estas nuevas posibilidades los científicos han tomado conciencia de potencial futuro de la actividad investigadora en estos campos. La mayor parte de los países han institucionalizado iniciativas para promover la nanociencia y la nanotecnología, en sus universidades y laboratorios.

Así, la más extendida revolución tecnológica que haya conocido la humanidad está tal vez en vías de nacer en laboratorios de Tokio, Berkeley o Grenoble. Revolución, porque las nanotecnologias permiten eliminar la barrera entre lo real y lo virtual, entre lo vivo y lo material. Extendida, porque la posibilidad de poner inteligencia en todas las partes de nuestro cuerpo y en nuestro medio ambiente abre perspectivas económicas infinitas, estimadas en un billón de dólares a partir de 2015.

La palabra «nanotecnología» es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas «nanos» que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman

nanotecnologia

RIESGO SANITARIO
Pero esta revolución plantea una cantidad infinita de preguntas. Los industriales, tras el escándalo del amianto y el rechazo a los OGM, tratan de desactivar las objeciones críticas mediante una concertación con algunos grupos ciudadanos. Pero el argumento que plantea que ya vivimos en medio de nanopartículas errantes a las que se supone inofensivas—producidas por la naturaleza, la industria y los motores de vehículos— no basta para cerrar el debate sobre el peligro sanitario y, menos aun, sobre los riesgos para la libertad.

A mediados de 2006 ya se contaban 700 productos que contenían componentes nanométricos y 1.400 clases de nano partículas vendidas por unos SO productores. A pesar de la creación de grupos de trabajo y de la organización de debates públicos en todo el mundo, el control de los riesgos —por la vía de normas, leyes y una obligación de transparencia— parece muy retrasado con respecto al ritmo de desarrollo de las aplicaciones que, por otra parte, son muchas veces desconocidas por razones de secreto industrial y, sobre todo, militar.

Se sabe, sin embargo, que su tamaño les permite a esas partículas no sólo alojarse en las vías respiratorias, sino también atravesar la piel, penetrar las células basta su núcleo, vencer membranas consideradas infranqueables o alojarse en el sistema nervioso central. Millones de trabajadores corren el riesgo de resultar expuestos a las nanopartículas. Ya se puede prever una acumulación en la naturaleza de “migajas” nanométricas capaces de perturbar los ecosistemas y de intoxicar al ser humano. ¿Podrá argüirse, cómo con el amianto, que no sabíamos?

LA TENTACIÓN DE FAUSTO
El riesgo para la libertad parece mucho mayor que el de la toxicidad, porque con la generalización de losnanochips se corre el riesgo de relanzar la tentación de Fausto, de crear el ser perfecto, de buen desempeño y alta resistencia. A través del sistema de Radio Frequency Identification (RIFID) se abre la vía para vigiar a los individuos y su comportamiento. La difusión de partículas inteligentes también puede servir para la vigilancia del medio ambiente, para la marcación antirrobo, para los sistemas de información militar o para la acción de los terroristas, de sectas y de “Estados canallas”.

Como con los OGM, que se imponen a pesar de las dudas y de las moratorias locales, las nanociencias llaman a la construcción de un sistema de responsabilidades entre quien toma las decisiones políticas, el científico, el industrial y el ciudadano. Confirman que un Estado no puede —suponiendo que quiera hacerlo— adoptar por sí solo el principio de la protección máxima, sin correr el riesgo de ver que los demás acaparen patentes y mercados. Se plantea así la cuestión del crecimiento de las desigualdades ente quienes dominan esta arma económica suprema y quienes no pueden hacerlo.

A CORTO PLAZO:

Nanotecnología purificadera: El 73 por ciento del agua que hay en el mundo es salada, y el 2,7 por ciento del agua dulce que puede servir para consumo humano está contaminado por fuentes industriales. Una solución podría llegar de parte de un proyecto que llevan a cabo el Instituto Politécnico Nacional de México, la Pontificia Universidad Javeriana de Colombia, e instituciones de Francia y España, que comenzaron a usar una tecnología que combina biotecnología y nanotecnología, para purificar aguas, incluyendo a las industriales. El sistema se basa en nanopartículas de óxido de titanio que se colocan sobre superficies de vidrio o de cristal y después se someten a altas temperaturas para que se adhieran.

Es en presencia de luz solar o ultravioleta que se producen especies oxidantes que degradan el material orgánico en el agua contaminada. Una prueba indica que, aplicada a un lote de 800 mililitros de agua con 1,5 gramo de nanopartículas de óxido de titanio, se removió la totalidad de los compuestos tóxicos.»

Detección Rápida del Cáncer: Pruebas de cáncer más rápidas Científicos estadounidenses han usado con éxitonanosensores para detectar exitosamente cáncer en la sangre de los pacientes. La prueba más reciente puede detectar concentraciones mínimas de marcadores biológicos, en el orden de una millonésima parte de gramo por mililitro, el equivalente a ser capaz de detectar un grano de sal disuelto en una piscina grande. En vez de tener que esperar varios días los resultados del laboratorio, la prueba ofrece una lectura en minutos.

LA ESTRELLA DEL SIGLO XXI: EL GRAFENO: Un nuevo material de ficción (un nanomaterial), 200 veces mas resistente que el acero, pero flexible, impermeable y conductor de la electricidad.

En este material los átomos están dispuestos en hojas tridimensionales: el grafeno es ultrafino -sus átomos de carbono se agrupan siguiendo un modelo parecido a un panal de abejas-, transparente, flexible, impermeable, presenta una elevada conductividad eléctrica y, encima, es doscientas veces más resistente que el acero. «Con solo apretar un botón en un paquete de galletitas, sabremos sus ingredientes y calorías», asegura el belga Jan Genoe del Instituto Imec de Nanoelectrónica de Lovaina. «En unos años, veremos pantallas de este material en todas partes.»

Con el grafeno, los celulares podrían volverse casi tan delgados y flexibles como el papel y prácticamente indestructibles. También podría abrir el camino a las placas solares flexibles: los metales convencionales absorben la luz. Por el contrario, el grafeno, incorporado en un panel solar, facilitará el aporte de energía a numerosos dispositivos. Y hay más: «el papel electrónico enrollable -asegura uno de los descubridores del grafeno, Kostya Novoselov- podría estar disponible en 2015″.

LOS FULLERENOS, Historia
Hasta 1985 se pensó que el elemento más estudiado por el hombre, el carbono, sólo podía existir, en estado puro, en forma de diamante -sustancia de gran dureza que no conduce la electricidad- y de grafito -material bastante blando y buen conductor de la electricidad- Ese año, motivados por el descubrimiento de nuevos compuestos del carbono realizado en el espacio exterior, el químico británico Harold W. Kroto (1939- ) y los estadounidenses Robert F. Curl (1933-) y Richard E. Smalley (1943-) estudiaron el agregado de pequeños grupos de átomos de carbono llamados clusters.

Robert F. Curl                           Richard E. Smalley

Estos científicos observaron que se producía un agregado con un número máximo de 60 átomos de carbono y trataron de determinar su estructura espacial. Luego de varios intentos para encontrar una estructura formada sólo por hexágonos la forma más común que adopta el carbono), se convencieron de que la única disposición posible era la de una pelota de fútbol, constituida por 20 hexágonos y 12 pentágonos.

Esta nueva forma natural del carbono se conoce con el nombre de futboleno, o también buckminsterfullereno debido a la similitud estructural con las formas geométricas de las cúpulas geodésicas inventadas por el arquitecto estadounidense Richard Buckminster Fuller 1895-1983).

El trabajo de estos científicos fue arduo: durante cinco años buscaron un método que permitiera crear cantidades visibles de futboleno. Sabían que la sustancia se producía en forma natural durante la combustión del carbón, pero cuando juntaban hollín en benceno, éste se depositaba en el fondo y no se obtenía el compuesto amarillo tan buscado.

En mayo de 1990, mientras estudiaba el polvo interestelar, el físico Wolfgang Krátschmer y sus colaboradores evaporaron una barra de grafito calentándola con una corriente de helio y observaron que en el hollín había una sustancia diferente.

Años más tarde y luego de varios estudios, Krátschmer mezcló unas gotas de benceno con este hollín, y el solvente incoloro se volvió rojo. Varios estudios posteriores permitieron concluir que se trataba de una solución concentrada de fullerenos. ¡El futboleno es amarillo cuando forma una película, y rojo, cuando está en solución!

Curl y Smalley continuaron con el estudio de estas sustancias, hasta que en 1996 recibieron el premio Nobel de Química. Tal como es común en la historia de las ciencias, a partir de este descubrimiento se abrieron nuevos campos para la investigación en terrenos muy alejados de los objetivos iniciales de los científicos.

Se han descubierto nuevos fullerenos de 60 y 70 átomos de carbono, y algunos de ellos tienen utilidad como superconductores a bajas temperaturas cuando se incorporan otros elementos a su estructura. Finalmente, se comprobó que el futboleno es biológicamente activo y podría llegar a emplearse en la lucha contra el cáncer.
Fuente: Investigación y Ciencia, N° 183, diciembre de 1991.

LA NANOCIENCIA SE INSPIRA EN LA NATURALEZA: Los científicos se inspiran en la naturaleza, tratando de imitar propiedades a nanoescalas que tienen algunas plantas y animales y que podrían utilizarse para fabricar nuevos materiales utilizando esas misma propiedades, por ejemplo las que siguen abajo:

nanociencia, cuadro de aplicaciones

CRONOLOGÍA:

1959 El físico Richard Feynman advirtió en una conferencia en el Instituto Tecnológico de California: «A mi modo de ver, los principios de la física no se pronuncian en contra de la posibilidad de maniobrar las cosas átomo por átomo».

1980 Se estrenó la película Viaje fantástico, basada en el libro de Isaac Asimov, con Raquel Welch. Cuenta la travesía de un grupo de científicos que reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que lo está matando.

1970 Se diseñó la primera nanoestructura: un liposoma.

1974 El japonés Norio Taniguchi utilizó por primera vez la palabra «nanotecnología» en un paper.

1981 El físico suizo Heinrich Rohrer y el alemán Gerd Binnig desarrollaron el microscopio de efecto túnel, que permite manipular átomos.

1985 El químico inglés Harold Kroto descubrió los fulerenos, macromoléculas de carbono individuales utilizadas para hacer nanotubos.

1989 Investigadores del Almadén Research Center de IBM manipularon con precisión 35 átomos de xenón para formar el logo de la empresa de informática. 1999 Aparecieron en el mercado los primeros productos con nanotecnología. 2002 Michael Crichton publicó Presa, un tecnothriiler en el que unos nanobots inteligentes escapan al control humano y se convierten en entes autónomos, autorreplicantes y peligrosos.

2010 Se creó un nanobot capaz de mover átomos y moléculas.

2012 Se desarrolló un método en impresoras 3D para la fabricación de es culturas con estructuras tan pequeñas como un grano de arena.

Naturaleza de la Materia

MAS EN INTERNET:
> Centro Nacional de Investigación Científica (CNRS): www.cnrs.fr

> Portal creado por iniciativa del Ministerio Delegado para la Investigación y las Nuevas Tecnologías: www.nanomicro.recherche.gouv.fr

> Action Group on Erosion, Technology and Concentration: www.etcgroup.org/en

> VivAgora, plataforma de protección, información y diálogo por una participación ciudadana en las decisiones científicas y técnicas:www.vivagora.org

Las radiaciones de un nucleo atomico Tipos alfa, beta y gamma

LAS RADIACIONES DE UN NÚCLEO DE UN ÁTOMO

1-Radiaciones Alfa
2-Radiaciones Beta
3-Radiaciones Gamma

atomo orbitasÁtomo, la unidad más pequeña posible de un elemento químico. En la filosofía de la antigua Grecia, la palabra «átomo» se empleaba para referirse a la parte de materia más pequeño que podía concebirse. Esa «partícula fundamental», por emplear el término moderno para ese concepto, se consideraba indestructible.

De hecho, átomo significa en griego «no divisible». El conocimiento del tamaño y la naturaleza del átomo avanzó muy lentamente a lo largo de los siglos ya que la gente se limitaba a especular sobre él.

Con la llegada de la ciencia experimental en los siglos XVI y XVII  los avances en la teoría atómica se hicieron más rápidos. Los químicos se dieron cuenta muy pronto de que todos los líquidos, gases y sólidos pueden descomponerse en sus constituyentes últimos, o elementos.

Por ejemplo, se descubrió que la sal se componía de dos elementos diferentes, el sodio y el cloro, ligados en una unión íntima conocida como compuesto químico. El aire, en cambio, resultó ser una mezcla de los gases nitrógeno y oxígeno.

Todos sabemos que el átomo constituye una especie de sistema planetario en miniatura; el núcleo equivale al Sol, y los electrones a los planetas. Una de las primeras preguntas que se nos pueden ocurrir a este respecto, es la siguiente: ¿cómo está hecho el núcleo, ese sol de un universo infinitamente pequeño?

Sabemos que el núcleo atómico se compone, fundamentalmente, de dos tipos de partículas materiales: los protones, cargados de electricidad positiva, y los neutrones, desprovistos de carga eléctrica. En cambio, poco es lo que se sabe acerca de la disposición y movimiento de estas partículas. A diferencia de lo que sucede con los electrones (los «planetas»), que giran alrededor del núcleo, no existe un modelo que ilustre de manera intuitiva cómo los protones y neutrones se mueven y disponen en el interior del mismo núcleo.

Sin embargo, los estudios y las experiencias de física nuclear han permitido obtener algunas conclusiones y datos significativos. Por ejemplo, el núcleo del átomo del hierro, contiene 26 protones (en amarillo en la ilustración) o, lo que es lo mismo, 26 partículas provistas de una carga elemental positiva.

Estas 26 cargas positivas pueden sostener, en torno al núcleo, otras tantas cargas de signo opuesto. Así, en el átomo neutro de hierro, 26 electrones —es decir 26 partículas provistas de una carga elemental negativa— giran alrededor del núcleo, en órbitas distintas. Y, precisamente, es el número de protones (llamado «número atómico»), igual en el átomo neutro al número de electrones, lo que hace que el hierro sea hierro, con todas las propiedades químicas que lo distinguen. Cada elemento químico, en consecuencia, tiene un número atómico propio.

Pero si las propiedades químicas de un átomo dependen, exclusivamente, del número atómico, otras propiedades no menos importantes dependen, además, del llamado «número de masa». Se trata de propiedades que no pueden observarse a simple vista, pero que se revelan de modo muy espectacular en las «reacciones nucleares» (pensemos, por ejemplo, en la bomba atómica).

Ya hemos dicho que en el núcleo, además de los protones, se encuentran los neutrones, o partículas desprovistas de carga eléctrica, que pesan, aproximadamente, igual que los protones. Pues bien: la suma del número de protones y de neutrones da el «número de masa».

Los átomos de igual número atómico, pero de distinto «número de masa», son llamados «isótopos»: tienen idénticas propiedades químicas (puesto que idéntico es el número atómico), pero distintas propiedades nucleares, porque distinto es el número de masa o, lo que es lo mismo, el número de neutrones.

Tal como aparecen en la naturaleza, casi todos los elementos son mezclas de isótopos diferentes: el hierro, por ejemplo, además de átomos de 26 protones y 30 neutrones (que se hallan en franca mayoría, ya que constituyen el 91,68% de su materia), contiene también átomos de 28, 31 y 32 neutrones. Éstos son, precisamente, los isótopos del hierro (cuyos protones continúan siendo 26), todos ellos estables, es decir, existentes en la naturaleza, sin ninguna tendencia a transformarse espontáneamente en otra cosa.

En cambio, un átomo de hierro que, junto a los 26 protones habituales tuviese en el núcleo 33 neutrones, ya no sería estable, es decir, tendería a transformarse. Lo mismo puede decirse de los átomos de hierro con 27 ó 26 neutrones.

Se trata de un hecho muy importante, cuya significación es la siguiente: para que en un núcleo con un determinado número de protones (26 en el caso del hierro) haya estabilidad, los electrones no deben superar una cantidad determinada (28, 30, 31 y 32, en el caso del hierro).

En otras palabras: del número de neutrones depende la estabilidad del núcleo. Y ahora podemos dar otro paso y preguntarnos qué es lo que mantiene a protones y neutrones en el núcleo. Salta a la vista que el problema es más complejo que el que presentan los electrones girando alrededor del núcleo: en este caso se trata, simplemente, de partículas cargadas negativamente (electrones), que, en virtud de las fuerzas electrostáticas, son atraídas por cargas positivas de ciertos elementos del núcleo (protones).

En el interior del núcleo, en cambio, los neutrones, desprovistos de carga, y los protones, que la tienen positiva, deberían repelerse, si sólo actuaran las fuerzas electrostáticas.

Como no sucede así, forzosamente tenemos que pensar en fuerzas de otra naturaleza; y éstas, llamadas por los científicos «fuerzas nucleares», son aún muy misteriosas. Parece que los protones y neutrones se atraen independientemente de su carga; es decir, un protón atrae indiferentemente a otro protón, o a un neutrón, y lo mismo puede decirse de los neutrones. En el caso, sin embargo, de dos protones, la fuerza electrostática de repulsión es más potente que la fuerza nuclear de atracción.

Debido al complejo juego de estas fuerzas, la estabilidad del núcleo depende de las relaciones entre el número de protones y de neutrones, tal como hemos explicado.

Cuando la relación protones-neutrones no asegura la estabilidad del núcleo, éste tiende a modificar la relación, emitiendo radiaciones alfa o beta, y transformándose espontáneamente en un núcleo estable.

En las radiaciones alfa, el núcleo emite las «partículas alfa», constituidas por dos protones y dos neutrones.
En las radiaciones beta, el núcleo sólo emite electrones, que no existían previamente en su interior, sino que se producen simultáneamente con la emisión, cuando un neutrón del núcleo se transforma en protón para establecer el necesario equilibrio numérico entre neutrones y protones.

PARTÍCULA ALFA:

Determinadas combinaciones de protones y neutrones pueden llegar a formar un núcleo durante algún tiempo; pero el núcleo no es estable y el átomo es radiactivo. Esta clase de átomos intenta variar la proporción de protones y neutrones en el núcleo, para formar una combinación más estable, y entonces el núcleo emite una radiación. El átomo se trasforma en el átomo de un elemento distinto y se dice que se trasmutó.

cargas electricasDos protones no pueden permanecer juntos, porque ambos tienen carga positiva (cargas del mismo signo se repelen). Los núcleos que tienen protones en exceso se estabilizan por trasmutación.

cargas electricas
El núcleo de helio, con dos protones y dos neutrones, es la combinación de protones y
neutrones más estable que se conoce. Es la «partícula alfa».

Por ejemplo, si un núcleo contiene demasiados protones y neutrones para ser estable, puede expulsar algunas de estas partículas y alcanzar una mayor estabilidad. Para ello emite dos protones y dos neutrones firmemente unidos (el núcleo, muy estable, del átomo de helio), formando una partícula única, que se conoce con el nombre de partícula alfa. La partícula alfa lleva, por consiguiente, dos cargas positivas y tiene un peso atómico igual a cuatro, mientras que el átomo que ha emitido esta partícula alfa disminuye su número atómico en dos unidades, y su peso atómico en cuatro unidades.

Por ejemplo, los átomos de radio que se encuentran en la naturaleza (número atómico 88, peso atómico 226) emiten partículas alfa, y entonces se- trasforman en radón, un gas radiactivo (número atómico 86, peso atómico 222)

formula quimica

El radón mismo se trasmuta emitiendo partículas alfa. Las partículas alfa, que se emiten durante la trasmutación de los átomos, se desplazan en línea recta a través del aire, y pierden su energía a medida que van entrando en colisión con las moléculas de aire, deteniéndose, generalmente, al cabo de unos cuantos centímetros.

Todas las partículas alfa, emitidas por un isótopo determinado, suelen recorrer la misma distancia en el aire, ya que tienen la misma energía cinética, la cual van perdiendo en los choques; basta, sin embargo, interponer en su camino una hoja de papel para detener una partícula alfa.

cargas electricas

LA PARTÍCULA BETA
Si un núcleo contiene demasiados neutrones, para ser estable puede convertir alguno de ellos en un protón. En realidad, el protón y el neutrón son partículas muy similares. Para que un neutrón se trasforme en protón basta con que emita un electrón. El neutrón pierde, entonces, una carga negativa y se trasforma en un protón cargado positivamente:

formula

El electrón es emitido por el núcleo con una gran velocidad; recibe el nombre de partícula beta.

El átomo conserva el mismo peso molecular después de la trasmutación, ya que la suma de protones y neutrones en el núcleo permanece constante; pero el número atómico aumenta por existir un protón suplementario. Un ejemplo de trasmutación por emisión de partículas beta lo tenemos en el comportamiento del carbono radiactivo. Los átomos del carbono 14 (número atómico 6, peso atómico 14), que es un radioisótopo natural del carbono 12, se trasmutan, por emisión de partículas beta, en nitrógeno 14 (número atómico 7, peso atómico 14). que tiene un núcleo estable.

Aproximadamente, la mitad de los radioisótopos naturales se puede trasmutar por emisión de partículas beta. También muchos radioisótopos artificiales presentan una trasmutación de este tipo.

Las partículas beta son muy ligeras y se desvían muy fácilmente en su trayectoria. Por ello, no se desplazan en línea recta como las partículas alfa. Sin embargo, suelen recorrer un espacio superior. En el aire, una partícula beta puede alcanzar más de un metro o, incluso, atravesar una lámina de aluminio de algunos milímetros de espesor.

EL POSITRÓN
Además de las partículas alfa y beta, que emiten los radioisótopos naturales, los radioisótopos artificiales pueden emitir también una partícula, que tiene la misma masa que el electrón, pero con una carga positiva igual a la del protón. Esta partícula se llama positrón, y puede considerarse como un electrón con una carga positiva igual, pero de signo opuesto a la del electrón.

EMISIÓN DE POSITRONES
Se ha visto que la emisión de partículas beta puede tener lugar cuando el núcleo contiene demasiados neutrones para ser estable. Si la relación entre protones y neutrones es la correspondiente al núcleo estable, no hay radiactividad. Si, por el contrario, el núcleo contiene demasiados protones para ser estable, puede convertir uno de sus protones en un neutrón, emitiendo un positrón que, al no poder permanecer en el núcleo, es expulsado

formula

El átomo conserva el mismo peso atómico, pero el número atómico disminuye por haberse convertido un protón en neutrón. En 1934, Irene Joliot-Curie formó átomos de nitrógeno 13 (número atómico 7, peso atómico 13) al bombardear boro 10 con partículas alfa. El nitrógeno 13 se trasmutaba, por emisión de positrones, en carbono 13 (número atómico 6, peso atómico 13), y la presencia de la radiación, debida a los positrones (éstos fueron descubiertos en 1932), le permitió anunciar el descubrimiento de la radiactividad artificial:

formula

Hay, además, un tercer tipo de radiación nuclear, que siempre se presenta en compañía de una de las dos recién explicadas. Se trata de la radiación gamma, que es de naturaleza electromagnética, como la luz y los rayos X, de los que sólo difiere por el origen (la luz y los rayos X se originan en el exterior del núcleo, como consecuencia del paso de electrones de una órbita a otra de menor energía; las radiaciones gamma, en cambio, se originan en el interior del núcleo, como consecuencia de una sucesiva estabilización de éste, sin que se modifique la relación protones-neutrones).

Las radiaciones nucleares alfa, beta y gamma constituyen, pues, el instrumento que un núcleo inestable tiene a su disposición para alcanzar la estabilidad. En algunos elementos, tal como se encuentran en la naturaleza, la emisión de las radiaciones nucleares se verifica espontáneamente. Se trata de los famosos elementos radiactivos, como el radio y el uranio.

Pero fenómenos de este género pueden provocarse también en el laboratorio. Y, durante el transcurso de estas investigaciones, el hombre ha conseguido asomarse a los más profundos misterios del átomo, construir núcleos inexistentes en la naturaleza, liberar las energías encerradas dentro de los núcleos, e incluso, como veremos en otro artículo, transformar unos elementos en otros.

esposos curie

En 1934, Irene Joilot-Curie (hija de la famosa María Curie) y su marido, descubrieron que un isótopo estable natural (el boro 10) puede trasformarse en un elemento radiactivo distinto, por bombardeo con «partículas alfa». La radiactividad de los átomos producidos artificialmente se llama «radiactividad artificial».

 

Particulas elementales de la Materia quarks, bosones La antimateria

PARTÍCULAS ELEMENTALES DE LA MATERIA

Los fundamentos de la física atómica

La materia está constituida por un reducido número de las denominadas partículas elementales, cuyas propiedades pueden explicar la mayor parte de los fenómenos físicos que aquélla experimenta.

Las primeras partículas elementales halladas por el hombre fueron las moléculas que integran los distintos compuestos químicos existentes en la naturaleza. Después se descubrió que más elementales aún que las moléculas son los átomos que las constituyen, a su vez compuestos por un núcleo y unas partículas cargadas negativamente, los electrones, que se mueven en torno a él.

Más adelante las investigaciones revelaron que el núcleo de los átomos está formado por dos tipos de partículas, los neutrones, que no poseen carga, y los protones, de carga positiva.

Si bien hasta hace relativamente poco se pensó que protones y neutrones eran las partículas más pequeñas de la naturaleza, desde 1933 se han descubierto más de 200 partículas diferentes, todavía más elementales, más simples y de tamaño más reducido que el protón, el neutrón y el electrón.

Cada una de ellas, distintas entre si, está compuesta por cuatro subpartícutas básicas, denominadas quarks.

Actualmente, se sabe que ni los átomos, ni los electrones, ni los protones ni los neutrones son indivisibles. La duda está en identificar cuáles son las verdaderas partículas elementales. Dado que la longitud de onda de la luz es mucho mayor que el tamaño de un átomo, no es posible emplear la luz como instrumento para ver las partes que lo constituyen.

https://historiaybiografias.com/linea_divisoria1.jpg

LISTA DE TEMAS TRATADOS:

1-¿Que es un Atomo?
2-La Energía Nuclear y sus Usos
3-La Física Moderna
4-La Fisión Nuclear
5-Partículas Elementales
6-Vida de Max Planck
https://historiaybiografias.com/linea_divisoria1.jpg

Las partículas elementales

Mediante la dualidad onda-partícula de la luz se puede describir todo en el Universo en términos de partículas; éstas poseen una propiedad, llamada espín, que establece su dirección. Todas las partículas se pueden dividir en dos grupos: las que poseen espín 1/2, que constituyen la materia, y las de espín 0, 1 y 2, que dan lugar a las fuerzas entre partículas materiales.

La teoría formulada por Dirac, en 1928, estableció a relación entre la mecánica cuántica y la relatividad propuesta por Einstein. Dirac explicó matemáticamente la razón por la cual el electrón posee espín 1/2, y predijo, además, que el electrón debía tener una pareja o antipartícula, el positrón. El descubrimiento del positrón, en 1932, motivó la concesión del premio Nobel al científico..

Imagen de un acelerador de partículas

Fuerzas de interacción entre partículas

En mecánica cuántica las partículas experimentan fuerzas de interacción entre ellas. Cada partícula elemental, como un electrón o un quark, emite una partícula portadora de fuerza, que colisiona con otra partícula material y es absorbida por ella. Si en la emisión de la partícula portadora de fuerza la partícula material que la emite cambia de velocidad por el retroceso experimentado en la emisión, también la partícula que la absorbe ve modificada su velocidad.

Dado que las partículas portadoras de fuerza no obedecen al principio de exclusión de Pauli, puede existir un número enorme de partículas intercambiables, con lo que se podrían producir una serie de fuerzas de interacción muy potentes.

Según la intensidad de la fuerza y del tipo de partículas implicadas, cabe distinguir cuatro tipos:

Fuerza gravitatoria

Es la fuerza experimentada por las partículas y, en general, por todos los cuerpos, por el simple hecho de poseer masa o energía. Es la más débil de las cuatro y se caracteriza por su gran alcance y porque siempre es atractiva. En mecánica cuántica se representa por una partícula de espín 2, que se llama gravitrón, y que no posee masa propia. Así, por ejemplo, la fuerza gravitatoria entre la Tierra y el Sol se entiende como un intercambio de gravitrones entre los dos cuerpos, más concretamente entre las partículas que los forman.

Fuerza electromagnética

Es la experimentada por las partículas cargadas eléctricamente y resulta muchísimo más intensa que la gravitatoria. Como la fuerza eléctrica entre dos cuerpos se traduce en mecánica cuántica en la atracción o repulsión entre las partículas que los componen, en general se anulan las fuerzas atractivas con las repulsivas, y el efecto es un  cuerpo en estado neutro. Si no se anulan por completo, casi llegan a hacerlo, por lo que el resultado es una fuerza electromagnética neta muy débil. No obstante, dominan a distancias muy pequeñas, como es el caso de los átomos y moléculas.

La fuerza de atracción eléctrica entre los protones del núcleo y los electrones de la corteza hace que éstos giren describiendo órbitas alrededor del núcleo del átomo.

El fotón es la partícula elemental que representa este tipo de fuerza, que se entiende como un intercambio de esta clase de partículas.

Fuerza nuclear fuerte

Es la que mantiene unidos a los quarks en el protón y el neutrón, y a éstos en el núcleo del átomo. Se piensa que es transmitida por otra partícula, llamada gluón, que sólo interacciona con los quarks y consigo misma. Para energías normales esta fuerza es muy inténsa, pero a altas energías se debilita, de manera que los quarks y los gluones se comportan como partículas casi libres.

Fuerza nuclear débil

Es la causante de la radiactividad, y actúa sobre todas las partículas materiales de espín 1/2, pero no sobre los fotones o los gravitrones, es decir, partículas de espín 0, 1 y 2.

En 1967 Salam y Weimberg propusieron una teoría para unificar esta fuerza con la electromagnética, y sugirieron la existencia de otras tres partículas de espín 1 además del fotón: los denominados bosones. Según esta hipótesis, para grandes energías (superiores a 100 GeV) los tres bosones y el fotón se comportarían de forma similar1 pero a energías más bajas los bosones adquirirían una gran masa y la fuerza que transmitirían sería de corto alcance. Esta teoría fue comprobada y ratificada más tarde, cuando se construyeron potentes aceleradores de partículas, capaces de alcanzar energías tan grandes. Las tres partículas compañeras del fotón fueron definitivamente identificadas en 1983, en el Centro Europeo para la Investigación Nuclear (CERN).

Antimateria

En la actualidad, se sabe que para cada tipo de partícula existen también antipartículas, y que si interacciona una partícula con su correspondiente antipartícula pueden aniquilarse. Pero no existe el mismo número de unas que de otras; en realidad, en condiciones normales no hay antiprotones ni antineutrones, éstos sólo se producen en los grandes aceleradores de partículas. Tampoco en el espacio hay más que unos pocos antiprotones y antineutrones en comparación con la cantidad de protones y neutrones existentes.

Si existiera una gran cantidad de antimateria en comparación con la materia, se producirían múltiples colisiones en el espacio, que provocarían la emisión de una gran cantidad de radiación; así, las partículas se aniquilarían con las antipartículas, desapareciendo la mayor parte de la materia existente.

En general, se acepta que todo el espacio está formado por quarks, no por antiquarks, porque las leyes de la física son diferentes para las partículas y las antipartículas. Siempre se había creído que las leyes de la física poseían tres simetrías:

C, P y 1. La simetría C supone que las leyes son las mismas para partículas y antipartículas; la simetría P, que las leyes son idénticas para, una situación cualquiera y su imagen especular, y la simetría 1 supone que el movimiento de un sistema no se altera si se invierte la dirección del movimiento de todas las partículas y antipartículas. Sin embargo, se ha demostrado que la interacción débil no cumple la simetría P, es decir, el efecto de la interacción débil hace que evolucionen de forma diferente las partículas de las antipartículas. Tampoco posee simetría C, ni simetría combinada PC.

Ver: Dualidad de la Materia, Onda o Partícula?

Ver: Los Estados de la Materia

Ver Tambien:

Las Particulas Subatomicas del Universo
El Polvo Cosmico y Sus Componentes

Derretimiento Casquetes Polares Hielo de los Polos
Geometria No Euclidiana El Espacio Curvado de Einstein
La Vida Media de un Isotopo Quimico
El Efecto Coriolis en el Planeta Tierra
Los gases nobles Gases Inertes Argon Neon Helio

El magnetismo terrestre – Planeta Tierra y los polos magnéticos

El Magnetismo Terrestre – Los Polos Magnéticos

Hasta el siglo XVI el hombre no intuyó que la Tierra se comportaba como un gigantesco imán. Desde entonces, diversos científicos se aplicaron al estudio del magnetismo terrestre, contribuyendo de manera fundamental a aumentar el conocimiento y la comprensión de este fenómeno.

El magnetismo terrestre - Planeta Tierra y los polos magnéticos

La existencia del campo magnético de la Tierra es conocida desde muy antiguo, por sus aplicaciones a la navegación a través de la brújula. En el año 1600, el físico inglés de la corte de Isabel I, William Gilbert, publicó la obra titulada De magnete, considerada como el primer tratado de magnetismo. Gilbert talló un imán en forma de bola y estudió la distribución del campo magnético en su superficie.

Encontró que la inclinación del campo en este imán esférico coincidía con lo que se sabía acerca de la distribución del campo terrestre. De este experimento concluyó que la Tierra era un gigantesco imán esférico. Posteriormente, los estudiosos del geomagnetismo observaron que, tomando en cuenta la declinación, la mejor representación del campo terrestre sería un imán esférico cuyo eje de rotación estuviera desviado unos 110 del eje geográfico de la Tierra.

La Tierra es un imán

Un imán suspendido horizontalmente adopta una posición tal que uno de sus extremos apunta aproximadamente hacia el polo norte geográfico. Este extremo se llama polo norte del imán; el opuesto se denomina polo sur. Los polos del mismo nombre de dos imanes se repelen y los de nombre contrario se atraen.

El polo norte de la aguja de una brújula apunta al polo norte geográfico, porque la Tierra misma es un imán: el polo sur de este imán está cerca del polo norte geográfico y, como los polos contrarios de dos imanes se atraen mutuamente, resulta que el polo norte de la brújula es atraído por el polo sur del imán terrestre, que está en las proximidades del polo norte geográfico.

Sin embargo, la brújula indica cuál es la dirección de la línea geográfica Norte-Sur sólo de un modo aproximado. Los polos norte y sur geográficos son los dos puntos donde el eje de rotación de la Tierra corta a la superficie terrestre. Normalmente, la aguja de la brújula se desvía hacia el Este o hacia el Oeste del norte geográfico. Este ángulo de desviación se denomina declinación.

Una aguja magnética suspendida por su centro de gravedad no se mantiene en posición horizontal. el extremo que señala al Norte se inclina hacia el suelo en el hemisferio septentrional, y lo mismo hace el extremo que señala al Sur, en el hemisferio meridional. Este ángulo de desviación de la aguja respecto de la horizontal se llama inclinación magnética. El valor de la inclinación, al igual que el de la declinación, es diferente de un punto a otro de la superficie de la Tierra.

El campo magnético terrestre se caracteriza también por su intensidad. La intensidad de un campo magnético se mide en gauss. El campo magnético terrestre es bastante débil, del orden de 0,3 gauss en las proximidades del ecuador y de 0,7 gauss en las regiones polares.

El alineamiento en general Norte-Sur de las líneas magnéticas, de acuerdo con el eje de rotación terrestre, sugiere que el campo, en lo fundamental; constituye un dipolo. Resulta inclinado unos 110 respecto al eje de rotación terrestre, y presenta considerables irregularidades (no corresponde al campo de un dipolo perfecto).

Hipótesis del magnetismo terrestre

Hay dos modos de producir un campo magnético: bien por medio de un cuerpo imanado, bien a través de una corriente eléctrica. Antiguamente, se creía que el magnetismo terrestre estaba originado por un gigantesco imán situado dentro de la Tierra (hipótesis del imán permanente). Ciertamente, la Tierra contiene yacimientos de minerales de hierro, y se cree que su núcleo está compuesto por hierro y níquel, sustancias altamente magnéticas. Si este núcleo, cuyo radio excede de los 3.400 km, es en efecto un imán permanente, el campo magnético terrestre puede muy bien ser atribuido a él.

Sin embargo, las sustancias ferromagnéticas, como el hierro y el níquel, pierden su magnetismo por encima del denominado punto de Curie, que es de 770 °C para el hierro y de 360 °C para el níquel. Como la temperatura del núcleo es superior a estos valores (es mayor de 2.000 0C), ni el níquel ni el hierro pueden conservar su ferromagnetismo. El núcleo terrestre no puede ser, pues, un imán permanente.

Otras teorías, posteriores a la de la imanación permanente, están basadas en la rotación de cargas eléctricas. También se han propuesto diversas hipótesis que se fundamentan en el fenómeno termoeléctrico y el efecto Hall. Sin embargo, todas han sido abandonadas a favor de las que postulan la existencia en el núcleo de la  Tierra de fenómenos semejantes a los de una dinamo autoexcitada.

Varios indicios geofísicos sobre la existencia de un núcleo terrestre de naturaleza fluida y alta densidad, compuesto casi en su totalidad de hierro, sirven de base  a las teorías que sitúan el origen del campo magnético en procesos dinámicos que  tienen lugar en su interior. J. Larmor, en 1919, fue el primero en proponer este tipo  de proceso como constitutivo de un efecto de dinamo auto excitada, que originaría el campo magnético terrestre. El fenómeno se basa en que el movimiento de circulación de material conductor en presencia de un campo magnético genera corrientes eléctricas que, a su vez, realimentan el campo inductor. En el caso de la Tierra o este movimiento afecta al material fluido del núcleo. En 1934, Cowling demostró, en oposición a Larmor, que un mecanismo con simetría de revolución no podía servir como explicación de la generación de un campo magnético estable. Desde 1946 se vuelve a dar impulso a las teorías de la dinamo autoinducída, debido a los trabajos pioneros de W. M. Elsasser, E. C. Bullard y H. Gellman; en la actualidad es, prácticamente, la única manera de explicar el origen del campo geomagnético.

Variaciones del campo magnético terrestre

Los estudios permanentes que se realizan en cualquier observatorio demuestran que el campo magnético terrestre no es constante, sino que cambia continuamente. Hay una variación pequeña y bastante regular de un día a otro (variación diurna). La variación en la declinación es de algunos minutos de arco, y la variación en la intensidad es del orden de 10-4gauss.

Algunos días se producen perturbaciones mucho mayores, que alcanzan hasta varios grados en la declinación y 0,01 gauss en la intensidad. Son las llamadas tormentas magnéticas, generadas por corrientes eléctricas que tienen lugar en las capas superiores de la atmósfera. A unos cuantos centenares de kilómetros por encima de la superficie terrestre existe una zona llamada ionosfera, en la que hay electrones libres arrancados a los átomos de oxígeno y nitrógeno por la radiación solar. Las partículas cargadas positiva y negativamente (iones y electrones) hacen que el aire en la ionosfera sea un conductor eléctrico. Estas corrientes eléctricas de la ionosfera originan campos magnéticos que causan variaciones transitorias del campo magnético terrestre.

Variación secular: el campo geomagnético deriva hacia el Oeste

Las variaciones temporales del campo magnético terrestre, de periodo tan largo que sólo se aprecian al comparar valores medios anuales durante varios años, reciben el nombre de variación secular. Un fenómeno de la variación secular hace referencia a que la distribución del campo geomagnético se mueve lentamente hacia el Oeste. El promedio de avance es del orden de 0,18v de longitud por año. A esta velocidad, la distribución del campo daría la vuelta completa a la Tierra en unos 2.000 años. A diferencia de las tempestades magnéticas, que ocurren por causas externas, las anomalías alargo plazo y su marcha hacia el Oeste se deben a causas localizadas en el interior de la Tierra. Los cambios internos tienen lugar de modo muy lento y abarcan hasta millares de millones de años. En comparación, dos mil años es, pues, un tiempo muy corto. Este elemento constituye una de las claves fundamentales en el estudio del magnetismo terrestre.

Paleomagnetismo

El paleomagnetismo es la ciencia qué estudia el magnetismo antiguo de la Tierra. El fundamento dé esta disciplina es la propiedad que tienen ciertas rocas en las que existen granos de minerales magnéticos, como la magnetita, de adquirir una imanación inducida por el campo magnético terrestre y en su misma dirección. Cada grano de magnetita se convierte así en un pequeño imán. Una roca que contenga este mineral tendrá una imanación que será la suma de la de todos sus pequeños granos de magnetita. Esta imanación tiene la propiedad de que, aunque cambie después la dirección del campo magnético terrestre, ella permanece inalterada y se conserva constante. El estudio de la imanación de rocas antiguas permite conocer la dirección que tuvo el campo magnético terrestre en otras épocas.

Fuente Consultada: Gran Enciclopedia Universal (Cap. 23) y Wikipedia

El magma los volcanes cristalizacion magmática Formación Fósiles

El Magma los Volcanes Cristalización Magmática Formación Fósiles

El magma los volcanes cristalizacion magmática Formación FósilesDebajo de la corteza terrestre existe una región grande y profunda, parecida a un océano semifluido y muy caliente, compuesta por materiales fundidos que constituyen el magma y que, a veces, salen proyectados al exterior con gran intensidad a través de los volcanes

El nombre de magma designa la materia en estado semifluido —resultado de la fusión de silicatos y otros compuestos que integran las rocas— que forma la región situada debajo de la corteza terrestre. Debido a las condiciones a que están sometidos (altas presiones y elevadas temperaturas), los materiales magmáticos muestran propiedades que no se corresponden con las del estado sólido y tampoco con las de un líquido o fluido, según los principios generales de la física.

En el magma aparecen en suspensión diferentes tipos de cristales y fragmentos de rocas parcialmente fundidas, así como carbonatos, sulfuros y distintos componentes volátiles disueltos. La interacción de las diversas condiciones físicas determina las características del magma, tanto en lo que se refiere a su composición química como a su viscosidad, resistencia, plasticidad y movimiento.

Tipos de magmas

Una primera clasificación de los distintos tipos de magmas hace referencia a su contenido en sílice. Los magmas con más de un 60% de anhídrido silícico son los llamados ácidos, mientras que los que poseen menos de dicha cantidad se denominan básicos.

Según el estado del gas que contienen, se pueden distinguir; el hipomagma o magma profundo, no saturado de gases, los cuales se encuentran en disolución debido a que la presión exterior es superior a la tensión de vapor del magma; el piromagma, sobresaturado de gases, que constituyen una fase en forma de burbujas debido a que la presión exterior es inferior a la tensión de vapor; y el epimagma o magma desgasificado, del que forman parte solamente minerales fundidos (los gases escapan del resto del magma debido a la escasa presión externa).

Cuando el epimagma se proyecta al exterior por los puntos más débiles de la corteza terrestre, las masas de magma dan origen a los volcanes y forman, por enfriamiento, las rocas magmáticas, también llamadas ígneas o eruptivas, cuyo grado de cristalización es variable, y entre las que se encuentran el granito, el basalto o los pórfidos.

El ascenso de los magmas depende de sus condiciones físico-químicas (viscosidad, densidad, contenido en elementos volátiles, etc.), de las particularidades tectónicas de la región donde se encuentran y de las rocas que han de atravesar. Los magmas ácidos son ligeros y viscosos, ascienden con facilidad y originan grandes depósitos. Los magmas básicos, de mayor densidad, son menos viscosos y ascienden con mayor dificultad que los anteriores.

Al ser mezclas de diversas sustancias, los magmas no tienen un punto de fusión definido, sino un intervalo de fusión. De igual manera, no se puede hablar de temperatura de cristalización, sino de intervalo de cristalización.

LOS VOLCANES:
En el interior de la Tierra se encuentra en su mayor parte en estado liquido e incandescente a elevadísimas temperaturas. A esa inmensa masa de roca fundida, que además contiene cristales disueltos y vapor de agua, entre otros gases se la conoce como magma terrestre. Cuando parte de ese magma surge hacia el exterior a través de los fenómenos volcánicos, se la llama lava. Al alcanzar la superficie de la corteza o el fondo oceánico , la lava comienza a enfriarse y se convierte así en diversos tipos de roca sólida, según su composición original. Ésta es la base de los procesos por los que se ha formado la superficie de nuestro planeta y por los cuales sigue en permanente cambio. Los científicos estudian la lava para conocer en profundidad nuestro planeta

Cristalización magmática

El magma se origina cuando en un lugar de la corteza o del manto superior la temperatura alcanza un punto en el que los minerales con menor punto de fusión empiezan a fundirse (inicio de fusión parcial de las rocas). Sin embargo, la temperatura de fusión no depende sólo del tipo de roca, sino también de otros factores como la presión a la que se encuentra o la presencia o ausencia de agua. El incremento de presión en condiciones de ausencia de agua dificulta la fusión, por lo que, con la profundidad, tiende a aumentar la temperatura de fusión de las rocas. Por el contrario, fa presencia de agua disminuye el punto de fusión.

Tras su formación, el magma asciende, pues es menos denso que las rocas que lo rodean. Durante el ascenso se enfría y empieza a cristalizar, formándose minerales cada vez de más baja temperatura, según una secuencia fija y ordenada conocida como serie de cristalización de Bowen.

La serie de Bowen hace referencia a dos grandes líneas de cristalización. Una de ellas indica el orden en que se forman los silicatos ricos en hierro y magnesio (llamados ferromagnesianos). Se denomina serie discontinua porque los cristales formados van siendo sustituidos por otros de estructura distinta y más compleja medida que desciende la temperatura.

La otra serie de cristalización es la de las plagioclasas. Recibe el nombre de serle continua porque los minerales formados sucesivamente tienen la misma estructura y sólo cambia la proporción relativa de sodio y calcio.Al final de la cristalización, a la vez que la plagioclasa sódica (albita> y las micas se forman el cuarzo y la ortosa.

 Diferenciación magmática

Algunas veces, a medida que se produce la cristalización de un magma si la diferencia de densidad entre los minerales ya formados y el líquido residual es alta y si la viscosidad de éste es baja, los cristales recién formados pueden quedar aislados del resto del magma, que por tanto se verá enriquecido progresivamente en sílice De continuar el proceso, se obtendrá, a partir de un solo magma, una serie de rocas ígneas de distinta composición, por cristalización fraccionada. Este proceso es denominado diferenciación magmática, y puede originaria formación de rocas ácidas a partir de magmas básicos o intermedios.

Fases de cristalización magmática

El enfriamiento de un magma en el interior de la corteza da lugar a una serie de fases sucesivas de cristalización, a temperaturas cada vez más bajas. La primera es la denominada frise ortomagmática, que. se produce en general por encima de los 700 °C (dependiendo de la composición del resto de las condiciones físicas). En ella cristaliza la mayor parte del magma formando las rocas plutónicas.

La fase pegmatítica tiene lugar más o menos entre los 700 y 550 0C. A estas temperaturas, el residuo fundid6 está muy enriquecido en volátiles, por lo que se introduce a través de grietas, donde cristaliza originando yacimentos filonianos de pegmátitas. Los minerales que se forman son silicatos ricos en sílice (cuarzo, ortosa, albita),en grupos hidroxilo (micas) y en elementos como el boro (turmalina), el fósforo (apatito), el flúor (fluorita), etc.

En la tercera fase, denominada neumatolítica, que tiene lugar aproximadamente entre los 550 y 375 °C, el residuo de cristalización está compuesto básicamente por volátiles, que penetran en las rocas encajantes y dan lugar a filones formados por minerales como la moscovita, el cuarzo, el topacio, óxidos y sulfuros metálicos, etc. Igualmente, los volátiles actúan sobre los minerales de las rocas ígneas o del encajante, transformándolos.

La última fase, llamada hidrotermal, se inicia por debajo de los 375 °C da lugar a vetas y filones de cuarzo y calcita, a minerales metálicos y a transformaciones de minerales ya formados.

El magmatismo y la tectónica de placas

El origen del magma se relaciona a menudo con la dinámica global de la corteza y el manto terrestres, ya que, en general, tiene lugar en los bordes de placas. En las dorsales, el magma se forma básicamente por descompresión de los materiales del manto superior, a poca profundidad, y da lugar a rocas básicas (basaltos y gabros).

En las zonas de subducción, el magma se origina a una profundidad de hasta 150 Km. por fusión parcial de la corteza oceánica y/o del manto y la corteza situados por encima. Este proceso da lugar a la formación de rocas en su mayoría intermedias (andesitas y granodioritas).

En las áreas de colisión continental, en relación con los procesos orogénicos, se produce la fusión parcial de la corteza, y surgen esencialmente rocas ácidas, como el granito. Existen también zonas concretas de magmatismo de intraplaca, que se deben a la existencia de puntos calientes en el manto.

Fuente Consultada: Gran Enciclopedia Universal (Cap. 23) y Wikipedia