Conservación de la Energía

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los «sistemas de conversión de energía eólica», sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan «no susceptible de ser dividido». Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

Nanociencia Nanotecnologia Que es la Nanociencia? Aplicaciones de la

Nanociencia Nanotecnologia ¿Qué es la Nanociencia?

Uno de los avances mas espectaculares llevados a cabo en Física e Ingeniería en años recientes es el experimentado por la nanotecnología: la habilidad de diseñar, controlar y modificar materiales a nivel cuasi-microscópico ó “mesoscópico”. La nanotecnología nos promete la posibilidad —largamente soñada— de influir en las propiedades de los materiales con el fin de producir materiales “inteligentes” para todo tipo de aplicaciones.

Es ahora frecuente ver en las más prestigiosas revistas científicas reportes sobre avances en diseño de microcircuitos, microestructuras artificiales y máquinas microscópicas. Ahora es posible el crecimiento sistemático y controlado de pequeñas estructuras artificiales compuestas de varia capas delgadas de materiales diferentes, algunas de unos pocos átomos de ancho mediante técnicas, tales como los “haces moleculares epitaxiales”.

A escala comercial, quizás la aplicación mas espectacular a la fecha es el uso de la magnetoresistencia gigante, descubierta en 1998, en las cabezas lectoras de la mayoría de los discos duros de los computadores actuales.

Estos y otros avances relacionados, han provocado un explosivo interés en el tema y el término nanotecnología se ha convertido en palabra clave de muchas propuestas de investigación en ciencia de materiales e ingeniería.

ORÍGENES: E 29 de diciembre de 1959, por ejemplo, el físico Richard Feynman -uno de los científicos más importantes del siglo XX- miró con determinación a si audiencia en una conferencia en el Instituto de Tecnología de California EE.UU., se aclaró la garganta y dijo: «Hay mucho lugar allá abajo» y lanzó no uno, sino dos desafíos a los presentes en el auditorio: le daría 1.000 dólares a aquel capaz de hacer un motor más pequeño que 8 mm3 y a quien lograra escribir los 24 volúmenes de la Enciclopedia Británica en la cabeza de un alfiler, es decir, reducir unas 25.000 veces un texto.

Casi sin querer  (o saberlo), este premio Nobel de física había abierto las puertas de lo desconocido. Había dado a luz un nuevo campo científico, de dominio íntimos, liliputienses, vírgenes: habían nacido las nanociencias.

Richard Feynman

La electrónica había encontrado su camino en la miniaturización.

Y Feynman, todo un provocador, estaba seguro de que se podía bajar incluso unos pisos más: en teoría, nada impedía manipular conjuntos de átomos, reordenarlos con suma precisión como si fueran ladrillos 1.000 millones de veces más pequeños que un metro, un «nanómetro», o sea, el tamaño de un virus.

Y hacerlo, pese a que, como muchos comprobaron más tarde, el comportamiento de la materia cambia por debajo de un cierto tamaño.

Las leyes que rigen son distintas. El tamaño importa: en este mundo ínfimo donde las cosas no pesan casi nada, la gravedad mucho no importa. (Fuente: Todo lo que necesitas saber sobre ciencias, Federico Kukso)

La opinión pública y la dirigencia política desconocen casi por completo el desafío de las nanotecnologias, portadoras de muchas más esperanzas y peligros que todas las tecnologías hasta hoy conocidas.

Su difusión potencial preocupa a los ciudadanos, mientras las industrias prometen el advenimiento de materiales milagrosos. Como ya ocurrió con los organismos genéticamente modificados (OGM), el ritmo de desarrollo de sus aplicaciones es más rápido que el control de los peligros que encierran.

Qué tienen en común un neumático inteligente y una crema sol milagrosa? ¿O una prenda de vestir isotérmica, cuyo color cambia con nuestro humor, y una pintura resistente a las manchas? ¿O un “acero” tan liviano como el plástico y un interruptor sin cable? ¿O las medias que no toman olor y la destrucción selectiva de una célula cancerosa? En todos los casos, se trata de aplicaciones de la nanotecnología.

Hoy se sabe cómo producir esos objetos cuyo tamaño está en el orden del millonésimo de milímetro (0,000001mm). Constituidos por una pequeña cantidad de átomos o de moléculas, están dotados de extraordinarias características físicas, químicas o biológicas que les otorgan resistencia, flexibilidad, liviandad o capacidad de almacenamiento de información. Esta confluencia de la materia, la electrónica y la biología se presta a aplicaciones informáticas, industriales, ambientales y médicas.

El significado de la «nano» es una dimensión: 10 elevado a -9.

Esto es: 1 manómetro = 0,000000001 metros. Es decir, un manómetro es la mil millonésima parte de un metro, o millonésima parte de un milímetro. También: 1 milímetro = 1.000.000 manómetros. Una definición de nanociencia es aquella que se ocupa del estudio de los objetos cuyo tamaño es desde cientos a décimas de manómetros.

Hay varias razones por las que la Nanociencia se ha convertido en un importante campo científico con entidad propia. Una es la disponibilidad de nuevos instrumentos capaces de «ver» y «tocar» a esta escala dimensional. A principios de los ochenta fue inventado en Suiza (IBM-Zurich) uno de los microscopios capaz de «ver» átomos. Unos pocos años más tarde el Atomic Force Microscope fue inventado incrementando las capacidades y tipos de materiales que podían ser investigados…

En respuesta a estas nuevas posibilidades los científicos han tomado conciencia de potencial futuro de la actividad investigadora en estos campos. La mayor parte de los países han institucionalizado iniciativas para promover la nanociencia y la nanotecnología, en sus universidades y laboratorios.

Así, la más extendida revolución tecnológica que haya conocido la humanidad está tal vez en vías de nacer en laboratorios de Tokio, Berkeley o Grenoble. Revolución, porque las nanotecnologias permiten eliminar la barrera entre lo real y lo virtual, entre lo vivo y lo material. Extendida, porque la posibilidad de poner inteligencia en todas las partes de nuestro cuerpo y en nuestro medio ambiente abre perspectivas económicas infinitas, estimadas en un billón de dólares a partir de 2015.

La palabra «nanotecnología» es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas «nanos» que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman

nanotecnologia

RIESGO SANITARIO
Pero esta revolución plantea una cantidad infinita de preguntas. Los industriales, tras el escándalo del amianto y el rechazo a los OGM, tratan de desactivar las objeciones críticas mediante una concertación con algunos grupos ciudadanos. Pero el argumento que plantea que ya vivimos en medio de nanopartículas errantes a las que se supone inofensivas—producidas por la naturaleza, la industria y los motores de vehículos— no basta para cerrar el debate sobre el peligro sanitario y, menos aun, sobre los riesgos para la libertad.

A mediados de 2006 ya se contaban 700 productos que contenían componentes nanométricos y 1.400 clases de nano partículas vendidas por unos SO productores. A pesar de la creación de grupos de trabajo y de la organización de debates públicos en todo el mundo, el control de los riesgos —por la vía de normas, leyes y una obligación de transparencia— parece muy retrasado con respecto al ritmo de desarrollo de las aplicaciones que, por otra parte, son muchas veces desconocidas por razones de secreto industrial y, sobre todo, militar.

Se sabe, sin embargo, que su tamaño les permite a esas partículas no sólo alojarse en las vías respiratorias, sino también atravesar la piel, penetrar las células basta su núcleo, vencer membranas consideradas infranqueables o alojarse en el sistema nervioso central. Millones de trabajadores corren el riesgo de resultar expuestos a las nanopartículas. Ya se puede prever una acumulación en la naturaleza de “migajas” nanométricas capaces de perturbar los ecosistemas y de intoxicar al ser humano. ¿Podrá argüirse, cómo con el amianto, que no sabíamos?

LA TENTACIÓN DE FAUSTO
El riesgo para la libertad parece mucho mayor que el de la toxicidad, porque con la generalización de losnanochips se corre el riesgo de relanzar la tentación de Fausto, de crear el ser perfecto, de buen desempeño y alta resistencia. A través del sistema de Radio Frequency Identification (RIFID) se abre la vía para vigiar a los individuos y su comportamiento. La difusión de partículas inteligentes también puede servir para la vigilancia del medio ambiente, para la marcación antirrobo, para los sistemas de información militar o para la acción de los terroristas, de sectas y de “Estados canallas”.

Como con los OGM, que se imponen a pesar de las dudas y de las moratorias locales, las nanociencias llaman a la construcción de un sistema de responsabilidades entre quien toma las decisiones políticas, el científico, el industrial y el ciudadano. Confirman que un Estado no puede —suponiendo que quiera hacerlo— adoptar por sí solo el principio de la protección máxima, sin correr el riesgo de ver que los demás acaparen patentes y mercados. Se plantea así la cuestión del crecimiento de las desigualdades ente quienes dominan esta arma económica suprema y quienes no pueden hacerlo.

A CORTO PLAZO:

Nanotecnología purificadera: El 73 por ciento del agua que hay en el mundo es salada, y el 2,7 por ciento del agua dulce que puede servir para consumo humano está contaminado por fuentes industriales. Una solución podría llegar de parte de un proyecto que llevan a cabo el Instituto Politécnico Nacional de México, la Pontificia Universidad Javeriana de Colombia, e instituciones de Francia y España, que comenzaron a usar una tecnología que combina biotecnología y nanotecnología, para purificar aguas, incluyendo a las industriales. El sistema se basa en nanopartículas de óxido de titanio que se colocan sobre superficies de vidrio o de cristal y después se someten a altas temperaturas para que se adhieran.

Es en presencia de luz solar o ultravioleta que se producen especies oxidantes que degradan el material orgánico en el agua contaminada. Una prueba indica que, aplicada a un lote de 800 mililitros de agua con 1,5 gramo de nanopartículas de óxido de titanio, se removió la totalidad de los compuestos tóxicos.»

Detección Rápida del Cáncer: Pruebas de cáncer más rápidas Científicos estadounidenses han usado con éxitonanosensores para detectar exitosamente cáncer en la sangre de los pacientes. La prueba más reciente puede detectar concentraciones mínimas de marcadores biológicos, en el orden de una millonésima parte de gramo por mililitro, el equivalente a ser capaz de detectar un grano de sal disuelto en una piscina grande. En vez de tener que esperar varios días los resultados del laboratorio, la prueba ofrece una lectura en minutos.

LA ESTRELLA DEL SIGLO XXI: EL GRAFENO: Un nuevo material de ficción (un nanomaterial), 200 veces mas resistente que el acero, pero flexible, impermeable y conductor de la electricidad.

En este material los átomos están dispuestos en hojas tridimensionales: el grafeno es ultrafino -sus átomos de carbono se agrupan siguiendo un modelo parecido a un panal de abejas-, transparente, flexible, impermeable, presenta una elevada conductividad eléctrica y, encima, es doscientas veces más resistente que el acero. «Con solo apretar un botón en un paquete de galletitas, sabremos sus ingredientes y calorías», asegura el belga Jan Genoe del Instituto Imec de Nanoelectrónica de Lovaina. «En unos años, veremos pantallas de este material en todas partes.»

Con el grafeno, los celulares podrían volverse casi tan delgados y flexibles como el papel y prácticamente indestructibles. También podría abrir el camino a las placas solares flexibles: los metales convencionales absorben la luz. Por el contrario, el grafeno, incorporado en un panel solar, facilitará el aporte de energía a numerosos dispositivos. Y hay más: «el papel electrónico enrollable -asegura uno de los descubridores del grafeno, Kostya Novoselov- podría estar disponible en 2015″.

LOS FULLERENOS, Historia
Hasta 1985 se pensó que el elemento más estudiado por el hombre, el carbono, sólo podía existir, en estado puro, en forma de diamante -sustancia de gran dureza que no conduce la electricidad- y de grafito -material bastante blando y buen conductor de la electricidad- Ese año, motivados por el descubrimiento de nuevos compuestos del carbono realizado en el espacio exterior, el químico británico Harold W. Kroto (1939- ) y los estadounidenses Robert F. Curl (1933-) y Richard E. Smalley (1943-) estudiaron el agregado de pequeños grupos de átomos de carbono llamados clusters.

Robert F. Curl                           Richard E. Smalley

Estos científicos observaron que se producía un agregado con un número máximo de 60 átomos de carbono y trataron de determinar su estructura espacial. Luego de varios intentos para encontrar una estructura formada sólo por hexágonos la forma más común que adopta el carbono), se convencieron de que la única disposición posible era la de una pelota de fútbol, constituida por 20 hexágonos y 12 pentágonos.

Esta nueva forma natural del carbono se conoce con el nombre de futboleno, o también buckminsterfullereno debido a la similitud estructural con las formas geométricas de las cúpulas geodésicas inventadas por el arquitecto estadounidense Richard Buckminster Fuller 1895-1983).

El trabajo de estos científicos fue arduo: durante cinco años buscaron un método que permitiera crear cantidades visibles de futboleno. Sabían que la sustancia se producía en forma natural durante la combustión del carbón, pero cuando juntaban hollín en benceno, éste se depositaba en el fondo y no se obtenía el compuesto amarillo tan buscado.

En mayo de 1990, mientras estudiaba el polvo interestelar, el físico Wolfgang Krátschmer y sus colaboradores evaporaron una barra de grafito calentándola con una corriente de helio y observaron que en el hollín había una sustancia diferente.

Años más tarde y luego de varios estudios, Krátschmer mezcló unas gotas de benceno con este hollín, y el solvente incoloro se volvió rojo. Varios estudios posteriores permitieron concluir que se trataba de una solución concentrada de fullerenos. ¡El futboleno es amarillo cuando forma una película, y rojo, cuando está en solución!

Curl y Smalley continuaron con el estudio de estas sustancias, hasta que en 1996 recibieron el premio Nobel de Química. Tal como es común en la historia de las ciencias, a partir de este descubrimiento se abrieron nuevos campos para la investigación en terrenos muy alejados de los objetivos iniciales de los científicos.

Se han descubierto nuevos fullerenos de 60 y 70 átomos de carbono, y algunos de ellos tienen utilidad como superconductores a bajas temperaturas cuando se incorporan otros elementos a su estructura. Finalmente, se comprobó que el futboleno es biológicamente activo y podría llegar a emplearse en la lucha contra el cáncer.
Fuente: Investigación y Ciencia, N° 183, diciembre de 1991.

LA NANOCIENCIA SE INSPIRA EN LA NATURALEZA: Los científicos se inspiran en la naturaleza, tratando de imitar propiedades a nanoescalas que tienen algunas plantas y animales y que podrían utilizarse para fabricar nuevos materiales utilizando esas misma propiedades, por ejemplo las que siguen abajo:

nanociencia, cuadro de aplicaciones

CRONOLOGÍA:

1959 El físico Richard Feynman advirtió en una conferencia en el Instituto Tecnológico de California: «A mi modo de ver, los principios de la física no se pronuncian en contra de la posibilidad de maniobrar las cosas átomo por átomo».

1980 Se estrenó la película Viaje fantástico, basada en el libro de Isaac Asimov, con Raquel Welch. Cuenta la travesía de un grupo de científicos que reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que lo está matando.

1970 Se diseñó la primera nanoestructura: un liposoma.

1974 El japonés Norio Taniguchi utilizó por primera vez la palabra «nanotecnología» en un paper.

1981 El físico suizo Heinrich Rohrer y el alemán Gerd Binnig desarrollaron el microscopio de efecto túnel, que permite manipular átomos.

1985 El químico inglés Harold Kroto descubrió los fulerenos, macromoléculas de carbono individuales utilizadas para hacer nanotubos.

1989 Investigadores del Almadén Research Center de IBM manipularon con precisión 35 átomos de xenón para formar el logo de la empresa de informática. 1999 Aparecieron en el mercado los primeros productos con nanotecnología. 2002 Michael Crichton publicó Presa, un tecnothriiler en el que unos nanobots inteligentes escapan al control humano y se convierten en entes autónomos, autorreplicantes y peligrosos.

2010 Se creó un nanobot capaz de mover átomos y moléculas.

2012 Se desarrolló un método en impresoras 3D para la fabricación de es culturas con estructuras tan pequeñas como un grano de arena.

Naturaleza de la Materia

MAS EN INTERNET:
> Centro Nacional de Investigación Científica (CNRS): www.cnrs.fr

> Portal creado por iniciativa del Ministerio Delegado para la Investigación y las Nuevas Tecnologías: www.nanomicro.recherche.gouv.fr

> Action Group on Erosion, Technology and Concentration: www.etcgroup.org/en

> VivAgora, plataforma de protección, información y diálogo por una participación ciudadana en las decisiones científicas y técnicas:www.vivagora.org

Historia de la Fisica Moderna Los Descubrimientos y Evolución

Historia de la Física Moderna – Siglos XIX y XX

Temas Relacionados:

1-Que es el Atomo y su Energía
2-Organismo Geneticamente Transformado
3-La Nanotecnología
4-Proyecto Genoma Humano

HISTORIA DE LA FÍSICA MODERNA – SIGLO XIX Y XX:  La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: el éter.

En 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta. Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y la radiactividad,descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

En la época de la electrostática, ya se habían interesado mucho por los fenómenos que acompañan el paso de la electricidad a través de los gases. Después, cuando la antigua máquina de platillo fue reemplazada por la bobina de Ruhmkorff (1803-1877) y la ciencia del vacío se perfeccionó considerablemente gracias a los dispositivos que rehabilitaban la cámara barométrica y al gran empleo del mercurio, fue posible observar lo que pasaba cuando la descarga eléctrica se produjo en una atmósfera gaseosa rarificada.

Estaba reservada a sir William Crookes (1832-1919) realizar el más sensacional de los descubrimientos de su tiempo. Hábil experimentador, Crookes se dedicó a estudiar, a partir de 1878, el paso de la corriente por tubos en los que el gas se reducía a algunas moléculas.

En estas condiciones, el interior de la ampolla no produce ninguna luz «mientras que sus paredes se iluminan con una viva claridad verde». Tras una serie de ingeniosos experimentos, Crookes terminó por demostrar que se trataba de una irradiación particular emitida por el electrodo negativo o cátodo.

Esta irradiación se propaga en línea recta a través del tubo, hace luminiscentes y calienta los cuerpos sólidos que encuentra y hasta ejerce una presión sobre ellos. Todo sucede, en fin, como si unos corpúsculos lanzados a gran velocidad bombardeasen los cuerpos más próximos.

A pesar de todas las ideas admitidas en su tiempo sobre la primacía de las ondas, Crookes tuvo la audacia de pensar que la luz verde que aparecía en las paredes de la ampolla no era otra cosa que un flujo de moléculas materiales lanzadas a gran velocidad. No se equivocaba más que sobre la dimensión de los proyectiles pero volvía a introducir en física una noción pasada de moda y ridiculizada: la emisión. ¿Se habría equivocado Newton?

Entre tanto, todos los laboratorios de Europa se proveían de ampollas de Crookes. Hacia 1880, demostró que los rayos catódicos—así se les llamaba entonces—atravesaban unas delgadas láminas de metal colocadas en su trayecto en el interior de la ampolla y en 1892 con;, guía Lénard hacerlos salir del tubo a la atmósfera sin otro artificio que el de practicar en la ampolla una ventanilla formada por una c; esas delgadas láminas de metal.

Esto equivalía a arruinar la hipótesis de la emisión ya que ningún bombardeamiento molecular podía jactarse de atravesar las paredes, pero ¿y si los proyectiles no eran moléculas? La cuestión quedó zanjada por un experimento decisivo realizado en 1895 por Jean Perrin, entonces preparador en el laboratorio de la Escuela normal superior.

Perrin demostró que los rayos catódicos no son más que granos de electricidad negativa lanzados a gran velocidad a través de la ampolla vaciada. En otros términos: acababa de descubrirse el electrón.

En este mismo año 1895, Roentgen (1845-1923) se entregaba, por su propia cuenta, a experimentos sobre los rayos catódicos cuando, por casualidad, observó que el tubo de Crooke: emitía otro género de irradiaciones. Pues bien: se trataba de un hecho propiamente hablando escandaloso, ya que estos nuevos rayos se propagaban exactamente en línea recta, atravesando los cuerpos opacos y permitiendo fotografiar, a través de la carne, el esqueleto de un ser vivo.

Este descubrimiento estalló algo así comí una bomba en todos los laboratorios del planeta. No era difícil repetir el experimento: un tubo de Crookes, una bobina de inducción, una placa fotográfica envuelta en un papel negro. y una pantalla recubierta de una sustancia fluorescente.

Se hicieron muchas radiografías ; no faltaron los «cobayas». Había dos cosas absolutamente desconocidas a propósito de estar misteriosas radiaciones, a las que inmediatamente se las bautizó como rayos X: primero el tremendo peligro que entrañan por poco que uno se exponga a ellos con demasiado frecuencia. y después su origen. ¿Por qué parte del aparato eran emitidos?

El gran matemático Henri Poincaré expresó la idea que quizá la emisión de rayos X estuviera ligada a la fluorescencia del vidrio herido por los rayos catódicos. En esta teoría coincidían a la vez una verdad y un error; la pared de vidrio emite, en efecto, la misteriosa irradiación, pero esta emisión se opera sin conexión con la florescencia.

La emisión la realizan tan bien o mejor cuerpos que no son en absoluto fluorescentes. Esta comprobación no parecía tener utilidad alguna, pero habría de llevar al descubrimiento de la radiactividad natural.

El 20 de enero de 1896, lunes, día de sesión en la Academia de Ciencias, Henri Poincaré mostró a sus colegas las primeras radiografías hechas en Francia y propuso la teoría antes aludida y según la cual el vidrio de la ampolla de Crookes, hecho fluorescente, había emitido rayos X. Si las cosas se desarrollaban así. sustancias naturalmente fluorescentes como, por ejemplo, el sulfato doble de uranio o de potasio, debían producir espontáneamente rayos X. Es lo que quiso averiguar Henri Becquerel (1852-1908).

Cogió un chasis opaco, de cartón negro, que contenía una placa fotográfica y dos láminas de sulfato doble de uranio y de potasio sujetas por unas tiras de papel. Entre una de ellas y el chasis colocó una moneda de plata y lo expuso todo a los rayos del sol. Al revelar la placa, Henri Becquerel comprobó que aparecían unas huellas correspondientes al emplazamiento de las láminas y de la moneda de plata que absorbían en parte las irradiaciones de las dos sustancias.

¿Quedaba confirmada la hipótesis de Henri Poincaré? ¡Quién sabe! En espera de que llegara un día soleado que tardaba en presentarse, Becquerel encerró todo su equipo en un cajón oscuro. Cuál no sería su sorpresa cuando el 1 de marzo de 1896 quiso asegurarse de que su placa fotográfica estaba todavía virgen.

Impulsado por no se sabe qué curiosidad, la desenvolvió y la encontró impresionada. Ante sus ojos extrañados aparecieron con toda claridad unas sombras que dibujaban las formas de las láminas y mostraban la radiografía de una cruz de cobre muy fina colocada sobre una de ellas. La sal de uranio emitía rayos X tanto en plena oscuridad como a la luz. La fluorescencia no intervenía para nada en el fenómeno. Con una intuición admirable, Becquerel pudo anunciar entonces el hecho de que se trataba de una propiedad atómica independiente de la composición química del elemento uranio.

Acogida al principio con reticencia, esta tesis fue confirmada en febrero del año siguiente por J. J. Thomson y por su joven ayudante Ernest Rutherford, quienes estudiaron también los «rayos uránicos». Gradualmente se iba imponiendo la verdad: las sales de uranio eran una especie de ampollas de Crookes naturales aun cuando nadie sabía decir por qué.

En 1882, Pierre Curie (1859-1906) fue nombrado jefe de trabajos prácticos de la Escuela de física y química. En esta época, este gran científico y su esposa Marie (1867-1934) eran desconocidos del gran público, pero quienes estaban al corriente de los progresos de la física tenían ya a los dos esposos como unos genios.

Pierre Curie se ocupaba de cristalografía cuando la señora Curie tuvo la idea de investigar las propiedades del uranio en los diversos compuestos de este elemento y en los minerales que lo contienen. Algunos de ellos demostraban una actividad mayor aún que la del uranio puro. No era difícil sacar la conclusión de este fenómeno: estos minerales debían contener un cuerpo desconocido más activo que el uranio.

Pierre Curie se dio cuenta inmediatamente de que sus trabajos sobre cristalografía podían esperar un poco y que convenía trabajar sobre los datos recogidos por su esposa. Poco después demostraba la señora Curie la existencia de un cuerpo nuevo: el polonio; después, los dos esposos redoblaron sus esfuerzos y pudieron anunciar, el 26 de diciembre de 1898, que habían descubierto un nuevo elemento que se desintegraba espontáneamente: el radio.

Más aún, Pierre y Marie Curie pudieron establecer muy pronto que el radio se transforma en otros productos radiactivos como el helio, para terminar finalmente en un metal inerte, el plomo. Se había logrado una verdadera transmutación de elementos y este descubrimiento ha revolucionado el mundo.

En el terreno práctico, los resultados obtenidos por Fierre y Marie Curie iban a engendrar una muchedumbre de aplicaciones, sobre todo desde el punto de vista médico, pero hubo que esperar hasta 1912 para que se descubriera al fin en qué consistían los rayos X. Utilizando las redes de moléculas descubiertas por Bravais, cristalógrafo francés del siglo XIX, y cuyas dimensiones del orden de la diezmilésima de miera son lo suficientemente pequeñas como para difractar los rayos X, el físico alemán Max von Laue reconoció al fin que estos rayos pertenecen al mismo grupo que los rayos luminosos ordinarios de los que no se diferencian más que por la extraordinaria rapidez de sus vibraciones.

Son, por así decirlo, hiperultravioleta, y en estas condiciones hubiera tomado nuevo vigor la tesis de las ondulaciones del éter si no hubiera descubierto Planck el fotón en 1898.

Ondas luminosas, rayos gamma y rayos X constituían, no cabía duda, emisiones de fotones. La inexistencia del éter y, por tanto, de sus vibraciones, había sido ya realmente demostrada mucho antes, gracias a un experimento magistral.

En 1887 emprendió Michelson la tarea de demostrar el influjo de la translación terrestre sobre la velocidad de la luz. Algunos años antes, en 1881, el ingenioso experimentador había inventado un interferómetro de una precisión inigualada. Con ayuda de este aparato iba a poderse confirmar o destruir la existencia del éter.

En efecto, si este último es un medio estable que transmite los movimientos vibratorios, los de la onda luminosa o de la onda eléctrica, habría de poderse encomendar el movimiento de dos rayos de luz, uno de los cuales sería dirigido en el sentido de la traslación terrestre, el otro perpendicularmente al plano de este movimiento. O dicho de otra forma, habría de poderse demostrar el desplazamiento absoluto de nuestro globo a través del éter por el complemento de velocidad de que se beneficiaría une de los rayos luminosos.

Ahora bien: la velocidad de la tierra es de unos 30 Km. por segundo, la de la luz de 300.000 Km. por segundo. Er. estas condiciones, el desplazamiento de las franjas luminosas de interferencia debía corresponder a la ínfima diferencia de una cienmillonésima, fracción que representa el cuadrado de la relación entre la velocidad de desplazamiento de la tierra y la velocidad de la luz.

Michelson, con ayuda de su colega Morley. realizó un ingenioso dispositivo compuesto de cuatro espejos, una fuente luminosa y el interferómetro de precisión de que hemos hablado antes. El resultado del experimento fue absolutamente negativo.

El suplemento de 30 Km. por segundo no aceleraba en modo alguno el rayo luminoso que continuaba imperturbablemente su carrera a una velocidad normal de 300.000 kilómetros por segundo. No se necesitaba más para afirmar que no existía el éter. Y de ahí nació toda la teoría de la relatividad.

ALBERT Einstein (1879-1955) hay que considerarle ante todo como matemático, pero como la física es una ciencia que se matematiza cada vez más, la relatividad constituiría para ella una fuente de fecundas explicaciones. En primer lugar, como no puede encontrarse ningún punto fijo en todo el universo, había que admitir que el mundo en que vivimos está construido de tal forma que, en un sistema en movimiento, es imposible evidenciar el desplazamiento de ese sistema y a fortiori, la velocidad del mismo desplazamiento.

A este postulado, o más bien axioma, puesto que parece evidente por sí mismo, añadía Einstein que, cualquiera sea el sistema en traslación a partir del cual se mida la velocidad de la luz, esta velocidad conserva siempre el mismo valor numérico.

En el campo de la astronomía, la introducción de un constituyente limitado en un todo que se creía infinito iba a imponer inmediatamente la noción de un universo cuyas fronteras, siempre móviles, han sido establecidas recientemente sobre la base de un radio de diez mil millones de años-luz.

En física, había que concluir que la inexistencia del éter terminaba con las viejas leyes de la cinemática clásica y que la noción de espacio, tomada aisladamente, ya no tenía ningún sentido. Esto llevó a Einstein a la noción muy abstracta de continuum espacio-tiempo y a la aceptación por parte de los físicos de una hipótesis propuesta ya en el siglo pasado por Riemann y que negaba que el espacio fuese independiente de los fenómenos físicos que se desarrollan en él, lo que necesariamente hacía del tiempo una dimensión del espacio.

La física nuclear ha demostrado en nuestros días que esta noción respondía a la realidad.

Sabemos experimentalmente que la energía posee una masa y que la masa se materializa en energía, principio expuesto por Einstein ya en 1905 y que se resume en esta fórmula clave de nuestro mundo moderno: E = mc2, en la que la energía equivale a la masa multiplicada por un factor correspondiente al cuadrado de la velocidad de la luz.

Los descubrimientos de Einstein no se agotan ahí. Aprovechando las conclusiones impuestas por unos experimentos realizados en 1903 con el tubo de Crookes, Einstein afirmará que la verdadera masa del electrón no es de naturaleza mecánica, sino de naturaleza electromagnética. En estas condiciones, los fenómenos electromagnéticos se imponían a todos los demás y sus leyes vendrían a constituir los principios básicos de la mecánica.

Con la formulación de la relatividad restringida se abre el camino a la tesis que Einstein desarrollará más tarde en forma de una teoría de la relatividad generalizada. Todo esto teniendo en cuenta el concepto del danés Bohr, quien en 1913 rechazará el electromagnetismo clásico en su concepción del modelo de átomo, lo que apunta claramente hacia el camino que más tarde conducirá a los físicos a considerar favorablemente la gran hipótesis del campo unitario.

Al mismo tiempo, una nueva teoría tan desconcertante como la de la relatividad iba a dar al traste con la hermosa noción de continuidad, sobre la que descansaba la física clásica. Se trata, naturalmente, de la teoría de los quanta, formulada muy ingeniosamente hacia 1900 por el gran físico alemán Max Planck por razones puramente experimentales: la famosa emisión de luz por los cuerpos negros, verdadero rompecabezas para los físicos de la época.

Las teorías de Planck revisten un grado tal de abstracción que nos es imposible explicarlas aquí, porque se necesitaría todo un capítulo especial cargado de fórmulas y gráficos. Lo esencial es saber que, según Planck, toda especie de energía es de naturaleza discontinua. O dicho de otro modo: la luz o la electricidad no nos las proporciona la naturaleza en forma de flujo ni de fluido, sino, literalmente hablando, en pequeños paquetes: los quanta. Para no dejar nada al azar, Planck se tomó el cuidado de cifrar con la mayor exactitud las dimensiones de esos paquetitos. En unidad C. G. S., se expresa con el número cuasi infinitesimal de 6,55 X 10-27. No podría irse más lejos, y ésa es, en efecto, la medida exacta de un simple grano de energía simbolizada por la letra h, o constante de Planck.

Los intercambios de energía entre materia e irradiación se hacen, pues, por quanta. La irradiación tiene una estructura discontinua, lo mismo que la emisión, sobre todo la emisión de la luz. Se recordará que apoyándose en la teoría de los quanta descubrió Einstein en 1905 el fotón o grano de luz. Esto produjo un gran escándalo ya que venía a derribar los cálculos de los hombres de ciencia. Si la luz era una emisión de fotones y la electricidad una emisión de electrones, ¿cómo explicar la continuidad que es la ley de las ondas? La dificultad la resolvió en 1924 otro gran genio científico, Louis de Broglie, nacido en 1892 y Premio Nobel de física en 1929.

Como ha dicho él mismo, lo esencial era encontrar un sujeto al verbo ondular. Louis de Broglie pensó que ese sujeto tenía que ser el mismo electrón y no ese éter demasiado metafísico. «Si así fuera, dice el gran científico, habría que pensar que hay que imaginarse los corpúsculos materiales, especialmente el electrón, como acompañados, y en cierto sentido guiados, por una especie de onda». Esta solución de compromiso es la base de la nueva doctrina llamada ondulatoria. Desde ese momento ya no existe el escándalo. «Hoy sabemos que el protón y los núcleos de los átomos, en los que están concentradas las cargas positivas de la materia, están también asociados a ondas… por lo que la barrera que, desde hacía tanto tiempo, separaba la física de las radiaciones de la física de la materia parece haberse derrumbado ya.» Así lo que quiere esta nueva doctrina de una abstracción impresionante. Desde ese momento, la realidad física va a volatilizarse en un «esquema matemático», para servirnos de la expresión de Sommerfeld, y la ciencia, a medida que se va desarrollando, se alejará cada vez más del «antropomorfismo de la sensación».

En 1897, el gran físico inglés Joseph J. Thomson (1856-1940). cuando estaba perfeccionado el experimento de Lénard (1885) sobre los rayos catódicos, descubrió que estos extraños rayos podían ser deflectados por medio de un electroimán. Calculó su velocidad y encontró que era muy próxima a los 300.000 Km. por segundo; después, suponiendo que estaban compuestos de corpúsculos, trató de estimar la masa y la carga de éstos. Pudo establecer que la relación de la carga a la masa de la partícula era una constante independiente a la vez de la naturaleza del gas contenido en la ampolla y del metal de los electrodos. «No veo, dice, forma alguna de escapar a la conclusión de que se trata de cargas de electricidad negativa transportadas por partículas de materia.»

Desde entonces pasó a ser de dominio público el término electrón. En 1909, Robert Millikan, profesor entonces de la Universidad de Chicago, acometió la tarea de demostrar experimentalmente la existencia y la naturaleza de la partícula. El dispositivo que inventó era de una genial sencillez: consistía en una cámara de niebla en la que unas gotitas de aceite en suspensión subían o bajaban según que obedeciesen a la simple gravedad o al impulso de un campo magnético variable. Un excelente aparato óptico permitía observarlas cómodamente. De cuando en cuando, una gotita cambiaba brutalmente de velocidad. ¿No sería porque había capturado un electrón? En este supuesto, como se conocía la masa de la gotita y la intensidad del voltaje, resultaba teóricamente posible deducir la carga del electrón y también su masa. Pero el electrón es tan pequeño que la gotita cargada con veintidós partículas se comportaba exactamente como si sólo estuviese cargada de una. Expresada en culombios, la carga de un electrón implica dieciocho ceros antes de la coma.

En cuanto a la masa, necesita veintisiete ceros antes del primer decimal. Puede suponer-se los esfuerzos que tuvo que hacer el ingeniero físico para llegar a esos resultados, pero de todas maneras, el electrón no era un mito, aun cuando, según la expresión del mismo Millikan, el radio de un cabello comparado con el de mi electrón sea aproximadamente diez mil millones de veces más grande.

El descubrimiento del protón no se realizó oficialmente hasta 1920, pero hacía ya mucho tiempo que rondaba la mente de los científicos. En 1886, el físico alemán Goldstein colocó en el centro  de un tubo de Crookes un ánodo constituido por un enrejado muy fino y no sólo pudo observar la aparición de rayos catódicos, sino también la de una radiación de un amarillo dorado claro que «penetrando el enrejado, llenaba todo el espacio entre el cátodo y la pared.«.

Esta radiación no era otra cosa que una emisión de protones, partículas nucleares cuyo peso es igual al de 1.840 electrones. La irradiación de Goldstein contenía núcleos de nitrógeno puro. Si el gas rarificado de su tubo hubiera sido de hidrógeno, su color hubiese sido rosa, verdoso o grisáceo si hubiese sido de óxido de carbono. En realidad, Goldstein no había hecho más que ionizar el gas de su ampolla, es decir descomponer los átomos de este gas en electrones (rayos catódicos) y en protones (rayos canales).

En 1910 volvió J. J. Thomson a hacer la experiencia y terminó por proyectar los misteriosos rayos canales sobre una pantalla fluorescente en la que producían unas escintilaciones del mismo tipo que las de los electrones.

Con ayuda de un electroimán, el experimentador podía deflectar la irradiación y reunir en una misma parábola las partículas del mismo peso atómico. Entonces se produjo la gran sorpresa. Thomson había utilizado el neón y descubrió que de su cátodo abierto se desprendía una doble radiación positiva. «No cabe duda de que lo que llamamos neón no es un gas simple, sino la mezcla de dos gases, uno de los cuales tiene un peso atómico 20 y el otro un peso atómico 22.» Sin darse cuenta, Thomson acababa de descubrir los isótopos que en 1920 separó entre sí su colaborador Aston con ayuda de su espectrógrafo de masa.

Entre tanto, el estudio de la radiactividad natural iba a llevar a los científicos a realizar una hazaña con la que habían soñado los alquimistas de la Edad Media. En 1903 habían demostrado sir Frederik Soddy y sir William Ramsay que la radiactividad del radio iba acompañada de un desprendimento de helio. En 1907, Rutherford pudo establecer definitivamente la identidad de la partícula alpha con el átomo de helio ionizado, es decir, privado de sus dos electrones satélites, o dicho de otra manera del helio.

En 1919, Rutherford concibió la excelente idea de bombardear átomos de nitrógeno con ayuda de helios que circulaban a gran velocidad y emitidos en forma de rayos alpha por una sustancia muy radiactiva. Observó que de esta forma el nitrógeno se transformaba en oxígeno. Por primera vez, se había roto un átomo y sus elementos constitutivos habían engendrado otro cuerpo simple. ¡La transmutación no era ya un sueño de alquimista! Rutherford había salido airoso donde Bacon y Paracelso habían fracasado.

En 1913 emprendió Niels Bohr (1885-1962) la tarea de cuantificar el átomo. Adoptando el modelo de Ernest Rutherford y Jean Perrin, en otros términos, conservando las órbitas keplerianas circulares como trayecto ideal de los electrones, se dedicó a establecer un valor matemáticamente riguroso de todos los estados posibles de estas partículas ínfimas. Demostró sobre todo que pasando de un estado estacionario n1 a otro estado estacionario n2, el electrón emite un quantum de energía. Acababa de desvelarse el misterio de la electricidad. La experiencia no tardó en confirmar la exactitud de esta aplicación genial de las teorías de Planck. Pero como las órbitas circulares de los electrones presentaban serios inconvenientes, Sommerfeld reanudó en 1916 el trabajo de Bohr dando una forma elíptica a estas órbitas y utilizando los principios de la relatividad para tratar del movimiento de los electrones sobre sí mismos.

Dejemos ya el terreno de la pura teoría para volver a la desintegración del átomo. El principio según el cual se da cierta disipación de masa en algunos bombardeos atómicos, y esto en las condiciones previstas por Niels Bohr y Sommerfeld, iba a conducir a los científicos hacia una pista al mismo tiempo gloriosa y peligrosa. Hacia 1930 se advirtió que cuando se efectuaba una transmutación se liberaba una gran cantidad de energía. En efecto, los núcleos de los elementos formados tienen una masa menor que la de los elementos constitutivos.

Por tanto, hay algo que se disipa durante el proceso. Y si la pérdida de masa equivale al aniquilamiento de un solo gramo de materia, la energía liberada es igual a una cantidad de calor suficiente para hacer hervir instantáneamente 200 millones de litros de agua. En cierto sentido , no había en ello nada de nuevo, ya que no era más que la aplicación de la célebre fórmula de Einstein E = mc2.

Todavía faltaba por encontrar el proyectil que pudiera producir desintegraciones eficaces. Los alemanes Bothe y Becker y los franceses Frederic Joliot e Irene Joliot-Curie estudiaron la desviación sufrida por los rayos alpha cuando atraviesan delgadas capas de materia, y se observó que las partículas alpha que bombardean un metal ligero pero resistente, el berilio, originaban una irradiación paradójica, capaz de romper las más fuerte barreras de potencial y «de moverse libremente a través de la materia», como había predicho Rutherford en 1920. Entonces fue cuando James Chadwick pudo precisar en 1932 que esta irradiación debía estar constituida por partículas neutras de masa próxima a la del protón. Estaba descubierto el neutrón, la bomba atómica y la energía nuclear vendrían más tarde.

Entre tanto se había inaugurado la era de los desintegradores de átomos. Pretender alcanzar los núcleos atómicos con corpúsculos alpha, como lo habían hecho el matrimonio Curie y James Chadwick, equivalía a «disparar con carabina sobre cabezas de alfiler sembradas de 10 en 10 metros». Por supuesto que podían reemplazarse estos corpúsculos alpha por protones, pero, ¿cómo imprimir a éstos una velocidad suficiente? Desde 1931 había en la Universidad de Princeton un generador electrostático inventado por Robert van de Graaff y cuyo principio no difiere sensiblemente del de la máquina deWimshurst.

La aceleración de los protones se produce con ayuda de un transformador de alta tensión, situado en la base del aparato y que alimenta un peine que deposita sobre una correa que desfila bajo sus dientes cargas eléctricas que, transportadas hacia la parte superior del aparato, son recogidas por un peine colector. De esta forma se crea entre la base y la parte superior del dispositivo una diferencia de potencial de 80.000 V. en el primer modelo y llegó a 6 millones de voltios en las bombas del gigante instalado en Round Hill algunos años más tarde.

Ya en 1930, Ernest Orlando Lawrence había realizado otro aparato que habría de destronar poco a poco a los grandes aceleradores lineales: el ciclotrón. El principio es bastante simple: en el centro de un recipiente cilíndrico en el que unas bombas producen un vacío lo más perfecto posible se inyectan partículas atómicas bajo débil energía. Se coloca entre los polos de un electroimán, lo que engendra en su interior un campo magnético intenso.

Las partículas comienzan a girar en círculo, aceleradas a cada vuelta por los electrodos elevados a potenciales de muy alta frecuencia. Atraídas de un electrodo a otro, las partículas describen así una espiral a una velocidad creciente. Finalmente son desviadas hacia un blanco que contiene la sustancia que ha de ser bombardeada y desintegrada: berilio por ejemplo. Nuestros ciclotrones actuales permiten acelerar partículas a velocidades próximas a la de la luz y disponen así de energías suficientes para romper cualquier núcleo de átomo.

En 1932 no podía pensarse aún en estos esplendores. John D. Cockcroft y E. T. S. Walton, en el laboratorio Cavendish, tuvieron que contentarse con un duplicador de voltaje de 150.000 V. A fuerza de ingeniosidad consiguieron obtener 700.000 V. y terminaron por desintegrar núcleos de litio en dos helios, utilizando como proyectiles protones acelerados.

Gracias a la cámara de niebla inventada por C. R. F. Wilson entre 1899 y 1912, las partículas resultantes de la desintegración del litio pudieron ser localizadas por los experimentadores. Todos los manuales de física han reproducido el cliché de la desintegración del litio por Cockcroft y Walton. Todavía hoy nos impresiona este auténtico documento histórico.

El neutrón fue identificado en 1932 por Chadwick. lo que algunos años después permitiría la fisión nuclear. Había nacido un nuevo modelo de átomo. Todo núcleo aparecía como constituido de nucleones, es decir, de partículas positivas: los protones, y de partículas neutras: los neutrones. En torno a este agregado increíblemente denso de nucleones gravitan los electrones satélites cuyas cargas negativas, al menos en un átomo en equilibrio, equivalen rigurosamente a la suma de las cargas positivas de los protones. Sucesivamente, el núcleo del átomo se iría enriqueciendo con partículas ligeras: mesones, neutrinos, etc., sin hablar de las partículas de antimateria de que se hablará más adelante.

Volviendo a la fisión nuclear, el proyectil ideal resultaría ser el neutrón y el blanco elegido el uranio. El 14 de abril de 1934, Enrice Fermi descubrió que los neutrones ralentizados en la parafina provocan otras desintegraciones en el interior de otros átomos. Para llegar a la desintegración en cadena había que frenar la velocidad de los neutrones, transformarlos en neutrones térmicos. Esa es la misión del grafito y del agua pesada; pero no adelantemos los acontecimientos. El 15 de enero de 1934, los esposos Joliot-Curie provocaron la estupefacción de la Academia de Ciencias anunciando que acababan de descubrir la radiactividad artificial. Gradualmente se iban dando los pasos hacia la comprobación de que es posible introducir neutrones suplementarios en el interior de los núcleos y hacer fuertemente radiactivo un inocente fragmento de fósforo, de carbono o de cobalto. Habían nacido los radioisótopos y todo el mundo sabe lo mucho que se los utiliza en medicina y en industria.

No era eso sólo. En 1939 estalló una verdadera bomba en el mundo de la ciencia: Otto Hahn, Lisa Meitner, Strassmann y Frisch habían descubierto que el núcleo del uranio convenientemente bombardeado con neutrones se-rompe en dos liberando una energía de 100 millones de voltios. En su comunicación a la revista británica Nature del día 16 de enero, Lisa Meitner explicaba que, al igual que la gota de agua que ha ido creciendo, el núcleo de uranio no podía ya resistir y… explotaba.

Lo que ha sucedido después es ya del dominio público. No hablaremos de la batalla del agua pesada ni de la angustiosa rivalidad que enfrentó durante cinco años a los Aliados y al III Reich. Recordemos simplemente que a comienzos de 1940, el ingeniero Nier separaba, en la Universidad de Minnesota, del uranio-238 su precioso isótopo, el uranio-235; por supuesto que a una escala infinitesimal. Y que en 1941, el ilustre Fermi, premio Nobel de 1938, se instalaba en Chicago en donde montaba su primera pila atómica, que comenzó a «diverger» el 2 de diciembre de 1942, produciendo por primera vez dos elementos transuranianos: el neptunio y el plutonio, que ya en 1940 habían descubierto McMillan y Seaborg.

Recordemos también el famoso Manhattan Project, la primera explosión atómica del 16 de julio de 1945 en Alamogordo, y finalmente, las hecatombes nucleares de Hiroshima y Nagasaki, los días 6 y 9 do agosto de 1945. Como instrumento de muerte repentina, la bomba A era ya aceptablemente eficaz, pero más lo seria la bomba H «encendiendo sobre la tierra el fuego del sol y de las estrellas».

He aquí algunas explicaciones. Ya en 1934, algunos científicos habían reconocido el principio de la fusión del hidrógeno en helio, como fuente posible de energía. Una simple sustracción bastaba para demostrar que la reacción: 2/H + 2/H = 4/2 He  era «viable». En efecto, dos núcleos de hidrógeno pesado dan en conjunto 4,02516 unidades de masa mientras que el núcleo de helio que resultará de su «fusión» no tiene más que 4,00390. Hay, pues, un excedente de materia; 0,02126 unidad de masa y este excedente se traduce en una liberación de energía correspondiente a 500.000 KW/h. por cada molécula-gramo de helio.

Como esta reacción parecía más bien del dominio de un porvenir muy lejano, nadie habla de ella antes de 1950, excepción hecha del físico Vienes Hans Thirring, quien en 1946 la consagró un estudio bastante notable. En noviembre de 1952, el mundo quedó aterrado al saber que una bomba termonuclear de al menos 7 megatones había estallado en Eniwetok, haciendo desaparecer una isla de la superficie del mar y cavando en su lugar un embudo de 2 Km. de diámetro y 60 m. de profundidad. Después vino la demostración del 1 de marzo de 1954, en la que cinco pescadores japoneses fueron contaminados por la caída del polvo radiactivo (lluvia radiactiva). ¿Esta «Kraftprobe» tuvo el mérito de poner a científicos e ingenieros sobre la pista de un tipo de reactor más rentable que los de uranio que surgen por todas partes propulsando incluso submarinos y rompehielos atómicos? Sólo el futuro nos lo dirá.

La mayor dificultad que hay que vencer es la obtención de una temperatura llamada de fusión del orden de varios centenares de millones de grados; una proeza que es realizable durante una fracción de segundo, por medio de una prebomba de uranio, pero de la que todavía no son capaces ni la ingeniosa Zeta británica ni el extraordinario Slellarator americano.

Sin embargo, los métodos de «striction» y de «confinamiento» de un plasma que consiguen ya de 2 a 3 millones de grados no han dicho su última palabra, aun cuando los progresos hayan sido muy lentos desde 1958.

Volviendo ahora a la física pura, la encontraremos esencialmente ocupada en explorar este mundo extraño que es el núcleo del átomo y esa verdadera fantasmagoría que es la materialización de la energía. ¿Cómo explicar la paradójica densidad del «nucleus» y de las fuerzas que dan cohesión a los nucleones? Nada permite pensar que sean de naturaleza eléctrica.

Cuando en 1935 emitió el físico japonés Yukawa la hipótesis de un intercambio de mesones entre los protones y los neutrones de un núcleo, se vio obligado a admitir que estas partículas debían tener una masa 200 veces mayor que el electrón, pero que su «vida» era muy breve, de apenas una millonésima de segundo.

En mayo de 1937, el estudio de los rayos cósmicos en la cámara de Wilson revelaba la existencia de dos mesones, el segundo de los cuales asegura la cohesión de los nucleones entre sí, mientras que el primero parece escaparse por la banda dando nacimiento a un electrón. Diez años más tarde, durante el invierno 1947-1948, el gran sincrociclotrón de la Universidad de Berkeley consiguió producir mesones ir cuya trayectoria terminaba, sobre la placa fotográfica, en una soberbia estrella, prueba de que el mesón había encontrado un núcleo y que lo había hecho estallar.

¿Qué había sucedido? Entonces surgió la pregunta de si no se habría producido algo más y de si la violencia de la explosión no supondría la presencia de una de esas antipartículas que, por simples deducciones matemáticas, había previsto el físico inglés Pirac en una nota dirigida a la Sociedad Real de Londres con fecha 6 de diciembre de 1929.

La ecuación era tentadora. Podría representársela así:

en la que ¶ es un mesón pesado o, como se dice técnicamente, un hiperón, N un nucleón cualquiera, p un protón normal, es decir positivo, y p´ un protón negativo o antiprotón. Por supuesto que el par p y p´ no podían subsistir juntos sino que se aniquilaban recíprocamente.

En 1935 hubo quien pensó que el intermedio del mesón ¶ no hacía más que complicar las cosas y que, si se dispusiera de unos seis mil millones de electrones-voltios, quizá se pudiera crear directamente un «par» conforme a la fórmula siguiente:

Esta fórmula fue realizada en el laboratorio de Berkeley el 24 de octubre de 1955.

En el estudio de la radiación cósmica, fue una primera figura mundial el meteorólogo español A. Duperier, quien descubrió el «efecto positivo» de la radiación y contribuyó con una de las más importantes aportaciones al campo de la física en los últimos años con el cálculo de los fenómenos de interacción entre las partículas dotadas de altísima energía, y sus trayectorias, que expuso en el Congreso Internacional de Edimburgo de 1958. El descubrimiento del antineutrón, aunque erizado de dificultades, pudo realizarse en una fecha difícil de determinar.

En cuanto al electrón positivo o antielectrón, había sido descubierto antes de la segunda guerra mundial, ya que la obtención de un par (e y é) no exigió más que una energía relativamente baja, del orden de 1.0 millón de electrón-voltios aproximadamente.

El neutrino y el antineutrino han venido a completar la serie de los leptones o partículas ligeras. Atisbado unos veinticinco años antes por el físico Pauli, el neutrino no fue descubierto hasta 1958 gracias a los escintiladores instalados en Savannah River.

¿El neutrino es la partícula que, en el campo gravitatorio, corresponde al electrón en el campo electromagnético? Quien viva lo verá. Entre tanto, los físicos trabajan a contra reloj para descifrar los secretos de la materia y de la antimateria. Enormes aparatos han entrado en funcionamiento, especialmente el gran sincrotrón de protones del CERN (Centro Europeo de Investigaciones Nucleares). En 1961. este instituto procedió a millares de experimentos y tomó millón y medio de clichés que están actualmente en proceso de análisis.

Parece que se trata sobre todo de estudiar las interacciones de altas energías que implican las diversas especies de mesones, ya que ahí es donde en definitiva reside el secreto del átomo y del antiátomo. ¿Hacia dónde se encamina la física? El eminente científico francés Leprince-Ringuet confiesa que no sabe nada al respecto. «Os diré únicamente, declaraba, que estamos trabajando pero sin saber exactamente lo que vamos a hacer y, en el fondo, eso es lo agradable.»

Naturaleza de la Materia                                   Concepto Descriptivo Sobre la Conservación de la Energía

Historia de la Energia Nuclear Resumen del Descubrimento

https://historiaybiografias.com/linea_divisoria5.jpg

Historia de la Energía Nuclear
Descubrimiento Energía Atómica

Temas Tratados:

1-La Explotación Nuclear
2-Historia de la Energia Nuclear
3-Científicios Que Estudiaron El Atomo
4-Descripcion del Atomo Elemental
5-Accidentes Por La Manipulacion de Energia Nuclear
6-Enlaces a Temas Relacionados
7-Usos de la Energia Nuclear

https://historiaybiografias.com/linea_divisoria5.jpg

La explotación de la energía nuclear fue la culminación de varios avances en el conocimiento del átomo.

Hay dos formas posibles de extraer energía de los núcleos atómicos: la fisión (división de núcleo) y la fusión (unión de núcleos atómicos). Si se logra controlar, esta última ofrece la posibilidad de obtener energía limpia e ilimitada, pero hasta hoy sólo la fisión ha servido para producir energía.

Los principios de la fisión nuclear se estudiaron en la década de 1930 y se ensayaron durante la Segunda Guerra Mundial.

Las bombas de Hiroshima y Nagasaki dependían de una reacción en cadena de fisión incontrolada, fenómeno identificado por primera vez en 1933 por el húngaro Leo Szilard.

El principio era sencillo: en una muestra bastante densa de material (masa crítica), los neutrones de alta energía que escapan debido a una desintegración nuclear provocan otra, que libera nuevos neutrones de alta energía, y así sucesivamente, en una desintegración instantánea de todo el material que provoca una deflagración descomunal.

fision nuclear

La fisión nuclear controlada requiere núcleos de combustible radiactivo enriquecido, moderados normalmente por otro material, como agua o grafito, que ralentiza el movimiento de los «neutrones rápidos» liberados y aumenta la probabilidad de que interactúen con otros átomos y sostengan la reacción en cadena. Unas barras moderadoras de materiales que absorben neutrones se insertan o retiran para modificar el flujo de neutrones y la velocidad de la reacción. Las centrales nucleares se diseñan de forma que la reacción se detenga automáticamente en caso de fallo catastrófico. La energía se suele extraer permitiendo que la reacción caliente agua en la pila del reactor.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

Historia de la Energía Nuclear

Cuando el hombre primitivo, frotando entre sí dos trozos de madera seca, obtuvo por primera vez pequeñas y amarillentas llamas, hizo el gran descubrimiento que habría de gravitar por los siglos de los siglos en la historia de la humanidad.

Instintivamente realizó la primera liberación de energía: la energía química acumulada por el Sol en forma de luz y calor, y echó las bases de la civilización.

Desde entonces, el progreso del hombre ha dependido de su habilidad para desentrañar y superar los secretos de la naturaleza. Pero el hombre jamás se declara satisfecho de sus conquistas.

Lo desconocido constituye en todo momento para él un desafío permanente que le apasiona y estimula.

Una ambición suya hondamente sentida fue y sigue siendo descifrar la incógnita de lo misterioso. Y nada más misterioso que la materia.

Los filósofos de la antigüedad forjaron sobre ésta definiciones diferentes.

Demócrito de Abdera (470-380 a. de J.C.) afirmó que se componía de «átomos», partículas diminutas, inalterables e indivisibles, y Dalton (1802), fundador de la teoría atómica, sostuvo muchos siglos después lo mismo.

A partir de entonces, el átomo se convirtió en la atracción de una legión de investigadores, pero fue Rutherford quien, en 1911, reveló su enigmática arquitectura.

La materia se compone de moléculas cuyo diámetro es de dos diezmillonésimas de milímetro, y átomos tan increíblemente pequeños que diez millones de ellos podrían colocarse en fila dentro del punto con que termina esta oración.

Durante muchos siglos se creyó que el átomo era el constituyente último e indivisible de la materia; mas ahora se sabe que semeja a un sistema solar ultraminúsculo y que se compone de un núcleo, correspondiente al Sol, y de electrones que giran alrededor del núcleo como planetas.

Este, que no es sólido o macizo ni uniforme, está formado por «protones», partículas cargadas de electricidad positiva; «electrones», partículas de electricidad negativa que giran como un torbellino en torno al protón, y «neutrones» que carecen de carga eléctrica.

Hay tantos átomos en una gota de agua que si todos los habitantes del mundo se pusieran a contarlos rápidamente y lo hicieran día y noche sin interrupción, necesitarían 10.000 años para terminar la cuenta.

Todos los átomos poseen una misma estructura general, misteriosamente conservada por ciertas fuerzas internas, pues los protones que están en el núcleo, cargados de electricidad positiva, deberían repelerse unos a otros violentamente, y no lo hacen.

Prueba de que existe alguna otra energía aún desconocida que los mantiene unidos, dando estabilidad al núcleo.

Los principios relacionados con la misma fueron intuidos por algunos estudiosos de la antigüedad, que contemplando ciertos fenómenos no supieron explicarlos de otra manera que por la acción de esas fuerzas misteriosas.

Se lanzaron algunos de ellos en su búsqueda pero, sin los elementos que la técnica incorporó siglos después a la acción de la ciencia, sólo lograron entrever lo que sería privilegio de los científicos modernos: El llegar a descubrir y luego darle aplicación.

CIENTIFICOS E INVESTIGADORES DE LA ENERGIA NUCLEAR: La historia de la energía nuclear consta de etapas, al frente de cada una de las cuales figuran, entre otros, estos nombres: Rutherford, los Curie, Becquerel, Soddy, Geiger, Moseley, Chadwick, Aston, Thomson, Bothe, Becker, Anderson, Blachett, Fermi, los Joliot-Curie, Urey, Murphy, Cockoroft, Walton, Lawrence, Kapitza, Otto Hahn, Lise Meitner, Frisen, Niels Bohr, Szilard, Tronstad, Wigner, Compton, Wheeler, Allison, Oppenheimer, Dunning, Smyth, Oliphant.

historia energia nuclear

Y como denominador común de tanto esfuerzo, Einstein, científico genial y buen matemático, cuya ecuación «E = mc2«, la más célebre ecuación científica (la energía es igual a la masa multiplicada por el cuadrado de la velocidad de la luz), revolucionó la concepción corriente sobre el universo y suministró algo más que la base teórica para la desintegración del átomo.

La nacionalidad de cada uno de esos hombres importa poco, pues la ciencia, para quien las fronteras no existen, es evolucionista y depende de la interasociación de las ideas.

La genealogía de los grandes descubrimientos científicos muestra que cada hombre de ciencia hereda un tanto de sus predecesores, al margen de la latitud geográfica en que naciera.

Fue a mediados del siglo XIII cuando aprendió el hombre a transformar la energía liberada de las reacciones químicas en energía mecánica de movimiento: inventó la pólvora.

Y resulta irónico que ello tuviera más bien propósitos destructivos que constructivos.

Hacia fines del siglo XVII descubrió la manera de aprovechar la energía de combustión para realizar trabajos mecánicos, transformando agua en vapor, y tuvieron que transcurrir otros des siglos antes de que supiera que la energía liberada de la combustión podía utilizarse directamente, sin los intermediarios de agua y vapor, encendiendo una mezcla de aire y combustible pulverizado, en los cilindres del motor conocido actualmente como de combustión interna.

Este último hallazgo trajo otros muchos tras de sí, el más importante de todos: la liberación de la energía nuclear energía casi inimaginable en la cual radica el secreto del calor solar. Lo indivisible fue dividido y lo imposible fue hecho realidad.

EL DESCUBRIMIENTO DE LA FISION NUCLEAR

1938:SE DESCUBRE LA FISIÓN NUCLEAR: A mediados de los anos treinta, físicos de Alemania, Francia e Italia competían por ser los primeros en conseguir romper un átomo.

El físico francés Frédéric Joliot-Curie había iniciado la carrera al declarar que «las reacciones nucleares en cadena» conducían a la «liberación de enormes cantidades de energía aprovechable».

En 1935 había sido galardonado con el Premio Nobel (junto con su mujer, Irene Joliot-Curie) por el descubrimiento de la radiactividad artificial.

En Berlín, un equipo de investigación compuesto por Otto Hahn, Fritz Strassmann y Lise Meitner empezó a bombardear átomos de uranio con neutrones. Los científicos esperaban que el proceso diera lugar a elementos radiactivos más pesados similares al uranio.

En vez de esto, a finales de 1938, Hahn y Strassmann (Meitner, judía austríaca, había huido a Suecia después de que Hitler invadiera Austria en marzo) se sorprendieron al descubrir que su bombardeo sobre el uranio había dado lugar a un elemento mucho más ligero que el uranio, llamado bario.

Hahn y Strassmann enviaron sus resultados a Meitner, a Estocolmo, donde ella y su sobrino, el físico Otto Frisen, investigaron el misterio.

Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o un pequeño grupo de partículas, como se suponía, desarrollaba una «cadena» y luego se rompía en dos fragmentos ligeros prácticamente iguales, cuyas masas, unidas, pesaban menos que el núcleo original del uranio. La diferencia de peso se convertía en energía.

Meitner dio el nombre de «fisión» al proceso. Joliot-Curie descubrió que la fisión del uranio producía la liberación de neutrones adicionales que, a su vez, podían ser utilizados para romper otros átomos de uranio.

Se habían establecido las condiciones para el tipo de reacción en cadena que daría lugar a la bomba atómica.

Durante la guerra, Hahn y Strassmann permanecieron en Alemania. Hahn fue capturado por los aliados en la primavera de 1945 y, mientras se hallaba detenido en Inglaterra, se enteró de que había ganado el Nobel de Química de 1944.

Cuando aceptó el premio, el sentimiento de que había realizado un gran descubrimiento científico estaba empañado a causa de que la fisión había hecho posible la destrucción de Hiroshima y Nagasaki.

Después de la guerra, Hahn defendió con gran pasión el control de las armas nucleares.

Es con la creación del mundo el acontecimierto más extraordinario, porque se descubrió la fórmula para perfeccionarlo o para destruirlo.

La liberación de la energía nuclear persigue cinco objetivos esenciales:

1) transmutar unos en otros casi todos los cuerpos simples, realizando así el sueño ce los alquimistas medievales;

2) dar a la medicina nuevas y poderosas armas para combatir las enfermedades más rebeldes;

3) suministrar nueves procedimientos de investigación que han conducido a grandes progreses en la fisiología de las plantas y animales, incluso del hombre;

4) crear muchas substancias nuevas y producir artificialmente casi todas las materias que se encuentran en la naturaleza;

5) utilizar la energía almacenada en el átomo para usos prácticos de la especie humana.

https://historiaybiografias.com/linea_divisoria5.jpg

Consecuencias nefasta: Desde los descubrimientos de Madame Curie hasta Einstein, pasando por Rutheford, Chadwick y toda una generación de investigadores que pusieron su ciencia, sin saberlo, al servicio de las manos ambiciosas y criminales de los gobiernos, no transcurrieron más de unas decenas de años. Poco tiempo después de la fabricación de la primera bomba atómica, los radionucleidos (nucleo inestable) se han esparcido por la Tierra de manera que buena parte de los organismos vivientes (entre los que nos encontramos los seres humanos) presentan en sus tejidos acumulaciones patológicas de sustancias radiactivas sin saberlo. ¿Cómo ha sido posible tal «hazaña»?, ¿es factible que en tan corto lapso de tiempo el hombre haya podido desperdigar por la faz de la tierra tanta radiactividad? Les conmino a que lean atentamente la siguiente crónica de una esperpéntica muerte anunciada.

https://historiaybiografias.com/linea_divisoria5.jpg

Descripción Física del Atomo: Los Cuatro Tipos de Fuerzas en la Naturaleza

Una de las fuerzas fundamentales del mundo natural es la fuerza gravitatoria. Es la fuerza de gran alcance que más importancia tiene en el campo del movimiento de los planetas y de los cuerpos celestes en general.

Cuando se investigan las partículas más pequeñas, adquieren importancia las otras fuerzas fundamentales: la fuerza electromagnética , la fuerza fuerte (que mantiene unido el núcleo atómico) y la fuerza débil (que tiene que ver con la desintegración nuclear).

La palabra átomo viene de la antigua palabra griega para definir una partícula de materia tan pequeña que ya no se puede dividir.

En su teoría atómica de 1803, el químico británico John Dalton (1766-1844) definió el átomo como la partícula más pequeña de un elemento que conserva sus propiedades químicas. Con esta hipótesis —que todavía es válida actualmente— se pudo explicar algunos fenómenos.

Sin embargo, hasta el descubrimiento del electrón en 1897, a manos del físico británico J.J. Thompson (1856-1940), no se disponía de una descripción física del átomo.

atomo pan dulce

El físico inglés Ernest Rutherford (1871-1937) propuso un modelo atómico nuclear en 1911.

atomo y sus orbitas

Se componía de un núcleo central denso y pequeño con carga positiva alrededor del cual orbitaban electrones cargados negativamente.

El núcleo contiene el 99,9 % de la masa atómica, aunque su diámetro es del orden de 10 elevado a -15 m., en relación al átomo, mucho más grande (aprox. 10 elevado -10 m).

El físico danés Nils Bohr (1885-1962) había sugerido que los electrones pueden moverse alrededor del núcleo en órbitas circulares o capas, pero que solamente eran posibles algunas órbitas.

capas de un atomo

Esta teoría pudo explicar muchas características del espectro de la luz que emiten los átomos de hidrógeno excitados. Las longitudes de onda de las líneas espectrales guardan una relación con los niveles de energía de las órbitas posibles.

La teoría ondulatoria del electrón explicaría la razón de ser de los orbitales posibles, cuya circunferencia sería un múltiplo de la longitud de onda de los electrones.

Cuando Rutherford demostró experimentalmente que un átomo se ha de componer de un núcleo pequeño rodeado de electrones, surgió un problema fundamental.

Para no hundirse en el núcleo, los electrones tendrían que moverse en órbitas, como Bohr había propuesto,… asi empezó la maravillosa carerra científica por entender la estructura y funcionamiento del átomo.

https://historiaybiografias.com/linea_divisoria5.jpg

PARA SABER MAS: LA ESTRUCTURA DEL ATOMO

Los primeros años del siglo XX presenciaron el nacimiento de la física nuclear, una nueva ciencia que tendría profundas consecuencias.

La estructura del átomo, con los electrones en torno a un diminuto núcleo central, quedó clara hacia 1911-1913, pero sólo gracias a la comprensión de la estructura del núcleo pudieron los científicos dominar la energía encerrada en el corazón del átomo.

El descubrimiento del núcleo reveló que la mayor parte de la masa del átomo y toda su carga positiva están concentradas en una pequeña región central.

En 1919, Ernest Rutherford había descubierto que los núcleos de varios elementos contenían partículas con carga positiva idénticas al núcleo de hidrógeno, el átomo más ligero.

Postuló entonces que estas partículas eran elementos constituyentes de todos los núcleos y les dio el nombre «protones». Trece años más tarde, la imagen quedó completa cuando el físico británico James Chadwick descubrió el neutrón, una partícula eléctricamente neutra, apenas más pesada que el protón.

Juntos, los protones y los neutrones constituyen los núcleos atómicos de todos los elementos (excepto del hidrógeno, cuyo núcleo se compone solamente de un protón).

Los científicos saben actualmente que están ligados por la denominada fuerte fuerza nuclear. En todos los átomos, el número de electrones (que determina las propiedades químicas del elemento) equilibra exactamente el número de protones del núcleo.

La función de los neutrones consiste en diluir la fuerza eléctrica repulsiva entre los protones, lo cual contribuye a la estabilidad del núcleo atómico.

En los núcleos más grandes, se requieren más neutrones para contrarrestar esta repulsión eléctrica; de esta forma, en los núcleos más pesados, el número de neutrones supera al de protones.

Sin embargo, sólo ciertas configuraciones de protones y neutrones resultan completamente estables. Otras producen núcleos inestables o, en otras palabras, radiactivos.

Estos núcleos se transforman en estructuras más estables mediante la emisión espontánea de radiaciones: partículas alfa (núcleos de helio), partículas beta (electrones) y rayos gamma (fotones muy energéticos).

En determinadas circunstancias, un núcleo grande, como el de uranio, se puede dividir en dos fragmentos más o menos iguales y unos cuantos neutrones, en un proceso denominado fisión.

La energía liberada en el curso de estas transmutaciones es millones de veces mayor que la que interviene en las reacciones químicas, debido a la fuerza de las uniones nucleares.

A fines de los años 30, tras descubrir el fenómeno de fisión en el uranio bombardeado con neutrones, los físicos advirtieron que podían provocar una reacción en cadena, consiguiendo que los neutrones liberados en una fisión provocaran otras, y así sucesivamente.

Controlada, esta reacción en cadena constituye una fuente de energía útil; si se descontrola, determina una explosión devastadora.

Los físicos advirtieron muy pronto los potenciales usos y abusos de esta fuente de energía nuclear. Sus sueños se han hecho realidad con la construcción de reactores que generan energía atómica para usos pacíficos; pero también se han hecho realidad sus más terribles pesadillas con la proliferación de armas atómicas.

Utilizando partículas alfa como «proyectiles», los físicos descubrieron que los núcleos contienen protones. En la ilustración, varias partículas alfa dejan su rastro en un detector denominado cámara de nubes, según una fotografía de Patrick Blackett, tomada en Cambridge en 1925. La partícula que está más a la derecha (compuesta por dos neutrones y dos protones) colisiona en el aire del detector con un núcleo de nitrógeno (siete neutrones y siete protones) y es capturada, El núcleo absorbe los dos neutrones y uno de los protones, convirtiéndose así en un núcleo de oxígeno-1718 protones y nueve neutrones), pero rechaza el protón restante. Este sigue su trayectoria, describiendo la ramificación más tenue de la izquierda, mientras que el núcleo de oxígeno avanza muy poco más, dejando un trazo breve y grueso.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

CRONOLOGÍA DE LOS ACCIDENTES POR MANIPULACIÓN Y EXPERIMENTOS

1897. Thomas Alva Edison trabaja en la investigación de los rayos X. Edison padece úlceras en ojos y piel.

1898. Los esposos Curie descubren el radio y el polonio.

1905. Los trabajadores que manipulan el radio presentan un nivel de espermatozoides inferior al normal.

1913. En Japón, el bar llamado «Marie Curie» invita a sus clientes a beber combinados de agua con radio.

1923. Tras avisar repetidamente del peligro de los rayos X, se hace pública la relación de un centenar de médicos y científicos que han muerto a causa de las radiaciones.

1934. Muere Madame Curie a causa de una leucemia.

1939. Tras las primeras escisiones del átomo del uranJo en el laboratorio, Albert Einstein envía una carta al presidente Roosvelt instándole en la necesidad de fabricar la bomba atómica.

1945. Estados Unidos lanza su primera bomba atómica con fines bélicos sobre Hiroshima.

1946. Estados Unidos lanza la segunda bomba atómica. Destino: Nagasaki.

1949. Estados Unidos (islas Marshall) y la Unión Soviética (Kazajstán) comienzan sus pruebas nucleares. Cerca de 8.000 curios de yodo 131 son vertidos a la atmósfera durante un experimento de fisión nuclear.

1950. Truman da la luz verde para la fabricación de la bomba H, a base de hidrógeno.

1954. Muere un miembro de la tripulación del barco de pesca japonés Dalgo Fukuryu Maru, expuesto a las radiaciones de la prueba de la bomba H en las islas Marshall.En el mes de marzo y en estas mismas islas, se produce la detonación de una bomba termonuclear de 15 megatones.

1957. A la vez que Gran Bretaña prueba su primera bomba H en la isla Christmas, un tanque de almacenamiento de residúos radiactivos explota en el centro de armas nucleares de los Urales (Unión Soviética). Once mil residentes son evacuados. El mismo año, un avión americano de transporte deja caer dos explosivos nucleares en el Atlántico que aún no han sido recuperados.

1958. Un bombardero B-47 sufre un accidente: la radiactividad se dispersa por la zona. Otro B-47 deja caer armas nucleares en Carolina del Sur: la población es controlada médicamente.Un reactor nuclear en Yugoslavia sufre un accidente: ocho empleados enferman. Cinco trabajadores mueren tras un fallo en el tratamiento de plutonio en el centro de investigación de Los Álamos.

1959. Un reactor atómico se pierde en medio del Atlántico. Años después se descubre que dicho reactor se deshizo en medio del océano.

1960. Francia comienza su carrera de pruebas atómicas con una explosión atmosférica en el Sahara.

1963. Un satélite de la Marina estadounidense sufre un accidente: el plutonio 90 penetra en la estratosfera y se disemina sobre doce países.

1964-1967. Más de diez accidentes nucleares en distintas partes del mundo siguen contaminando el aire y las aguas.

1969. Francia, que se había negado a firmar un tratado de interrupción de pruebas nucleares atmosféricas, lleva a cabo su primer experimento con bombas H en los atolones del Pacífico.Se produce un accidente en una fábrica de armas atómicas del norte de China y la radiactividad infesta la zona.

1970. En las cercanías del centro de pruebas atómicas de Nevada, aparecen enormes grietas en la tierra y un gran hongo nuclear se eleva alcanzando los 3 kilómetros de altura. Se evacúa urgentemente al personal, y 100 trabajadores sufren radiaciones.

1972. Un submarino nuclear soviético sufre una avería en su reactor al noroeste de Terranova. Se silencian las consecuencias.

1974. Se calcula en 1.600 millones de litros el material radiactivo vertido en el complejo nuclear de Hanford desde su apertura.

En este año, la India lleva a cabo su primera prueba nuclear subterránea. 1975. Un oficial de la KGB revela que soldados soviéticos son obligados a introducirse en la zona altamente contaminada del lago Baikal. Tres cuartas partes de estos soldados murieron a causa de las enfermedades contraídas.

1977. Se detecta una alta proporción de casos de leucemia entre los 170.000 soldados que participaron en las pruebas nucleares de Nevada. El Gobierno propone indemnizaciones. Un camión derrama cerca de 20 toneladas de polvo de uranio en una autopista de Colorado.

1978. El satélite Cosmos 954, portador de un reactor nuclear, se estrella en un lago de Canadá.Se descubre que un equipo atómico emplazado por la CIA en el Himalaya produjo una fuerte contaminación en el río Ganges. Los habitantes de Utah exigen daños y perjuicios al Gobierno estadounidense por las lesiones ocasionadas por la lluvia radiactiva procedente de Nevada.

1979. Un portaaviones nuclear derrama 50 litros de agua altamente radiactiva en la bahía de San Diego.Francia prosigue sus pruebas atómicas en Mururoa, donde causa al menos dos muertos y varios heridos. En julio del mismo año, seis trabajadores franceses en el atolón resultaron heridos a consecuencia de una ola gigantesca provocada por una explosión atómica subterránea. En agosto se produjo un vertido de plutonio sobre el arrecife.

1981. La planta nuclear de Tsuruga, en Japón, vierte de manera descontrolada residuos directamente al mar.En el atolón de Mururoa un ciclón arrasó un depósito de residuos radiactivos: más de 20 kilos de plutonio cayeron al mar.

1983. Se hunde un submarino atómico soviético cerca de la península de Kamchatka.

1985. Se derrama la carga de uranio transportada por un camión en las cercanías de Dakota.El Rainbow Warrior, buque ecologista de Greenpeace, es hundido por una bomba colocada por el servicio secreto francés. Muere un tripulante.

1986. Estalla el reactor n.° 4 de la planta nuclear de Chernobyl. La contaminación se extiende por toda Europa. En Suecia, al otro lado del mar Báltico, la radiactividad destruyó una gran parte del habitat de los lapones y causó graves daños a la zona de granjas lácteas del centro del país.

1987. Se revela que entre 1945 y 1947 dieciocho personas fueron inyectadas con plutonio directamente en la sangre.Se produce un escape radiactivo en Darmstadt, Alemania Occidental.

1988. Escape radiactivo en un reactor japonés. Se hunde un barco que transportaba material radiactivo al norte de Gales.

1989. En Kíev, a 40 kilómetros de Chernobyl, la radiactividad dispara las agujas de los detectores. En dicha ciudad se controlan periódicamente a más de medio millón de ciudadanos, realizando tratamientos similares a los seguidos en Hiroshima y Nagasaki.Se detectan anormalidades cromosómicas entre los habitantes de Ucrania. Se informa de al menos 250 muertos entre los empleados de la central de Chernobyl. Se incendia la central nuclear española de Vandellós I. Las autoridades guardan un celoso silencio sobre las con secuencias del accidente. A la vez, organismos internacio nales califican el suceso como «el más grave después de Chernobyl».

1990. Se demuestra la relación entre exposición a la radiactividad de los padres y leucemia en su descendencia.Un diario austríaco informa de 6.000 muertes por can cer de tiroides tras la catástrofe de Chernobyl.El Soviet Supremo estudia un plan para evacuar 200.000 personas de las zonas circundantes a Chernobyl.Unas 125.000 personas pudieron ser contaminadas en la explosión de la central nuclear de Kazajstán.En una conferencia internacional en Polonia, científico soviéticos reconocen que en el futuro miles de personas fallecerán por los efectos de las radiaciones vertidas al exterior en el desastre de Chernobyl.

1991. Se producen tres accidentes nucleares en Japón: Fukulk, Onagwa y Kashiwazaki.Escape en un silo de armamento nuclear en Dakota del Norte.
Se detectan tres fugas radiactivas en la central nuclear de Kozloduj, en Bulgaria.Greenpeace denuncia la existencia de vertidos nucleares en el océano GlaciarÁrtico. Accidente en el acelerador nuclear del Hospital Clínico de Zaragoza. Dieciocho personas reciben radiaciones.

1992. La antigua Unión Soviética vierte residuos radiactivos en el mar de Kara. Accidente en la central nuclear de Sosnovi Bor, cerca de San Petersburgo. Suecia registra los efectos de la fuga radiactiva. Escapes nucleares en las centrales de Kozloduj (Bulgaria) e Ignalina (Lituania).Se encuentra polvo radiactivo procedente de Chernobyl en una perforación del casquete glaciar en Groenlandia.Los efectos mutagénicos del cataclismo de Chernobyl causan una intoxicación aguda a más de 1.000 personas en Rusia y Ucrania, tras ingerir unas plantas afectadas. 1993 en adelante. Francia continúa su campaña de pruebas nucleares en el atolón de Mururoa.

El comandante Cousteau y su tripulación fueron testigos de dichas pruebas nucleares, tras las que se sumergieron a una profundidad de 200 metros: el coral estaba agrietado y a través de estas fisuras se detectaron fugas radiactivas. Nadie osa permanecer dentro del agua más de cinco minutos en las playas de Mururoa si no quiere lucir unas erupciones rojas en la piel que permanecen durante días y causan unos grandes picores. Prosiguen los vertidos radiactivos. Los contenedores de material nuclear no parecen cumplir las condiciones mínimas de seguridad.

1997. Después de más de 200 pruebas atómicas, Francia expresa su intención de abandonar dichas prácticas.Se detecta aún un alto nivel de radiactividad en un amplio radio alrededor de la central nuclear de Chernobyl. El comandante Cousteau muere. 

——– 0000 ——–

Rayos CatódicosRayos X
Einstein: E=mc²Radiactividad II
Radioactividad IFermi: Pila Atómica
Polonio y RadioBomba Hiroshima

https://historiaybiografias.com/linea_divisoria5.jpg

Ver Tambien: Composicion del Atomo, Electrones, Protones y Neutrones