La Gran Ciencia

Biografía de TESLA Nikola Resumida Historia de Vida del Inventor

Resumen de la Biografía e Historia de TESLA NIKOLA

VIDA DEL INVENTOR – CIENTÍFICO: Nikola Tesla (1856-1943) En la pequeña ciudad de Smiljan en la provincia servia de Lika, llamada entonces Croacia (Yugoslavia), tuvo lugar un hecho aparentemente sin importancia —la muerte de un caniche francés—, pero éste fue un hecho que desencadenaría una serie de acontecimientos relacionados con el futuro del Mundo.

Nikola Tesla tenía cinco años de edad cuando encontró el pequeño caniche negro de su hermano Dane muerto bajo un matorral al lado de la carretera. Su hermano acusó a Nikki de la muerte del perro. Poco después encontraron a Dane inconsciente al pie de la escalera de piedra del sótano.

Dane murió a consecuencia de sus heridas, y hasta el fin de sus días Nikki Tesla creyó que sus padres le consideraban causante del empujón que hizo caer a su hermano. Al cabo de poco tiempo, Nikki oyó que su madre, cansada de batir huevos, se quejaba de dolor de muñeca. Deseoso de congraciarse, Nikki se puso inmediatamente en acción con la idea de aprovechar la fuerza de un cercano riachuelo de montaña para hacer girar el batidor. «Voy a capturar la fuerza del agua» anunció Nikki confidencialmente.

Cuando su padre dijo inadvertidamente que Dane era diferente de Nikki, porque «Dane era un genio», Nikki se propuso demostrar que él también lo era. Decidió en aquel momento que inventaría algo que asombraría al mundo. Nikki emprendió experimentos para aprovechar la fuerza del agua, pero a los nueve años abandonó de momento su trabajo para dedicarse al estudio de la fuerza del viento.

Deseaba desesperadamente inventar algo que impresionara a los mayores, especialmente a sus padres. Cuando tenía 10 años, Nikki ingresó en el Gimnasio real de Gospic, una institución con cursos de cuatro años equivalente a la escuela secundaria. Le gustaban especialmente las matemáticas y cuando demostró por primera vez sus dotes en la utilización de fórmulas y la solución de ecuaciones, incluso sus profesores se asombraron.

Fue acusado de «copiar» y tuvo que pasar un «juicio» escolar ante sus padres y profesores. A pesar de la atmósfera de desconfianza y hostilidad pasó el examen fácilmente, pero con una sensación de desgracia y confusión. La infancia de Tesla estuvo llena de ideas excéntricas y experimentos con aparatos; continuó su formación en el Instituto politécnico de Graz, donde se especializó en física y matemáticas. Finalizó sus estudios en la Universidad de Praga, en 1880. Un año después, inventó un amplificador para teléfono que ampliaba el sonido de la voz reduciendo al mismo tiempo los ruidos molestos, es decir, la estática.

El aparato completo, su primer invento, que no patentó nunca, fue llamado «repetidor telefónico». Hoy en día lo llamaríais altavoz. En un año, Tesla empezó a desarrollar la teoría de la corriente alterna. Tesla explicó a su ayudante: “Voy a producir un campo de fuerza que gire a gran velocidad. Rodeará y abrazará una armadura que no precisará conexiones eléctricas. El campo rotatorio transferirá su energía, sin cables, a través del espacio dando energía a través de sus líneas de fuerza a las bobinas cortocircuitadas de la armadura que formará su propio campo magnético siguiendo el remolino magnético rotatorio producido por las bobinas del campo. No habrá necesidad de cables, ni de conexiones defectuosas, ni de conmutador”.

Tesla fue a Budapest y luego a París para encontrar un patrocinador de su sistema de energía de corriente alterna. Trabajó una temporada con la compañía Continental Edison, de París. Le aconsejaron que buscara un empleo en la Compañía Edison de Nueva York, y Tesla, cuatro años después de haber obtenido su título en la Universidad de Praga, partió de París para América.

Tesla dijo a Thomas Edison que había perfeccionado —por lo menos en teoría— un sistema de energía de corriente alterna. Edison trató con desdén las ideas de Tesla y le dijo que «jugar con corrientes alternas era perder el tiempo. Nadie va a utilizarlas jamás, es demasiado peligroso. Un cable de corriente alterna a alto voltaje puede matar a una persona con la misma rapidez que un rayo. La corriente continua es segura». Pero Edison contrató a Tesla y el joven europeo hizo exactamente lo mismo que hacía en la Continental Edison de París: presentó un plan que permitiría ahorrar muchos miles de dólares, tanto en la construcción como en el uso de las dínamos y motores de Edison. Trabajaba desde las diez de la mañana hasta las cinco de la mañana siguiente, siete días a la semana. Pero Tesla dejó pronto a Edison y tras uno cuantos empleos misceláneos, encontró a gente dispuesta a invertir en su persona; de este modo se formó la Compañía eléctrica Tesla La labor de Tesla para desarrollar la corriente alterna en sus aplicaciones prácticas empezó en serio, y logró su objetivo.

Todos los elementos complicados y de difícil ejecución de la Feria mundial de Chicago de 1893, iban alimentados con la corriente alterna de los motores y dínamos Westinghouse, inventados por Tesla. Sus equipos se utilizaron después en las instalaciones generadoras de las cataratas  del Niágara. Tesla, instalado ahora en un laboratorio de Nueva York, dedicó todo su tiempo a investigar. El gran científico fue haciéndose más paranoico con la edad, una evolución que podía seguirse desde los traumas de su infancia.

Al informársele, en 1917, que seria invitado de honor en una cena ofrecida por el Instituto americano de Ingenieros eléctricos, donde recibiría la medalla Edison del Mérito, Tesla rechazó la invitación diciendo: «Cada vez que el Instituto concede una medalla Edison, la gloria va más a Edison que al homenajeado. Si tuviese dinero para gastar para estas tonterías, me lo gastaría gustosamente para que se concediera una medalla Tesla al señor Edison».

Le convencieron para que aceptara el honor, pero no se presentó en la cena. Sus amigos lo encontraron dando de comer a las palomas detrás de la Biblioteca pública de Nueva York. Tesla pasó los últimos años de su vida como un egoísta solitario e incomunicativo, absorbido en pensamientos y sentimientos que le separaban tanto del mundo como de las demás personas. No quería dar la mano por miedo a los microbios de los demás; las superficies redondas como las bolas de billar o los collares de perlas le asustaban; siguió teniendo celos de Edison y sólo quería a las palomas, que alimentaba diariamente.

Su gran talento se esfumaba intentando inventar rayos de la muerte y aparatos para fotografiar pensamientos en la retina del ojo. Tesla falleció en 1943 de un ataque al corazón. Las instituciones científicas del mundo conmemoraron el centenario de su nacimiento en 1956. Como un tributo final se dio el nombre de tesla a la unidad electromagnética de densidad de flujo en el sistema MKS.

RESUMEN DE SU VIDA:

Riesgos del Uso de Uranio en la Centrales Atomicas Ventajas Riesgos

Riesgos del Uso de Uranio en la Centrales Atómicas

DESCRIPCIÓN DEL PROCESO DE LIBERACIÓN DE ENERGÍA POR UN ÁTOMO:
La liberación de la energía nuclear:
En un trozo de uranio 235, un neutrón rompe Un núcleo y expulsa, por ejemplo, dos neutrones. Estos, al romper dos núcleos, producen en la segunda generación cuatro neutrones, los que a su vez liberan ocho neutrones en la tercera generación tras desintegrar cuatro núcleos. La cuarta generación origina dieciséis, la décima mil veinticuatro, la vigésima más de un millón, la trigésima mil millones. Así, cual un alud, el número de los proyectiles crece en progresión geométrica. Como una generación de neutrones sólo dura un pequeñísimo intervalo de tiempo —una fracción infinitesimal de un segundo— todos los núcleos (2,5 x 1024) presentes en un kilogramo de uranio estarían casi instantáneamente desintegrados.

El funcionamiento normal de las centrales nucleares esparce por todo el mundo un repugnante espectro de substancias letales que no podrán nunca ser contenidas de modo seguro y que el ambiente natural no puede absorber de modo seguro. Por fortuna, la energía nuclear es tan innecesaria como injustificada: podemos satisfacer las necesidades de electricidad del mundo sin una sola central nuclear de fisión, si atemperamos de modo razonable nuestra demandas de energía.

Las únicas centrales que existen actualmente utilizan la fisión. La fusión, una tecnología que podría revolucionar la vida sobre la Tierra si se logran superar a un coste competitivo las barreras científicas que lo impiden, no existirá, suponiendo que así sea, hasta finales de siglo.

La energía de la fisión se debe a la liberación de calor que se produce cuando los átomos de uranio, bombardeados por partícula» atómicas llamadas neutrones, absorben un neutrón y se dividen dando elementos más ligeros, como estroncio y yodo. La división de lo» átomos de uranio libera también otros neutrones que repiten el pro ceso, en una reacción en cadena.

Se crean también elementos mas pesados cuando algunos de los átomos de uranio 238 en lugar de dividirse se transforman en plutonio 239, absorbiendo un neutrón. Muchos de los elementos creados a consecuencia de la fisión son inestables, es decir, que pierden energía rápidamente emitiendo partícula», Estas emisiones, llamadas radioactividad, son peligrosas para lo» seres vivos porque pueden desorganizar los genes y los tejidos.

La energía de fisión tiene la característica única entre todos los sistemas de obtención de energía, de añadir a los niveles del fondo natural cantidades de radiación equivalente, lo que no hace ninguna otra tecnología. El calor liberado en la fisión, se utiliza para convertir agua en vapor, que una vez proyectado sobre las paletas de una turbina eléctrica crea electricidad por la rotación de una bobina dentro de un campo magnético.

Este proceso ha fascinado a los científicos, los ingenieros y burócratas, debido principalmente a un hecho asombroso: la fisión de unos 30 gramos de uranio libera la misma energía aproximadamente que la combustión de 100 toneladas de carbón. Muchas personas a la caza de esta milagrosa cornucopia de energía, han cernido los ojos a los problemas y consecuencias que la fisión trae para nuestro ambiente.

Los partidarios de la fisión nuclear aseguran que es asegura, barata y limpia con respecto al medio ambiente», y que sus riesgos son aceptables. Mantienen que la fisión es una tecnología probada, disponible, y «en producción», mientras que otras energías de recambio no producirán energía con la rapidez necesaria para satisfacer nuestras necesidades.

La Energía Nuclear aporta un 33% de la energía consumida en Europa, de manera limpia, sin emisiones de gases de efecto invernadero y causantes de la lluvia ácida y sin perjudicar la capa de ozono. Además las centrales nucleares producen cantidades muy pequeñas de residuos sólidos en proporción a las grandes cantidades de electricidad que producen y el efecto de las emisiones líquidas y gaseosas en el medio ambiente es inapreciable. Otro problema distinto, es donde almacenar los residuos que se producen, residuos con vidas media muy largas.

Por otro lado la Energía Nuclear no está sujeta a cambios en las condiciones climáticas, sino que las centrales nucleares operan 24 horas al día durante los 365 días del año, lo que supone una gran garantía de suministro. Además no sufre fluctuaciones imprevisibles en los costes y no depende de suministros del extranjero, lo que produce precios estables a medio y largo plazo.

Los que defienden energías de recambio están en total desacuerdo y aseguran que si se dispusiera de sólo una pequeña fracción de los fondos dedicados actualmente a la fisión nuclear, se podrían crear en unos pocos años industrias energéticas de recambio seguras, industrias que proporcionarían tanta energía como la que se obtiene de la fisión. Señalan especialmente que el desarrollo de «energías menos duras» ha sido perjudicado por la enorme sangría de recursos que la fisión nuclear ha impuesto a los fondos de investigación energética de los EE.UU.

Los problemas más serios de la fisión se deben a que una sola central nuclear de fisión de gran tamaño produce tanta radioactividad de vida prolongada como la explosión de 1.000 bombas atómicas de Hiroshima. Y se cree que la exposición de las personas a la radiación aumenta el riesgo de cáncer, de daños genéticos, enfermedades del corazón y muchas otras dolencias. Parece ser que en los niños que todavía no han nacido, la radiación aumenta los riesgos de defectos congénitos y retraso mental. Pero a pesar de esto, la Comisión de energía atómica (AEC), ha anunciado planes para autorizar la instalación de 1.000 centrales nucleares en los próximos 25 años.

El contaminante radioactivo más peligroso de los muchos que producen los reactores, es el plutonio. Se trata de una sustancia artificial, que no existe de modo natural en la Tierra, y que es el ingrediente explosivo de las armas nucleares. Es tan mortal, que tres cucharadas de plutonio contienen suficiente radioactividad para inducir el cáncer en más de 500 millones de personas, según el Dr. John W. Gofman, codescubridor del uranio 233.

En su opinión se trata de la sustancia más tóxica de la Tierra, y una mota infinitesimal, más pequeña que un grano de polen, produce cáncer si se respira o se traga con el agua. Y, sin embargo, el funciona-miento de 2.000 reactores producirá 400.000 kilos de este material cada año: un desecho para el cual no existen sistemas de recolección. Hay que guardar el plutonio en depósitos con una vigilancia sin falla por los menos durante 250.000 años, más de 125 veces la duración de toda la era cristiana, a no ser que se dé un gran paso en la tecnología de los deshechos radioactivos.

Hay que guardar también el plutonio para evitar que sea robado con fines terroristas. Se necesitan sólo unos pocos kilos de plutonio para fabricar una bomba que borraría del mapa ciudades como San Francisco, Nueva York o Moscú. Estas destrucciones pueden llevarse a cabo con una facilidad escandalosa. Un estudio secreto de la AEC informó que dos físicos que acababan de finalizar su carrera fueron capaces de diseñar una bomba atómica recurriendo únicamente a las obras accesibles al público.

Vivimos una época en la que casi cualquier país o grupo de presión con unos pocos científicos capacitados, puede convertirse en potencia nuclear, creando un riesgo terrible de guerra o accidente nuclear Si éstos fuesen los únicos peligros que presenta la energía de fisión, constituirían motivo suficiente para abandonarla.

Entre otros problemas están la falta de técnicas seguras de almacenamiento para los deshechos nucleares de alto nivel, la posibilidad de que se produzcan fugas catastróficas de radioactividad de las centrales nucleares, y emisiones normales radioactivas.

— Cuando sus recipientes sufren alteraciones normales escapan al medio ambiente deshechos de alto nivel, y los que critican el sistema aseguran que parte de los deshechos se ha incorporado al agua del suelo. Los deshechos se ven expuestos dentro de sus tanques a la acción de saboteadores, terremotos, guerras o accidentes; una sola de estas causas, bastaría para dejar sueltas de golpe cantidades colosales de radioactividad.

— Las medidas de protección destinadas a proteger al público contra accidentes nucleares serios, no se han puesto nunca a prueba de modo completo y en condiciones reales de funciona miento. La explosión de una central podría causar miles de muertos y daños por valor de 17.000 millones de dólares, según la AEC. (caso de Chernobyl en 1986 y Japón en 2010)

— La fuga de sólo un mínimo por ciento de la radioactividad del núcleo de un reactor, podría convertir en inhabitable una zona del tamaño de California.

— Aparte de los accidentes, las centrales de fisión emiten de modo normal radioactividad por los gases de sus chimeneas y por el agua de deshecho. Según cálculos realizados por eminentes cien tíficos, los límites federales legales para este tipo de radiación son tan altos que si cada persona en el país se viera expuesta a los límites de radiación permitidos, se producirían cada año, 32.000 fallecimientos más por cáncer y leucemia y de 150.000 a 1.500.000 fallecimientos genéticos adicionales. El coste-anual para la seguridad social de las enfermedades inducidas genéticamente ha sido calculado por el especialista en genética, premio Nobel, Joshua Lederberg, en 10.000 millones de dólares.

cuadro central nuclear

Cuadro funcionamiento de una central nuclear

Central Nuclear Atucha I

La Fision o Desintegracion Nuclear La Energia del Atomo de Uranio

TEORÍA ATÓMICA: FISIÓN NUCLEAR O ATÓMICA

TEORÍA ATÓMICA: FISIÓN NUCLEAR O ATÓMICA

Los fundamentos de la física atómica

DESCRIPCIÓN DEL PROCESO DE LIBERACIÓN DE ENERGÍA POR UN ÁTOMO:
La liberación de la energía nuclear:
En un trozo de uranio 235, un neutrón rompe Un núcleo y expulsa, por ejemplo, dos neutrones. Estos, al romper dos núcleos, producen en la segunda generación cuatro neutrones, los que a su vez liberan ocho neutrones en la tercera generación tras desintegrar cuatro núcleos.

La cuarta generación origina dieciséis, la décima mil veinticuatro, la vigésima más de un millón, la trigésima mil millones.

Así, cual un alud, el número de los proyectiles crece en progresión geométrica. Como una generación de neutrones sólo dura un pequeñísimo intervalo de tiempo —una fracción infinitesimal de un segundo— todos los núcleos (2,5 x 1024) presentes en un kilogramo de uranio estarían casi instantáneamente desintegrados.

La rapidez con que se establece y se propaga la reacción en cadena dilataría y haría explotar la masa con extrema violencia antes que todos los núcleos hubiesen podido ser fragmentados. Si se admite que sólo el 10% de los átomos participa en la reacción, la enorme cantidad de energía liberada equivale a la producida por la explosión de 2000 toneladas de trinitrotolueno.

En la foto de arriba se encuentran compartiendo una información física Albert Einstein y Leo Szilard.
El doctor Leo Szilard, fue a quien se le ocurrió mientras esperaba el cambio de un semáforo en la intersección de Southampton Row en Londres, la ideas de producir una reacción nuclear controlada, bombardeando núcleos con neutrones. Por puro juego, y no por ningún impulso agresivo, el físico bajito y gordo, húngaro de nacimiento, visualizó una reacción atómica en cadena mientras deambulada por la ciudad en aquel dorado septiembre de 1933, dedicado a sus pasatiempos favoritos: pensar y pasear.

En forma de calor, mil novecientos millones de grandes calorías estarían disponibles, constituyendo el centro de la volatilización de toda materia presente. En una fracción infinitesimal de segundo, la temperatura se elevaría a centenares de miles de grados en el lugar de la explosión, engendrando un espantoso vendaval cuyos efectos destructores —merced a la propagación de la onda de compresión— semejarían a la devastadora barrida de una gigantesca marca.

En vísperas de la Segunda Guerra Mundial, todas estas posibilidades no pasaban de ser meras previsiones teóricas, a las cuales, sin embargo, el comienzo del conflicto bélico iba a conferir excepcionales alcances. Hacia fines de 1940, cuando el secreto militar comenzó a volver impenetrable el velo que cubría las investigaciones sobre la energía nuclear, la utilización de la misma para producir una bomba parecía todavía un objetivo muy lejano e incluso utópico. Sin duda se sabía que el uranio 235 era particularmente sensible a la “fisión” y que ofrecía una sección eficaz mayor a los neutrones lentos que a los rápidos; se habían desarrollado métodos para producir neutrones lentos; se habían elaborado procedimientos para separar el uranio 235 de su isótopo corriente; se había logrado aislar dos elementos transuránicos, el neptunio y el plutonio, y se reconocía que este último era también “fisionable” en circunstancias semejantes a las del uranio 235.

Además, se habla adquirido la certeza de que en la “fisión”, al menos un neutrón rápido —y en término medio dos o tres— era emitido por el núcleo. Sin embargo, a pesar del conjunto de tales progresos, todavía nadie había logrado producir una reacción autosustentada. Algunos investigadores incluso se preguntaban si la naturaleza acepta someterse a las exigencias de los teóricos. Tal vez la reacción en cadena era, en general, irrealizable. Pero las dudas terminaron por disiparse definitivamente el 2 de diciembre de 1942: ENRICO FERMI había realizado en Chicago, por primera vez, una reacción nuclear autosostenida.

El dispositivo construido en Chicago consistía en una pila de ladrillos de grafito puro que incluía trozos de uranio, separados por distancias regulares conforme a un esquema geométrico. El grafito servía de sustancia moderadora destinada a frenar mediante choques elásticos los neutrones que salen dotados de elevadas velocidades de la ruptura nuclear del uranio 235. Algunos de los neutrones penetran en el isótopo pesado U-238, otros vuelven a ser capturados por el isótopo liviano U-235, puesto que ambos están presentes en los trozos de metal de la pila. Los proyectiles que golpean el U-238 provocan su transformación, que termina por dar origen al plutonio, mientras neutrones capturados por núcleos de U-235 producen la “fisión” de éstos, expulsando neutrones que siguen provocando nuevas rupturas.

Así, la pila produce a la vez materia “fisionahle” (plutonio) y libera energía al desintegrar núcleos. Agreguemos que para el arranque no se necesita detonador ni ningún otro dispositivo especial; los neutrones de origen cósmico existentes en la atmósfera, o neutrones errantes que provienen de la explosión espontánea de un átomo de uranio, son suficientes para iniciar la reacción. Una condición indispensable para el funcionamiento de la pila es su volumen, que debe superar cierto tamaño crítico. De lo contrario el número de neutrones que escapan por la superficie de la pila no permite que se establezca la cadena de las reacciones. Para el autosostenímiento de la cadena es menester, además, que cada neutrón incidente produzca al menos un nuevo neutrón apto para determinar a su vez la ruptura de un núcleo, siendo en este caso el “factor de multiplicación” igual a la unidad.

La cadena se extingue si dicho factor resulta inferior a uno; en cambio, si es considerablemente superior, la liberación continua y lenta de la energía se transforma en un proceso explosivo, convirtiendo a la pila en una bomba. Tan peligrosa proliferación de neutrones es contrarrestada introduciendo en la masa de grafito láminas de materia absorbente (cadmio) que permiten mantener constante la velocidad de la reacción y “controlar” el nivel energético de la pila mediante un dispositivo automático. Tales fueron, a grandes rasgos, las fundamentales características de la pila de FERMI, arquetipo de todos los reactores.

Al principio la pila de FERMI engendró, en forma de calor, una potencia de 0,5 vatio; poco después aumentó su nivel de energía hasta llegar a 200 vatios. Con tal reducido poder, una pila debería funcionar varios miles de años para producir la cantidad de plutonio requerida en la fabricación de una sola bomba. Mas una conquista no puede medirse en vatios. La posibilidad de liberar energía nuclear en escala macroscópica estaba magníficamente demostrada. Si bien la distancia que separa la pila experimental de Chicago de la bomba experimental de Alamogordo era muy superior a la existente entre la rudimentaria máquina de vapor de NEWCOMEN y la locomotora de STEPHENSON, el largo camino fue recorrido en el breve intervalo de treinta meses gracias al formidable potencial tecnológico de los Estados Unidos, y al esfuerzo de un verdadero ejército de científicos, técnicos y trabajadores. El 6 de agosto, la pavorosa explosión que arrasó la ciudad de Hiroshima anunció al mundo que el hombre disponía de nuevas y tremendas fuerzas aprisionadas desde eternidades en las entrañas de la materia.

“En el interior de una bomba de fisión —escribe uno de los principales constructores de la bomba, ROBERT OPPENHEIMER (1904-1967)—, se materializa un lugar con el cual ningún otro

El factor de multiplicación es el cociente del número de los nuevos neutrones producidos y el número inicial de los neutrones primitivos.
En la pila de FERMI el factor de multiplicación era igual a 1,007.

puede ser comparado. Al explotar la bomba se producen temperaturas más elevadas que las que reinan en el centro del Sol; su carga está constituida por materias que normalmente no existen en la naturaleza y se emiten radiaciones (neutrones, rayos gamma, electrones) de una intensidad que no tiene precedentes en la experiencia humana. Las presiones que se obtienen equivalen a billones de veces la presión atmosférica. En el sentido más primario y más sencillo, es perfectamente cierto que con las armas atómicas el hombre ha creado situaciones nuevas.”

En pilas y bombas de uranio (o plutonio), la energía se produce por la ruptura de un elemento muy pesado en fragmentos menos pesados. Sin embargo, para producir enormes cantidades de energía no es éste el proceso que la naturaleza elige. Las estrellas prefieren la fusión a la “fisión”; como ya dijimos, transforman en gigantesca escala —por síntesis de elementos livianos— una parte de su materia nuclear en energía radiante. Tan sólo las prodigiosas reservas energéticas, cuyo depósito son los núcleos, pueden permitir al Sol irradiar en forma de luz y calor, año tras año, tres quintillones (3 x 1030) de grandes calorías.

Este torrente de energía solar fluye por lo menos desde hace cuatrocientos o quinientos millones de años, puesto que las pruebas aportadas por la flora y fauna paleozoicas sugieren que las condiciones climáticas de la Tierra no han cambiado esencialmente desde aquella remotísima era primaria. Mas ¿cuál es la transformación nuclear capaz de alimentar tan formidable despliegue energético, que equivale por segundo a una pérdida de cuatro millones de toneladas de masa solar? No cabe duda de que la transformación del elemento más común del universo, el hidrógeno en helio (el elemento que sigue al hidrógeno en la Tabla Periódica), podría suministrar la fuente energética de la radiación solar.

En efecto, la síntesis del helio a partir de los constituyentes de su núcleo está acompañada —como hemos explicado al tratar la energía de la unión nuclear— por la pérdida de una parte de las masas que intervienen, siendo liberada la masa desaparecida —de acuerdo con la equivalencia einsteniana— en forma de energía radiante. Sin embargo, el mecanismo de la supuesta transmutación no había dejado de ser enigmático hasta que HANS BETHE, hacia 1940, propuso su hipótesis del ciclo del carbono.

Las enormes temperaturas que reinan en el interior del Sol —veinte millones de grados en la región central— confieren a las partículas de la masa solar —y especialmente a los protones a velocidades tan elevadas que éstas pueden penetrar en los núcleos de elementos livianos y transmutarlos. Así, el núcleo ordinario de carbono, bombardeado por un protón, se transforma al capturarlo en un isótopo del nitrógeno que se desintegra. En cinco reacciones consecutivas engendran con la emisión de dos electrones positivos varios isótopos de carbono, de nitrógeno y de oxígeno. Bombardeados éstos a su vez por núcleos de hidrógeno, conducen finalmente a la formación del helio.

La excepcional característica de este ciclo, que convierte cuatro núcleos de hidrógeno en un núcleo de helio, es la reaparición del carbono inicial en la última reacción, que se encuentra así regenerado. Desempeña el papel de catalizador y puede ser utilizado innumerables veces, hasta que todo el hidrógeno solar haya sido transmutado en helio, asegurando así las reservas energéticas del Sol durante miles de millones de años. A idénticas o análogas reacciones termonucleares deben sus caudales de energía también otras estrellas.

No cabe duda de que el ciclo de carbono, productor de la energía solar, representa el primordial proceso físico-químico del universo desde la perspectiva de la historia humana. Sin las reacciones termonucleares, que se realizan en el interior del Sol, la vida no habría podido surgir sobre la superficie de la Tierra, donde los fenómenos biológicos, desde la fotosíntesis de la clorofila de los vegetales hasta el metabolismo en el organismo de los animales y del hombre, son tributarios de la radiación solar. Es un hecho realmente notable que el carbono —sustancia básica de la materia viva— desempeñe también el papel de catalizador en el grandioso proceso cósmico que dio origen primario a todas las actividades vitales en la naturaleza terrestre.

La síntesis de elementos livianos a partir del hidrógeno ha dejado de ser privilegio de las masas estelares desde hace algunos años. Reacciones termonucleares, productoras de la fusión de núcleos, suministran la fuente energética a la novísima arma: la bomba de hidrógeno. Desde luego, el ciclo de BETHE, que genera helio en las profundidades del globo solar es demasiado lento y complicado para el uso militar.

Es probable que la transmutación de una masa de los dos isótopos pesados del hidrógeno, el deuterio y el tritio, en helio, esté en la base de la liberación de energía realizada por la nueva bomba. Para establecer las formidables temperaturas (varios millones de centígrados) capaces de desencadenar la reacción se utiliza la ruptura del uranio o del plutonio: la bomba de “fisión” sirve de detonador a la superbomba de fusión. El modelo de ésta, utilizado por los expertos estadounidenses en las pruebas de Enivetock, a fines de 1952, superaba doscientas veces el poder (es decir, la cantidad de energía liberada) de la bomba de Hiroshima, según estimaciones extraoficiales.

No cabe duda de que la posibilidad de borrar de la superficie del globo cualquiera de las grandes metrópolis de la Tierra mediante la explosión de una bomba o a lo sumo de muy pocas bombas está, desde ahora, dentro de los alcances del hombre. El uso de esta arma en un conflicto bélico significaría la abdicación de la razón humana y equivaldría a una tentativa de suicidio del homo sapiens.

PARA SABER MAS…
1938:SE DESCUBRE LA FISIÓN NUCLEAR

A mediados de los anos treinta, físicos de Alemania, Francia e Italia competían por ser los primeros en conseguir romper un átomo. El físico francés Frédéric Joliot-Curie había iniciado la carrera al declarar que «las reacciones nucleares en cadena» conducían a la «liberación de enormes cantidades de energía aprovechable».

En 1935 había sido galardonado con el Premio Nobel (junto con su mujer, Irene Joliot-Curie) por el descubrimiento de la radiactividad artificial. En Berlín, un equipo de investigación compuesto por Otto Hahn, Fritz Strassmann y Lise Meitner empezó a bombardear átomos de uranio con neutrones. Los científicos esperaban que el proceso diera lugar a elementos radiactivos más pesados similares al uranio. En vez de esto, a finales de 1938, Hahn y Strassmann (Meitner, judía austríaca, había huido a Suecia después de que Hitler invadiera Austria en marzo) se sorprendieron al descubrir que su bombardeo sobre el uranio había dado lugar a un elemento mucho más ligero que el uranio, llamado bario.

Hahn y Strassmann enviaron sus resultados a Meitner, a Estocolmo, donde ella y su sobrino, el físico Otto Frisen, investigaron el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o un pequeño grupo de partículas, como se suponía, desarrollaba una «cadena» y luego se rompía en dos fragmentos ligeros prácticamente iguales, cuyas masas, unidas, pesaban menos que el núcleo original del uranio. La diferencia de peso se convertía en energía.

Meitner dio el nombre de «fisión» al proceso. Joliot-Curie descubrió que la fisión del uranio producía la liberación de neutrones adicionales que, a su vez, podían ser utilizados para romper otros átomos de uranio. Se habían establecido las condiciones para el tipo de reacción en cadena que daría lugar a la bomba atómica.

Durante la guerra, Hahn y Strassmann permanecieron en Alemania. Hahn fue capturado por los aliados en la primavera de 1945 y, mientras se hallaba detenido en Inglaterra, se enteró de que había ganado el Nobel de Química de 1944. Cuando aceptó el premio, el sentimiento de que había realizado un gran descubrimiento científico estaba empañado a causa de que la fisión había hecho posible la destrucción de Hiroshima y Nagasaki. Después de la guerra, Hahn defendió con gran pasión el control de las armas nucleares.

Fuente Consultada: Historia de la Ciencia Desidero Papp

Historia de los Descubrimientos Electricos Estudio de los Fenómenos

Historia de los Descubrimientos Eléctricos

INTRODUCCIÓN:
PRIMEROS CIENTÍFICOS Y PRIMERAS EXPERIENCIAS

Las primeras nociones de la electricidad.
Se da el nombre de electricidad a un agente físico imponderable, que produce una multitud de fenómenos como atracciones, repulsiones, producción de luz y calor, conmociones orgánicas y reacciones químicas.

El hombre primitivo sintió los efectos ingentes de la electricidad atmosférica manifestada por el trueno y por el rayo, pero a pesar del terror que le ocasionaban, no supo explicárselos, atribuyéndolos a la pujanza de la divinidad irritada con los hombres. Según los griegos, Zeus, para castigar a los mortales arrojaba las flechas de su aljaba cada una de las cuales era un rayo.

La electricidad por frotamiento, obtenida del ámbar y manifestada por atracciones de cuerpos ligeros, fue conocida desde los tiempos más remotos, por el año 3400 antes de J. C, pero distaban mucho los hombres de creer que se produjese esto por una causa común a la productora del rayo.

Tales, filósofo griego de la escuela jónica que vivió desde el año 640 hasta el 548 antes de J. C, descubrió que estos fenómenos eran debidos a un fluido que, según él existía únicamente en el ámbar y como éste en griego se llama ” electrón “, el fluido derivado de él tomó mucho más tarde el nombre de electricidad. Plinio, antiguo naturalista que pereció en la erupción del Vesubio en el 79 de la era cristiana, escribió sobre el ámbar y sus cualidades comparándolo con la piedra imán cuya propiedad era ya bien conocida.

Progreso en el estudio de la electricidad.
Guillermo Gilbert, célebre físico y médico de la Reina Isabel de Inglaterra, fue el primero que se dedicó al estudio metódico de la electricidad, descubriendo que no era la resina la única substancia que la producía. Comprobó idénticos resultados frotando azufre, lacre, goma, sal gema y varias otras substancias.

Historia de los Descubrimientos Electricos

Otto de Guericke, físico alemán nacido en Magdeburgo en 1602 y muerto en 1686, inventor de la máquina neumática, parece haberlo sido también de la primera máquina eléctrica, basada en el frotamiento del azufre. Constaba su invento en una esfera de azufre que giraba mecánicamente y era frotada con la mano, obteniéndose diminutas chispas. Más tarde la substituyó con vidrio y perfeccionado el procedimiento de la frotación, obtuvo mejores resultados.

Esteban Gray, que consagró su vida al estudio de la electricidad hizo verdaderos progresos en el campo de la Física. Después de innúmeras experiencias clasifico los cuerpos en buenos y malos conductores de la electricidad, y notó la posibilidad de electrizar un cuerpo por contacto. Fue el primero que utilizó el hilo metálico para trasladar la electricidad de un punto a otro.

Dufay, continuando los estudios de Gray descubrió las dos clases de electricidad llamadas positiva y negativa. El descubrimiento de la electrización por influencia marcó el punto de partida para los grandes inventos que mostraron la importancia excepcional de la electricidad a la que, hasta entonces, no se le había dado importancia. Entre las máquinas basadas en la influencia merecen citarse como las más importantes, el eletróforo de Volta, la máquina de Ramsden y la de Wimshurt.

El problema del almacenamiento de la electricidad era el más esencial tal vez, para llegar a su aprovechamiento y después de muchos estudios fue solucionado a la vez, pero separadamente por un monje y por un catedrático de Leiden, ciudad de Holanda, aparato que quedó consagrado con el nombre de ” Botella de Leiden “.

LOS DESCUBRIMIENTOS: Hace ya más de 2.000 años los griegos descubrieron que al ser frotado con una tela el ámbar atrae objetos livianos como plumas, polvo, etc. Se descubrió que dos varillas de ámbar luego de ser trotadas se repelían. Pero la razón de estos fenómenos no era comprendida.

Guillermo Gilbert, releyendo los escritos de los griegos alrededor del 1600, se interesó más por el magnetismo (sugirió que la Tierra se comportaba como un inmenso imán). Con todo, se dio cuenta de que las fuerzas de atracción y repulsión entre varillas frotadas eran similares a las fuerzas que ejercen entre sí los imanes naturales. Fue Gilbert quien dio al nuevo campo de estudio el nombre de electricidad, que derivó del nombre griego del ámbar.

Con el transcurso del tiempo se comprobó que muchas otras sustancias podían producir también efectos eléctricos. Otto Von Guericke, en el siglo XVII, construyó una esfera de azufre que podía hacer girar con una mano y frotar con la otra.

Además de atraer pequeños trozos de papel producía (lo cual era inesperado) crujidos y diminutas chispas mientras se la frotaba. Por primera vez se veía que la electricidad podía fluir; en realidad se pensaba que era un fluido que podía ser transferido de un objeto a otro por frotamiento.

La esfera de azufre de Guericke fue muy empleada y desarrollada por los primeros investigadores. Fue uno de los primeros métodos de producir electricidad. Posteriormente encontraron la forma de conservar la electricidad así producida en la botella de Leyden —una botella parcialmente llena de agua con una cadena metálica que colgaba a través del corcho—. Éste fue el antecesor del capacitor.

Benjamín Franklin vio la conexión entre las diminutas chispas de la esfera de azufre a las gigantes chispas del rayo —ambos eran flujos de “fluido” eléctrico—. Demostró su afirmación con su famoso experimento que consistió en hacer volar un barrilete hacia una nube ele tormenta. El cable húmedo del barrilete condujo hasta tierra la carga eléctrica de la nube.

El italiano Galvani hizo otro descubrimiento importante en forma accidental hacia fines del siglo XVIII.

Descubrió que tocando con alambres de hierro y latón los músculos de las patas de una rana recién muerta, se los hacia contraer del mismo modo que cuando se los tocaba con la electricidad almacenada en una jarra de Leyden. Galvani pensaba que, de alguna manera misteriosa, las patas habían producido su propia electricidad.

Había muy poco, en los estudios que se hacían en aquellos tiempos, que tuviera verdadero significado. A la electricidad se la consideraba más bien como un juego, para atraer o repeler y producir chispitas.

Y en realidad, las minúsculas cantidades de electricidad generadas por las máquinas de frotamiento no tenían ninguna utilidad práctica. Casi todos los conocimientos actuales de electricidad se adquirieron en los últimos 160 años.

El descubrimiento, Von Alejandro Volta, de la pila ” eléctrica marcó una nueva senda al estudio de la electricidad. Volta demostró que la contracción de las patas de la rana observadas por Galvani no tenían nada que ver con la rana en sí, sino que era debida a los alambres de hierro y latón, que al entrar en contacto con la humedad salina de la rana generaban electricidad.

Constituían, en verdad, una forma primitiva de célula electrolítica. Volta fabricó su pila con placas de cobre y cinc puestas en una solución salina. Luego construyó una batería más útil conectando una cantidad de estas unidades entre sí.

El primer efecto importante que se descubrió con las corrientes eléctricas fue su facultad de descomponer en sus elementos componentes a ciertos compuestos químicos: la electrólisis. A principios del siglo XIX, dos científicos ingleses, Carlisle y Nicholson, conectaron los extremos de una pila de Volta a dos alambres de platino colocados en tubos que contenían ácido diluido.

De los alambres surgieron burbujas y se comprobó que las que salían de un cable eran de oxígeno y las que salían del otro eran de hidrógeno. Los químicos llegaron correctamente a la conclusión de que el agua había sido descompuesta en los elementos que la componen por el paso de la corriente eléctrica.

Con las pilas de Volta la electricidad podía producirse fácil y continuamente. Científicos de todas partes adoptaron la pila de Volta y la empezaron a utilizar para sus propios experimentos. Una de las grandes dificultades que encontraron fue que no se disponía de un método para medir la electricidad.

Hasta 1820 los únicos instrumentos de medición eléctrica se basaban en las fuerzas de atracción y repulsión entre cargas de electricidad estática y no servían para medir corrientes eléctricas. En 1819 salió a la luz un aspecto enteramente nuevo de la electricidad. Desde los días de Gilbert se pensaba que la electricidad y el magnetismo debían estar relacionados de alguna manera desconocida.

Cuando Juan Oersted provocó la deflexión de una brújula magnética colocándole encima un cable que conducía una corriente eléctrica, demostró la naturaleza de esta relación —un conductor por el cual circule una corriente eléctrica se comporta como un imán—.

Al año siguiente Oersted demostró que el conductor queda rodeado por un campo magnético. Andrés María Ampére desarrolló estos descubrimientos con una maravillosa serie de experimentos, mediante los cuales pudo deducir claramente las leyes de atracción y repulsión entre cables conductores de corrientes eléctricas.

Como las fuerzas obedecían a ciertas leyes —y cuanto más grande la corriente mayor la fuerza que ejercía— este efecto pudo ser utilizado para precisas mediciones eléctricas. Es el principio en que se basan el galvanómetro y la mayoría de los amperímetros y voltímetros. Por primera vez la electricidad pasó a ser una ciencia exacta.

Jorge Ohm y más tarde Kirchoff pudieron establecer la relación existente entre corriente, voltaje (presión eléctrica) y resistencia en un circuito. Miguel Faraday fue el siguiente descubridor de importancia.

Siguió rápidamente el trabajo de Oersted empleando grandes bobinas de alambre para obtener poderosos electroimanes. Mediante éstos Faraday consiguió hacer el primer motor eléctrico sencillo. Las fuerzas actuantes entre dos bobinas, una fija y otra móvil, harían girar a esta última.

A continuación se les ocurrió a varios científicos que si una corriente eléctrica podía producir un campo magnético, la inversa también podría ser posible y un imán serviría para producir una corriente eléctrica. Durante 10 años Faraday estudió, este problema hasta que finalmente consiguió mostrar que una corriente variable en un conductor puede producir una corriente en un conductor cercano.

Este fenómeno se denomina ahora inducción electromagnética. El descubrimiento de Faraday condujo directamente al del dinamo, o principio del generador: cuando Una bobina gira dentro de un campo magnético en el cable se genera una corriente eléctrica.

Thomas Alva Edison, el científico e inventor estadounidense, desarrolló este concepto y construyó un generador eléctrico capaz de producir corrientes eléctricas mucho mayores que la pila de Volta. Ya era obvio que la electricidad en movimiento era una forma de energía.

En realidad, el generador eléctrico convertía la energía mecánica en eléctrica. Un cable que conduce corriente se calienta porque la resistencia del cable convierte parte de la energía eléctrica en calor. Ésta es la base de todos los aparatos eléctricos de calefacción o similares.

Humphrey Davy descubrió que la electricidad podía emplearse también para producir luz.

Conectó los terminales de una batería muy potente a dos varillas de carbón apenas separadas entre sí, y obtuvo una luz muy brillante; la primera lámpara de arco había sido inventada.

Edison introdujo la lámpara eléctrica haciendo pasar una corriente eléctrica a través de un fino filamento de carbón encerrado en una ampolla de vidrio, en cuyo interior había hecho el vacío. El filamento se ponía incandescente e iluminaba.

Hacia el año 1850, casi todos los efectos eléctricos importantes habían sido descubiertos y explicados. Había dos importantes excepciones. Una de ellas era la existencia de ondas electromagnéticas.

Jaime Clerk Maxwell demostró matemáticamente que las ondas, alteraciones electromagnéticas, están asociadas a todas las corrientes eléctricas variables, y Enrique Hertz, 24 años después (1887) produjo y detectó en la realidad las ondas previstas por Maxwell.

El descubrimiento condujo a la idea, desarrollada extensamente por Guillermo Marconi, de que las ondas electromagnéticas podían ser empleadas para transmitir mensajes sin cables, a través del aire. Al principio se las utilizó para enviar señales telegráficas y luego, en este siglo, para transmitir sonidos e imágenes.

La pregunta acerca de qué era realmente la electricidad y qué era lo que fluía por el circuito eléctrico no fue contestada hasta 1897, en que J. f. Thompson descubrió el “ladrillo” de que estaba construida la electricidad: el electrón.

Mediante un fuerte campo eléctrico deflectó una corriente eléctrica que circulaba por el vacío y constatando en qué dirección se desviaba, probó que estaba constituida por cargas eléctricas negativas, o electrones. Roberto Millikan en 1911 demostró que el electrón transportaba la menor carga eléctrica posible. Las minúsculas partículas, presentes en toda materia, pueden ser distinguidas por la cantidad de electricidad que transportan.

El Uranio en Argentina Reservas de Uranio en el Mundo Cantidad de Reactores

El Uranio en Argentina y Las Reservas en el Mundo

La energía nuclear  es la que se obtiene a partir de la transformación de una masa de materia radiactiva por procesos de fisión nuclear (división de núcleos atómicos pesados por bombardeo de neutrones) o de fusión nuclear (unión de núcleos atómicos muy livianos).

Este tipo de energía se obtiene en complejas instalaciones llamadas centrales nucleares o atómicas. Allí hay reactores que generan energía por fisión, utilizando como combustible el uranio. En la Argentina existen importantes reservas de uranio en Salta, Catamarca, La Rioja, Mendoza y Chubut.

Mineral de Uranio

La energía por fisión generada en las centrales atómicas impulsa el funcionamiento de turbinas que generan energía eléctrica. Alrededor del 8% de la generación de electricidad proviene de centrales nucleares. En la Argentina existen tres centrales atómicas: Atucha I , Atucha II (situadas en Zárate, provincia de Buenos Aires); Embalse (a orillas del Embalse de Río Tercero, Córdoba).

Además de electricidad, de la energía nuclear pueden obtenerse otros productos importantes para la medicina y la industria, como el cobalto y los radioisótopos. es la que se obtiene a partir de la transformación de una masa de materia por procesos de fisión nuclear (división de núcleos atómicos pesados por bombardeo de neutrones) o de fusión nuclear (unión de núcleos atómicos muy livianos).

Respecto al uranio en el mundo y en Argentina, el Dr. Domingo García, en el libro “Argentina, Una visión actual y prospectiva desde la dimensión territorial”, no informa lo siguiente:

“Las reservas mundiales comprobadas de mineral de uranio (denominadas “recursos razonablemente asegurados” en la terminología nuclear), agregando las reservas adicionales estimadas, permitirían obtener 3.340.000 toneladas de concentrado de óxido de uranio (U308), sustancia básica para elaborar el combustible que utilizan las centrales nucleoeléctricas.

De acuerdo con la tecnología actual, la duración de dichas reservas es de aproximadamente 50 años. Los países con mayores reservas son Australia (27%), Kazakhstan (17%), Canadá (15%) y Sud África (11 %). En cuanto a la producción de uranio, medida en tU (toneladas de uranio recuperable), cabe decir que en el año 2004 se produjeron 40.219 tU en el mundo. Los principales países productores son Canadá, con 11.597 tU (29%); Australia, con 8.982 tU (22%); Kazajstán, con 3.719 tU (9,2%); Níger, con 3.282 tU (8,2%), y Federación Rusa, con 3.200 tU (8%). Con respecto al consumo, las centrales eléctricas demandan alrededor de 66.529 tu. La producción llega a cubrir aproximadamente el 60% de la demanda.

Este desnivel obedece a razones tales como uso de stocks acumulados en años anteriores y transferencia de material que pasó del uso militar al civil. Precisamente esta oferta de material, que en su origen era para uso militar, afectó a los precios en el mercado del uranio, disminuyendo la rentabilidad de los productores, hecho que no estimuló el crecimiento de la producción.

Las centrales eléctricas nucleares fueron vistas desde sus comienzos, en la década de 1950, como una alternativa al uso del carbón, cuyo efecto contaminante sería así evitado. Sin embargo, accidentes ocurridos en varios países y en especial el de la central de Chernobyl, Ucrania, en 1987, generaron fuertes resistencias a la instalación y funcionamiento de estas instalaciones, participando en este movimiento organizaciones ecologistas.

Muchos establecimientos fueron cerrados hasta el presente, en unos casos por razones ambientales pero en muchos otros porque su tecnología fue superada. No obstante, en el mundo hay 30 plantas en construcción. Un caso curioso es el de Italia, que cerró sus cuatro centrales nucleares para protección del medio ambiente, pero importa el 50% de la energía eléctrica que consume desde Francia, país en el que el 78% de la electricidad es de origen nuclear.

A pesar de objeciones y cuestionamientos, las plantas electronucleares han alcanzado un importante desarrollo y suministran el 15% de la electricidad consumida en el mundo. Estos establecimientos están equipados con reactores que utilizan el combustible nuclear y producen calor que a su vez produce vapor de agua, el que hace funcionar la maquinaria que genera la electricidad. A fines del año 2006 había en el mundo 437 reactores en operación, cuya potencia instalada para producir electricidad es de 370 gw(e). Asimismo, había en construcción 30 reactores  con una potencia de 22,4 gw(e).

El país más importante es Estados Unidos, que cuenta con 103 reactores y una capacidad  instalada de 98.254 mw(e), teniendo uno en construcción, con una potencia de 1.200 mw(e). Le siguen: Francia con 59 reactores y 63.473 mw(e) -ninguno en construcción-; Japón con 55 reactores y 47.700 mw(e) -más dos en construcción que totalizan 2.285 mw(e)-; Federación Rusa con 31 reactores y 21.743 mw(e) -más cinco en construcción que suman 2.720 mw(e)-; Alemania con 17 reactores y 20.303 mw( e) -ninguno en construcción-; Corea del Sur con 20 reactores y 17.533 mw(e) -rnás uno en construcción con 950 mw(e)-.

Los principales países participan en la capacidad instalada mundial (de los reactores operativos) con los siguientes porcentajes: Estados Unidos, 26,5%; Francia, 17%; Japón, 13%; Federación Rusa, 6%; Alemania, 5,5%, y Corea del Sur, 4,7%.

Por número de reactores en operación, los principales países son los siguientes:

PAÍS

REACTORES %s/Total
EE.UU. 103 23.6
Francia 59 13.5
Japón 55 12.6
Federación Rusa 31 7.0
Corea del Sur 20 4.6

Con respecto a los reactores en construcción, India tiene seis, Federación Rusa cinco, China cuatro, Ucrania cuatro, Carea del Sur cuatro, Japón dos, República Eslovaca dos y Canadá dos. Siguen otros países con uno cada uno. Entre estos está la República Argentina, por la construcción de Atucha II.

Los países con mayor participación de la energía nuclear en la generación de electricidad 50n los siguientes: Francia, 78,3%; Lituania, 78,3%; República Eslovaca, 55,7%; Bélgica, 55,2%; Ucrania, 48%; Bulgaria, 40%; Carea del Sur, 35,5%, y Hungría, 35,3%. La electricidad generada por centrales nucleares alcanzó en el año 2006 a los 2.658 twh(e). Los países con mayor producción fueron Estados Unidos con 787.200 gwh(e) -30%-, Francia con 428.700 gwh(e) -16%-, Japón con 291.500 gwh(e) -11%-, Alemania con 158.700 gwh(e) -6%-, Federación Rusa con 144.300 gwh(e) -5,4%- y Carea del Sur con 141.200 gwh(e) -5,3%-.

La República Argentina cuenta con depósitos comprobados de mineral de uranio (recursos razonablemente asegurados) que llegan a las 8.800 tU Y recursos adicionales estimados por 4.200 tU. En la actualidad, los principales yacimientos conocidos, con recursos explotables son: Sierra Pintada (provincia de Mendoza), con reservas uraníferas evaluadas en 9.200 tU, Y Cerro Solo (provincia del Chubut), con reservas de 5.200 tU.

El Complejo Minero Fabril San Rafael es de mayor centro de producción del país, pero su actividad se encuentra detenida desde hace unos diez años, habiéndose optado por la importación.

La producción argentina de concentrado de uranio entre 1995 y 2006 fue la siguiente:

1995 65 tU
1996 28 tU
1997 28 tU
1998 7 tU
1999 4 tU
2000-2006 0 tU

En los datos precedentes se observa una gran caída en la producción de concentrado de uranio hasta llegar a ser nula a partir de 2000. Esta situación se debe a razones de costos, pues se ha preferido material importado, con menor precio. Actualmente se importan alrededor de 100 toneladas de concentrado de uranio por año.”

OTRA CARA DE LA EXPLORACIÓN DEL URANIO
CUESTIONAMIENTO DE LA ONG (Fundación para la defensa del ambiente (FUNAM)) Sigue promocionándose en Argentina la minería de uranio y la energía nuclear sin ningún tipo de consulta previa, e ignorando que organismos de energía atómica como CNEA, NASA y ARN protegen más sus propios intereses que la seguridad y la salud de la población. La mayoría de las minas de uranio cerradas siguen contaminando el ambiente porque no fueron remediadas, y en un barrio densamente poblado de la ciudad de Córdoba una sola empresa vinculada a CNEA, Dioxitek S.A., tiene enterradas sin membranas y sin aislamiento más de 36.000 toneladas de residuos radiactivos de uranio de baja actividad. No se comunica a la población las descargas rutinarias y accidentales de sustancias radiactivas desde las centrales de potencia (Atucha I, Embalse), ni se advierte que los depósitos de combustible radiactivo agotado de esas dos centrales, altamente radiactivos, pueden ser blanco de ataques terroristas y caída accidental de grandes aviones comerciales. Si esto sucediera, se generarían accidentes que equivaldrían a varios Chernobyl simultáneos (accidente nuclear grado 7 en la escala INES)
.

Fuente Consultada: “Argentina, Una visión actual y prospectiva desde la dimensión territorial”  Juan A. Roccatagliata

La Maquina de Dios Acelerador de Particulas Mas Grande del Mundo

La Máquina de Dios Acelerador de
Partículas Mas Grande del Mundo

ACELERADOR DE PARTÍCULAS: Los aceleradores de partículas son máquinas de grandes proporciones que aceleran partículas subatómicas a altísimas velocidades. Luego de movilizarse a gran velocidad las partículas abandonan la máquina para chocar contra el blanco. Dichas partículas o bien fragmentan los átomos del blanco, o bien resultan incorporadas por esos átomos, dando lugar a la formación de átomos más grandes.

Los aceleradores de partículas son las principales herramientas que los físicos nucleares usan para el estudio de la estructura del núcleo del átomo. Normalmente el núcleo contiene varios tipos de partículas, y muchas otras pueden producirse bombardeando los blancos con partículas aceleradas.

El estudio de las partículas elementales o partículas fundamentales, es decir de las partes más simples de la materia, se denomina física de la partículas o física de alta energía. Las partículas alcanzan una energía elevadísima cuando se las acelera en estos aparatos. Los físicos esperan alcanzar una comprensión integral de la naturaleza de la materia ,fisionando el núcleo de los átomos o creando de este modo núcleos nuevos. La mayoría de los aceleradores de partículas son enormes máquinas.

El conducto donde las partículas se aceleran puede ser recto o circular. El acelerador lineal de la Universidad de Stanford, en California, tiene un tubo central recto de 3,2 kilómetros (2 millas) de largo. En los laboratorios de la CERN (European Organization for Nuclear Research), en las afueras de Ginebra, Suiza, se proyecta un acelerador circular de 2,2 kilómetros de diámetro (1,4 millas). A su término quedará a horcajadas sobre el límite con Francia.

El poder de los aceleradores se mide en ELECTRON-VOLTIOS (eV) que es la cantidad de energía infundida a las partículas para acelerarías. Pero las grandes máquinas son tan poderosas que su energía se mide en GeV (gigaelectronvoltio). Un GeV es igual a 1000 millones de eV. Más tarde, se aumentará la potencia de la máquina del CERN y con el tiempo podrá alcanzar los 1000 GeV. Cada máquina puede consumir tanta electricidad como una ciudad entera!

El acelerador de partículas más poderoso jamás construido podría hacer algunos descubrimientos notables, como confirmar la existencia de la materia invisible o de las dimensiones espaciales adicionales, una vez que empiece a funcionar en agosto.

La “Máquina de Dios”, como se ha dado en llamar al Gran Colisionador de Hadrones (LHC), tiene por también por finalidad la de desentrañar los enigmas del origen del Universo, es decir, cómo fue que se creó la materia y qué pasó con la antimateria en el momento del Big Bang. Considerado el experimento científico más ambicioso de la historia, el LHC intentará identificar con total certeza los ladrillos fundamentales con que se construyeron las estrellas, los planetas y hasta los seres humanos.

QUE ES UN ACELERADOR DE PARTÍCULAS? Estas enormes máquinas aceleran partículas cargadas (iones) mediante campos electromagnéticos en un tubo hueco en el que se ha hecho el vacío, y finalmente hacen colisionar cada ion con un blanco estacionario u otra partícula en movimiento. Los científicos analizan los resultados de las colisiones e intentan determinar las interacciones que rigen el mundo subatómico. (Generalmente, el punto de colisión está situado en una cámara de burbujas, un dispositivo que permite observar las trayectorias de partículas ionizantes como líneas de minúsculas burbujas en una cámara llena de líquido.)

Las trayectorias de las partículas aceleradas pueden ser rectas, espirales o circulares. Tanto el ciclotrón como el sincrotrón utilizan un campo magnético para controlar las trayectorias de las partículas. Aunque hacer colisionar las partículas unas contra otras puede parecer inicialmente un método un tanto extraño para estudiarlas, los aceleradores de partículas han permitido a los científicos aprender más sobre el mundo subatómico que ningún otro dispositivo.

El primer acelerador circular se llamó: ciclotrón. El físico estadounidense Ernest O. Lawrence fue galardonado con el Premio Nobel de Física en 1939 por el invento y desarrollo del ciclotrón, un dispositivo para acelerar partículas subatómicas. Lawrence desarrolló el ciclotrón, el primer acelerador circular. Es una especie de acelerador lineal arrollado en una espiral. En vez de tener muchos tubos, la máquina sólo tiene dos cámaras de vacío huecas, llamadasdes, cuya forma es la de dos D mayúsculas opuestas entre sí.

Un campo magnético producido por un potente electroimán hace que las partículas se muevan en una trayectoria curva. Las partículas cargadas se aceleran cada vez que atraviesan el hueco entre las des. A medida que las partículas acumulan energía, se mueven en espiral hacia el borde externo del acelerador, por donde acaban saliendo.

Según la fórmula de Einstein E = mc² la masa es un tipo de energía. Esto significa que la energía puede transformarse en masa y viceversa. En los aceleradores de partículas ésto es utilizado para transformar energía cinética en masa, en una colisión de partículas. De este modo, nuevas partículas pueden ser creadas en las colisiones de partículas con altas velocidades relativas.  En la búsqueda de nuevas partículas pesadas es importante ser capaz de acelerar partículas a altas energías. A mayor energía de las partículas originales, partículas más pesadas pueden ser creadas en las colisiones de partículas.

HISTORIA:
PRIMEROS PASOS Y AVANCES CON LA APLICACIÓN DE ESTA MAQUINA…

Organización Europea para la Investigación Nuclear, institución europea de investigación cuya sede se encuentra en la ciudad suiza de Meyrin (situada en las proximidades de Ginebra, en la frontera entre Francia y Suiza). Es más conocida por las siglas CERN, correspondientes al nombre con que fue fundada en 1954: Conseil Européen pour la Recherche Nucléaire (Consejo Europeo para la Investigación Nuclear).

En el CERN se han construido aceleradores desde los 1950. Hoy existe un gran sistema de aceleradores lineales y circulares. Algunos de los aceleradores más antiguos se usan aún para iniciar la aceleración de partículas antes de ser enviadas a los aceleradores más largos. El sistema de aceleradores del CERN puede acelerar electrones, positrones, protones y diferentes tipos de iones.

Vista Area del CERN

Imagen de Abajo: El LEP (Large Electrón-Positrón Collider), en servicio desde 1989 en la frontera francosuiza, cerca de Ginebra, es el mayor acelerador del mundo y lo seguirá siendo por lo mucho tiempo. Está destinado a estudiar las partículas   de   muy   altaenergía producidas en el transcurso de colisiones entre un haz de electrones y otro de positrones que circulan en sentidos opuestos. Situado en un túnel circular (de 26,7 km. de longitud y 3,8 m. de diámetro interior), el anillo de sección rectangular (5 cm x 20 cm) está enterrado a una profundidad comprendida entre 50 y 175 m. Lo rodean 3.368 imanes de curvatura, 1 300 imanes de focalización y 128 cavidades aceleradoras de alta frecuencia que suministran 400 millones de voltios de tensión aceleradora por vuelta.

En cuatro puntos, el túnel se ensancha en salas de 27 m. de diámetro y 70 m. de longitud donde se encuentran los dispositivos experimentales destinados a detectar las partículas producidas y a determinar sus características. Loselectrones y los positrones sufren la acción de tres aceleradores sucesivos y penetran en el LEP con una energía de 22 GeV. Cada haz es acelerado hasta 50 GeV, por lo que en cada colisión se ponen en juego 100 GeV. Las partículas, inyectadaspor paquetes de 5 billones, giran durante horas y recorren miles de millones de kilómetros; en cada vuelta, se producen sólo unas pocas colisiones entre los dos haces de 1 mm3 de sección.

LEP en suiza

El 14 de julio de 1989, aniversario de la toma de la Bastilla toda Francia celebró el bicentenario del comienzo de la Revolución. A las 16.30 del mismo día, los físicos del CERN, centro internacional de investigación sobre física de las partículas situado en Ginebra, celebraban la entrada en funcionamiento del LEP (Large Electron Positron Collider), la mayor máquina científica construida hasta entonces.

Alojado en un túnel circular de unos 27 km de diámetro (casi todo bajo territorio francés), el LEP es un acelerador que provoca colisiones de partículas a muy alta velocidad, para conseguir elevadísimas energías. Es capaz de crear las condiciones que reinaban una fracción de segundo después de la gran explosión que supuestamente dio origen al universo, así como de provocar la formación de partículas y determinar efectos que no se han producido desde entonces.

En especial, los físicos esperaban crear partículas Z, cuya existencia había sido predicha en los años 60, en el marco de la teoría que unifica el electromagnetismo con la fuerza nuclear débil. Las partículas Z, portadoras de esta fuerza débil, se observaron por primera vez a mediados de agosto de aquel año y la evaluación de los primeros resultados estaba lista para fines de octubre.

El LEP fue la culminación de casi diez años de planificación y construcción, a un coste situado en torno a los 80.000 millones de pesetas. En el momento en que el LEP entraba en funcionamiento, Estados Unidos proyectaba construir en Texas una máquina todavía más gigantesca, el Superconducting Supercollider (SSC), con una circunferencia de 84 Km. y un coste estimado de más de 100.000 millones de pesetas. Sin embargo, si llegara a hacerse realidad, este proyecto podría constituir fácilmente el fin del recorrido en este sentido, ya que los físicos están dirigiendo actualmente su atención a nuevas tecnicas con máquinas lineales en lugar de circulares.

El CERN, fundado en 1953, fue desde el comienzo una empresa cooperativa con la participación de 14 países europeos. Físicos de otros paises, entre ellos la Union Soviética, Japón y Estados Unidos, han participado posteriormente en sus programas de investigación. Fue uno de los indicios de un nuevo movimiento paneuropeo, reflejado también en las esferas económica y política. Europa no carecía de talentos científicos, como lo demuestra el éxito continuado en la obtención del premio Nobel, pero en muchos campos los países individuales no podían en modo alguno competir con Estados Unidos.

No era sólo un problema financiero sino de disponibilidad de personal científico cualificado. Ante la falta de oportunidades en sus países, los científicos europeos. Y En el Fermillab, (imagen abajo) en Illinois (EE UU), una carretera marca los 6km de circunferencia del anillo subterráneo del acelerador de partículas del laboratorio. En 1913, el Fermllab perfeccionó sus instalaciones Instalando Imanes superconductores yen 1990 producía todavía los rayes de protones mas energéticos del mundo.

Cedían a la atracción de Estados Unidos, que les ofrecía mayores salarios y mejores instalaciones. Esta tendencia era particularmente notable en el campo de las ciencias físicas, el ámbito de los proyectos de la “gran ciencia”,. La cooperación científica en Europa adquirió un nuevo impulso en 1973 con el ingreso de Gran Bretaña, Irlanda y Dinamarca en la Comunidad Económica Europea. Entre las nuevas iniciativas figuraban la Agencia Espacial Europea (fundada en 1975) y el centro multidisciplinario de investigación de la CE (15-FRA), con sede en Italia.

Pero en la ciencia, como en otras actividades humanas, las tendencias y las necesidades cambian, y las estrategias deben modificarse en consecuencia. En Gran Bretaña, por ejemplo, el gran laboratorio de investigación sobre energía atómica de Harwell (motivo de orgullo nacional durante la euforia de la posguerra e importante factor de negociación en el intercambio de información con Estados Unidos) tuvo que ser reorganizado y, en cierto modo, ganarse el sustento mediante contratos con la industria.

Por el contrario, el proyecto experimental IET (Ioint European Toros), destinado a producir energía mediante la fusión de núcleos ligeros, como en el interior del Sol, comenzó a funcionar en 1983, en la cercana localidad de Culham. Pero incluso este proyecto fue perdiendo el favor de la opinión pública cuando los movimientos ecologistas (opuestos a toda forma de energía nuclear) ganaron fuerza e influencia, sobre todo teniendo en cuenta que los resultados del programa se podrían medir más en décadas que en años.

El primer gran acontecimiento científico de los años 90 fue la puesta en órbita del telescopio espacial Hubble, en abril de 1990, después de veinte años de planificación. Pero su supuesta capacidad de «ver el universo con una profundidad diez veces mayor que la empleada anteriormente» no impresionó a quienes se oponían a una inversión de 1.300 millones de dólares para un proyecto de investigación pura, entre los que se encontraban muchos científicos con presupuestos escasos. Al mismo tiempo, comenzó la reevaluación del programa del Supercollider.

Si bien la exploración de las partículas más recónditas del átomo y de las regiones más remotas del universo ha seguido cautivando la imaginación popular, también ha sido intensa la actividad en otros campos de las ciencias físicas. De hecho, el progreso en estos dos campos habría sido imposible sin los avances logrados en muchos otros terrenos. Incluso las disciplinas clásicas de la física han demostrado ser capaces de proporcionar nuevas sorpresas.

En el campo del magnetismo, conocido desde la antigüedad, el descubrimiento de imanes líquidos ha abierto nuevas perspectivas. Estos imanes consisten en diminutas partículas de materiales magnéticos como, por ejemplo, ciertos óxidos de hierro, dispersos en un líquido como en los coloides corrientes, las partículas no se separan del líquido. Cada una actúa como un pequeño imán permanente y puede también conferir notables propiedades al líquido, denominado normalmente ferro fluido.

EL LHC: El acelerador LEP estuvo operativo entre 1989 y 1195. Entonces fue desmantelado para dar espacio para un nuevo acelerador en el mismo túnel. El nombre del nuevo acelerador es Gran Colisionador Hadrónico,LHC. LHC, al contrario de LEP, colisionará haces consistentes en protones. Las colisiones, mucho más energéticas,14 TeV, serán posibles reemplazando los electrones y positrones de LEP por protones.

Cientificos Argentinos Colaboradores

DATOS DEL “GRAN COLISIONADOR DE HADRONES”
Inicio de la construcción 1994
Construido por: CERN
Ubicación: Frontera Suiza-Francesa
Costo 6200 millones de euros
Científicos Comprometidos 10.000 científicos de 500 Universidades
Científicos Argentinos Ocho
Países Que Intervienen Cuarenta
Dimensiones 27 Km. de Diámetro
Profundidad Entre 50 y 125 metros
Temperatura de Trabajo 272 Bajo Cero °C
Aceleración Conseguida 99,9999999 de la Velocidad de la luz
Campo Magnético Logrado 100.000 veces el de la Tierra

OBJETIVOS DEL EXPERIMENTO:

  •     Descubrir qué es realmente la masa.
  •     Descubrir qué es la materia oscura (que ocupa más del 95% de la masa del Universo)
  •     Descubrir cuántas son las partículas totales del átomo.
  •     Descubrir la existencia o no de las partículas supersimétricas
  •     Descubrir por qué no hay más antimateria.
  •     Descubrir cómo era la materia durante los primeros segundos que siguieron al Big Bang.

EL BOSON DE HIGG: A una velocidad muy cercana a la de la luz, dos conjuntos de protones circulan en sentido inverso: cuando chocan, se generan, brevemente, partículas enormes. La última que así se descubrió, en el Fermi, en 1995, llamada quark top, tiene 174 veces la masa de un protón. Esas partículas, que ya no existen en la Tierra, existieron en el Universo, en las milésimas de segundo posteriores al Big Bang; las altísimas energías de aquellos instantes son reproducidas por el Colisionador. Así, investigar estas partículas fugaces equivale a investigar los primeros instantes del Universo.

Pero el propósito no es tanto saber qué pasó entonces, sino saber qué pasa ahora: poner a prueba las teorías básicas de la física. Entre aquellas partículas, interesa especialmente una, llamada bosón de Higgs, que tendría entre 130 y 200 veces la masa de un protón: su existencia es requerida por el “modelo estándar”, que, de las cuatro fuerzas consideradas fundamentales en la naturaleza –el electromagnetismo, la gravedad y, en el interior de los átomos, las fuerzas “fuerte” y “débil”–, explica todas menos la gravedad. (ampliar sobre el tema)

Naturaleza de la Materia

Telescopio Espacial Hubble La Gran Ciencia Observacion del Universo

Observación del Universo – El Telescopio Espacial Hubble

Los astrónomos saben desde hace décadas que desde fuera de la atmósfera podrían obtener una visión del universo mucho más clara que desde la Tierra. El centelleo de las estrellas en el cielo nocturno está provocado por perturbaciones atmosféricas que deforman las ondas de luz que llegan hasta nosotros. Mirar las estrellas desde el suelo es como observar el vuelo de las aves desde el fondo de una piscina.

En 1962, la Academia Nacional de Ciencias de los EE.UU. recomendó la construcción de un gran telescopio espacial, y en 1965 y 1969 otros organismos similares se adhirieron a la propuesta. La puesta en órbita de satélites de observación del espacio en 1968 y 1972 acrecentó el interés por el proyecto, pero hasta que no se inventó el transbordador espacial no se dispuso de un medio para poner en órbita un telescopio verdaderamente grande.

La Agencia Espacial Europea se incorporó al proyecto en 1975, en 1977 se obtuvieron los fondos necesarios, y en 1985 el telescopio estaba ya listo.

El proyecto del telescopio espacial fue diseñado para proporcionar las imágenes más claras y de mayor alcance que los astrónomos han visto nunca. Flotando por encima de los efectos enmascaradores de la atmósfera, puede observar los cielos utilizando rayos infrarrojos y ultravioletas, además del espectro visible de la luz. Puede captar objetos demasiado lejanos o demasiado imprecisos para verlos desde la Tierra, tan distantes que la luz que emiten tarda miles de millones de años en llegar hasta nosotros.

El telescopio espacial Hubble puede explorar el pasado, contemplar acontecimientos que sucedieron hace 14.000 millones de años, cuando el universo era joven. Podría distinguir objetos con una precisión 25 veces mayor que la que se disfruta desde la Tierra, y explorar el universo captando diez veces más detalles que los advertidos hasta ahora.

Sin embargo, este ambicioso proyecto, debido a un defecto en el espejo principal, se ha visto obligado por el momento a renunciar a sus objetivos cosmológicos más importantes, si bien está realizando una gran labor en el campo astrofísico. Esta situación, en cualquier caso, se considera momentánea, ya que se prepara para febrero de 1994 una reparación en órbita del aparato, a cargo de una tripulación del transbordador de la NASA. (Fuente: Atlas de lo Extraordinario – Construcciones Fabulosas Tomo II)

Estamos, por definición, en el mismo centro de la región observable. Conocemos casi íntimamente nuestro vecindario inmediato. Al aumentar la distancia, nuestros conocimientos se debilitan, lo hacen rápidamente. Por último llegamos a la oscura frontera: el límite máximo de nuestros telescopios. Allí medimos sombras y buscamos, entre los fantasmales errores de medida, mojones que apenas son más sustanciales. Edwin P Hubble.

La idea era simple. El astrofísico Lyman Spitzer, de Princeton, lo había pensado ya en 1947: pongamos un telescopio encima de la atmósfera y la visión del cosmos será muchísimo más clara. Esto se ha hecho de manera limitada en las décadas de 1970 y 1980, con observatorios como el satélite Explorador Internacional de Ultravioletas (IUE), el Observatorio de Rayos X Einstein y el Satélite de Astronomía de Infrarrojos. Ocurrió a lo grande el 24 de abril de 1990, cuando el Telescopio Espacial Hubble (TEH), preparado a lo largo de tres décadas a un coste de 1.500 millones de dólares, despegó del Centro Espacial Kennedy a bordo de la lanzadera Discovery.

Se esperaba del telescopio, que da una vuelta alrededor de la Tierra cada noventa y cinco minutos, que detectara objetos demasiado poco luminosos para verse desde la Tierra, hiciera observaciones con luz ultravioleta (que absorbe la atmósfera y por lo tanto no es posible observar desde tierra) y, en conjunto, proporcionara imágenes diez veces mejores que las obtenibles mediante telescopios instalados en tierra.

Las esperanzas quedaron defraudadas cuando resultó que el espejo principal de 94,5 pulgadas, descrito en un artículo publicado poco después del lanzamiento como el «reflector astronómico más perfecto que se ha hecho nunca», tenía graves e innecesarios defectos. También los giróscopos eran defectuosos, lo mismo que los paneles solares, que temblaban un poco cuando el telescopio atravesaba la frontera entre el día y la noche.

Se ha polemizado sobre si el problema de los paneles solares es peor que el problema del espejo en forma de «donut», pero el espejo ha merecido mayor atención por un sencillo motivo: el defecto ha sido fácil de percibir.

El problema es la aberración esférica, lo que significa que el espejo es incapaz de enfocar los rayos de luz hacia un único punto porque está demasiado ahuecado, en algo así como 1/50 de un cabello humano; un error lo bastante grande, si se compara con la longitud de onda de la luz, como para proyectar el 85 por 100 de la luz de una estrella en forma de halo borroso, con lo que sólo resta el 15 por 100 para la imagen central.

El defecto incapacita seriamente a dos de los instrumentos del telescopio: la Cámara Planetaria y de Campo Amplio (WF/PC) y la Cámara para Objetos Débiles. Lo peor de todo es que, de haberse prestado atención a las comprobaciones de los espejos primarios y secundarios, se habría detectado la discrepancia.

¡Ay!, el telescopio se lanzó en condiciones defectuosas, con la consecuencia de que su visión ha quedado seriamente comprometida y las imágenes eran borrosas y decepcionantes. Sin embargo, incluso antes de diciembre de 1993, cuando los astronautas salieron al espacio e hicieron una serie de importantes arreglos para corregir la miopía del telescopio, los técnicos informáticos y otros científicos pudieron ajustar los datos teniendo en cuenta la gran aberración. De este modo, al incorrecto y muy difamado Telescopio Espacial Hubble se debe un impresionante número de progresos, entre los que se cuentan:

* la resolución de Plutón y Caronte en objetos separados. La existencia de la luna de Plutón se había deducido, pero verdaderamente nunca se había visto como objeto celeste diferenciado;

* el descubrimiento de chorros, ondas, un frente de choque y una estructura desconocida, que tiene el aspecto de una escala, dentro de la nebulosa que rodea la masiva estrella Eta Carinae, que era la más luminosa del firmamento en 1843;

* el descubrimiento de un anillo elíptico en expansión, compuesto de detritos resplandecientes, alrededor de la supernova 1987A;

* el descubrimiento de una X de polvo más allá del núcleo de la M51, la galaxia del Torbellino. Se cree que indica la localización de un agujero negro cuya masa equivale a millones de soles. El TEH ha descubierto asimismo pruebas de la existencia de agujeros negros en los centros de otras dos galaxias, M32 y M87;

* el descubrimiento, totalmente inesperado, de un cúmulo globular joven en la curiosa galaxia NGC 1275 de Perseus, una sorpresa porque se creía que todos los cúmulos globulares eran viejos;

* imágenes de una distante galaxia que emite ondas de radio, tan joven que la mayor parte de sus estrellas sólo tienen 500 millones de años, alrededor de un 1/10 de la edad del Sol;

* el descubrimiento de una de las estrellas más calientes que se han encontrado nunca, una enana blanca con 200.0000 C, en el corazón de la nebulosa NGC 2440 de la Vía Láctea;

* el descubrimiento en la peculiar galaxia Arp 220 de seis núcleos increíblemente grandes y luminosos donde se forman de estrellas que se cree que son el resultado de la colisión de dos galaxias espirales;

* una detallada fotografía de la Lente Gravitatoria G2237 + 0305. Las lentes gravitatorias fueron anunciadas en primer lugar por Einstein, quien predijo que a grandes distancias las estrellas podrían actuar como lentes, curvando y enfocando la luz de estrellas más lejanas. Si las circunstancias eran las debidas, pensaba Einstein, la luz podría formar un anillo perfecto. Fritz Zwicky dijo que esto no era probable que ocurriera con estrellas, pero que era posible con galaxias. Zwicky tenía razón, pero esta concreta lente gravitatoria es conocida, sin embargo, como la Cruz de Einstein. La fotografía de la página 297 muestra una galaxia situada a 400 millones de años luz de distancia envuelta por las cuatro imágenes de un cuásar más lejano;

* finalmente, el TEH ha permitido a los astrónomos partir de cero en la búsqueda de una nueva y mejorada constante de Hubble al apuntar a un concreto tipo de supernova como la candela estándar. Estas explosiones de las supernovas, que ocurren al estallar una de las estrellas de las parejas de enanas blancas, alcanzan todas el mismo brillo máximo. Además, son visibles a distancias literalmente 1.000 veces mayores de lo que es posible detectar las variables cefeidas. Como indicador distante pueden ser sumamemente útiles; pero sólo si al menos es posible determinar con precisión su brillo absoluto.

La mejor manera de hacerlo sería descubrir variables cefeidas en la misma galaxia donde se han detectado esta clase de supernovas. Las variables cefeidas tienen una utilidad insuperable, puesto que, una vez determinado su ritmo de pulsión, se conoce su brillo absoluto. Entonces, comparando el brillo absoluto con el brillo aparente, los científicos pueden calcular su distancia.

De modo que el TEH se apuntó hacia IC 4182, una poco luminosa galaxia espiral situada a 16 millones de años luz que en 1937 era el emplazamiento de ese preciso tipo de supernova. Y por supuesto se detectaron cefeidas, lo que permitió a los científicos determinar la distancia, y por lo tanto la luminosidad absoluta de la explosión.

En esta lente gravitatoria, que a veces se conoce por la Cruz de Einstein, la luz procedente de un cuásar situado a 8.000 millones de años luz de distancia ha sido curvada por la gravedad de una galaxia mucho más próxima. La luz del cuásar, repetida cuatro veces, rodea la luz de la galaxia como los pétalos de una flor. (imagen a la izquierda: Cruz de Einstein)

Utilizando esta información, un grupo de científicos, entre los que estaban Abhijit Saha, Allan Sandage y Gustav Tammann, anunciaron que la nueva constante mejorada de Hubble se sitúa entre 30 y 60 km/sec/mpc, siendo la cifra más probable la situada en el centro: 45, lo que hace que el universo tenga unos 15.000 millones de años.

Innecesario es decir que la cifra no ha sido unánimemente aceptada. Algunos científicos señalan que la cifra podría inducir a error, pues la IC 4182 puede estar repleta de polvo, lo que haría que sus cefeidas parecieran más oscuras, y por lo tanto más alejadas de lo que en realidad están. El consenso no se ha alcanzado y la edad del universo sigue sin saberse.

Algunos datos màs… (Fuente Consultada: Autonomía Educativa)

El Telescopio espacial Hubble está situado en los bordes exteriores de la atmósfera, en órbita circular alrededor alrededor de la Tierra a 593 kilómetros sobre el nivel del mar, que tarda en recorrer entre 96 y 97 minutos. Fue puesto en órbita el 24 de abril de 1990 como un proyecto conjunto de la NASA y de la ESA. El telescopio puede obtener resoluciones ópticas mayores de 0,1 segundo de arco. Tiene un peso en torno a 11.000 kilos, es de forma cilíndrica y tiene una longitud de 13,2 m y un diámetro máximo de 4,2 metros.

El telescopio es reflector y dispone de dos espejos, teniendo el principal 2,4 metros de diámetro. Para la exploración del cielo incorpora varios espectrómetros y tres cámaras, una de campo estrecho para fotografiar zonas pequeñas del espacio (de brillo débil por su lejanía), otra de campo ancho para obtener imágenes de planetas y una tercera infrarroja. Mediante dos paneles solares genera electricidad que alimenta las cámaras, los cuatro motores empleados para orientar y estabilizar el telescopio y el equipos de refrigeración de la cámara infrarroja y el espectrómetro que trabajan a -180 ºC.

Desde su lanzamiento, el telescopio ha recibido varias visitas de los astronautas para corregir diversos errores de funcionamiento e instalar equipo adicional. Debido al rozamiento con la atmósfera (muy tenue a esa altura), el telescopio va perdiendo peso muy lentamente, ganando velocidad, de modo que cada vez que es visitado, el transbordador espacial ha de empujarlo a una órbita ligeramente más alta.

La ventaja de disponer de un telescopio más allá de la atmósfera radica principalmente en que ésta absorbe ciertas longitudes de onda de la radiación electromagnética que incide sobre la Tierra, especialmente en el infrarrojo lo que oscurece las imágenes obtenidas, disminuyendo su calidad y limitando el alcance, o resolución, de los telescopios terrestres. Además, éstos se ven afectados también por factores meteorológicos (presencia de nubes) y la contaminación lumínica ocasionada por los grandes asentamientos urbanos, lo que reduce las posibilidades de ubicación de telescopios terrestres.

Desde que fue puesto en órbita en 1990 para eludir la distorsión de la atmósfera – históricamente, el problema de todos los telescopios terrestres -, el Hubble ha permitido a los científicos ver el Universo con una claridad jamás lograda. Con sus observaciones, los astrónomos confirmaron la existencia de los agujeros negros, aclararon ideas sobre el nacimiento del Universo en una gran explosión, el Big Bang, ocurrida hace unos 13.700 millones de años, y revelaron nuevas galaxias y sistemas en los rincones más recónditos del cosmos. El Hubble también ayudó a los científicos a establecer que el sistema solar es mucho más joven que el Universo.

En principio se pensó traer el telescopio de vuelta a la Tierra cada cinco años para darle mantenimiento, y que además habría una misión de mantenimiento en el espacio en cada periodo. Posteriormente, viendo las complicaciones y riesgos que involucraba hecer regresar el instrumento a la Tierra y volver a lanzarlo, se decidió que habría una misión de mantenimiento en el espacio cada tres años, quedando la primera de ellas programada para diciembre de 1993. Cuando al poco tiempo de haber sido lanzado, se descubrió que el Hubble padecía de una aberración óptica debida a un error de construcción, los responsables empezaron a contar los días para esta primera misión de mantenimiento, con la esperanza de que pudiera corregirse el error en la óptica.

A partir de que en esa primera misión de mantenimiento se instaló un sistema para corregir la óptica del telescopio, sacrificando para ello un instrumento (el fotómetro rápido), el Hubble ha demostrado ser un instrumento sin igual, capaz de realizar observaciones que repercuten continuamente en nuestras ideas acerca del Universo.

El Hubble ha proporcionado imágenes dramáticas de la colisión del cometa Shoemaker-Levy 9 con el planeta Júpiter en 1994, así como la evidencia de la existencia de planetas orbitando otras estrellas. Algunas de las observaciones que han llevado al modelo actual del universo en expansión se obtuvieron con este telescopio. La teoría de que la mayoría de las galaxias alojan un agujero negro en su núcleo ha sido parcialmente confirmada por numerosas observaciones.

En diciembre de 1995, el telescopio fotografió el campo profundo del Hubble, una región del tamaño de una treinta millonésima parte del área del cielo que contiene varios miles de galaxias. Una imagen similar del hemisferio sur fue tomada en 1998 apreciándose notables similitudes entre ambas, lo que ha reforzado el principio que postula que la estructura del Universo es independiente de la dirección en la cual se mira.

Fuente Consultada: El Universo Para Curiosos Nancy Hathway

La Roca de las Edades: El Hubble -según la NASA-puede fotografiar desde Nueva York una luciérnaga posada en una flor en Sidney, Australia. .Pero el mayor desafío del súper telescopio es llegar a rozar el borde del Universo (tiene un  límite?}, y avanzar hasta el principio de los tiempos.

Hoy los observatorios convencionales levan alhombre unos 2,000 millones de años-luz: es decir, hasta un objeto ubicado a una distancia igual a la recorrida por la luz en 2.000 millones de años (velocidad de la luz: 300,000 kilómetros por segundo). Pero el Hubble puede multiplicar por seis o siete ese alcance: unos 14.000 millones de años luz.

Una especie de túnel del tiempo capaz de llevar al hombre hasta el instante del origen del Universo, sucedido unos 10.000 o 15.000 millones de años. Captada esa explosión fundacional el hombre podrá acercarse al al mas grande y acaso aterrador de los misterios: la Creación.

Un defecto de pulido en el espejo mayor desveló a los astrónomos durante tos tres primeros años de actividad del Hubble, Por fin, una misión de astronautas especializados en óptica distorsión de las imágenes.

El desarrollo cientifico y grandes inventos en el siglo XX Carrera Espacial

Los inventos en el siglo XX:  Desde el siglo XVII, momento en que se sitúa el nacimiento de la ciencia moderna, el progreso científico ha sido continuo. Pero es a lo largo del siglo XX cuando la investigación y la aplicación técnica de los conocimientos científicos se han desarrollado a un ritmo tan acelerado que ha transformado radicalmente la vida de los seres humanos.

En los últimos 20 años se han realizado más descubrimientos que en el resto de la historia de la Humanidad y la incorporación de principios científicos a tecnologías aplicables a la vida cotidiana se está produciendo a una velocidad incomparable con la del pasado.

La primera mitad del siglo veinte se caracterizó por el empleo de las mismas fuentes energéticas que en el siglo anterior, con el desarrollo adicional de la electricidad industrial y la búsqueda del dominio de la energía atómica.

En este periodo, las principales innovaciones tecnológicas fueron: en la industria, la invención creciente de aparatos domésticos, la obtención de nuevos materiales de construcción como el hormigón armado y el cristal, de fibras sintéticas para la producción textil, y de accesorios plásticos; en medicina, el hallazgo de sustancias contra las infecciones, como la penicilina y otros antibióticos; la mejora de los conocimientos en agricultura, alimentación y técnicas de conservación de alimentos; en el transporte la producción en serie del automóvil, que se convirtió en el medio predominante de locomoción, la invención del aeroplano; en los medios de comunicación el desarrollo de la cinematografía así como de la televisión creada a partir del invento del cinescopio en los años veinte.

En su segunda mitad, se ha roto con la división entre la ciencia abstracta y la aplicación técnica, con lo que la investigación científica deriva rápidamente en aplicaciones prácticas, primero en campos reducidos y, posteriormente, en la producción industrial de bienes de consumo. Así, los progresos científicos están cada vez más en el origen de los progresos técnicos, que constituyen uno de los principales motores del crecimiento económico. Además, la ciencia ha ampliado sus campos de investigación. El desarrollo, por ejemplo, de la estadística y de la informática, ha permitido transformar los métodos de cálculo y de análisis, que cada vez son menos lineales, con mayor atención a la multiplicidad de variables, con intervención de lo aleatorio y con análisis complejos. Todo ello permite aplicar métodos científicos también en las ciencias humanas (demografía, lingüística, estadística aplicada al análisis sociológico, etc.).

Desde finales de la Segunda Guerra Mundial los estudios sobre energía atómica procedente del uranio y el plutonio, desencadenaron una acelerada carrera armamentista protagonizada principalmente por Estados Unidos y la Unión Soviética, con la consecuente amenaza para la vida en el planeta que inauguró una época de temores ante una posible destrucción masiva, pero también amplió las posibilidades de desarrollo para la ciencia, con proyectos tecnológicos a gran escala. La Guerra Fría impulsó la carrera espacial y con ella la colocación de satélites artificiales que, aparte de su función militar, revolucionaron la tecnología de telecomunicaciones y prepararon el camino para la exploración del espacio donde se ha producido un logro tecnológico espectacular, al permitir que por primera vez los hombres pudieran abandonar la biosfera terrestre y regresar a ella.

Microelectrónica. En los primeros años de la década de 1950 comenzó a desarrollarse la microelectrónica como efecto de la aparición del transistor en 1948. Sin embargo, la microelectrónica sólo fue utilizada por el público en general hasta los años setenta, cuando los progresos en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la exploración del espacio, llevó al desarrollo del circuito integrado. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque más tarde la microelectrónica se desarrolló con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.

Tecnología computacional. En relación con la microelectrónica fue de gran importancia el surgimiento de la industria computacional; con la caída de los precios y el perfeccionamiento del chip de silicio producido en serie, surgieron las computadoras personales que, al poder colocarse sobre un escritorio sin necesidad de estar vinculadas a una unidad de procesamiento mayor, pudieron realizar muchas de las tareas de las computadoras centrales que eran mucho más caras.

Al contrario del impacto social negativo que algunos temían sobre el empleo laboral, las computadoras personales exigieron una capacidad de producción totalmente nueva y crearon nuevas fuentes de trabajo, en las ventas al menudeo, en la formación y apoyo técnico, en programación de sistemas tanto para el mercado de consumo como para las tareas especializadas para servicio a clientes individuales.

Durante la cuarta generación de computadoras (1982-1989), la medicina y la comunicación lograron un avance significativo. El hardware mejoró sustancialmente con los llamados sistemas circuitales distribuidos, las memorias de burbujas y los discos ópticos, obteniendo imágenes para uso médico y creando poderosísimas herramientas para la auscultación del paciente. En la quinta generación (1990-) o generación de las máquinas inteligentes se utiliza el concepto de inteligencia artificial (lA), con velocidades enormes por segundo.

REDES E INTERNET: El medio de comunicación conocido como Internet, que ha revolucionado el nutricio de las telecomunicaciones gracias a su capacidad de transmitir y obtener información de manera instantánea a través de computadoras personales, comenzó a desarrollarse a finales de los años sesenta, en el contexto de la Guerra fría, como una red informática que a su vez conectaba redes de computadoras de varias universidades y laboratorios de investigación en Estados Unidos, bajo el patrocinio de la Agencia de Programas Avanzados de Investigación (ARPA, de acuerdo a sus siglas en inglés) del Departamento de Defensa de Estados Unidos. En 1989 fue desarrollado World Wide Web por el informático británico Timothv Berners-Lee para el Consejo Europeo de Investigación Nuclear.

En los años noventa, gracias a los avances de la llamada “supercarretera de la información” se ha dado un vertiginoso crecimiento en la cantidad de usuarios de Internet, que ha cambiado de forma sorprendente la comunicación a distancia y ha colaborado a satisfacer las necesidades creadas por el mundo globalizado, al permitir que personas e instituciones puedan compartir información y trabajar en colaboración. El contenido disponible en Internet ha aumentado con gran rapidez y variabilidad, lo que permite encontrar fácilmente cualquier información, además de que posibilita la realización de transacciones económicas de forma segura, lo que ha tratado lluevas grandes oportunidades para el comercio.

Sin embargo, el crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a los riesgos que implica. El aumento de las páginas de Web conteniendo textos y gráficos en los que se denigraba a las minorías étnicas, se fomentaba el racismo o se exponía material pornográfico, ha suscitado fuertes críticas y ha conducido a peticiones de censura dirigidas a los suministradores de Internet para que voluntariamente cumplieran con determinados criterios. Otro elemento negativo de Internet se ha manifestado en la amenaza, hecha realidad en varias ocasiones, de que personas irresponsables inserten “virus” en la red causando graves daños en los equipos computacionales en el ámbito mundial.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letras escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museos, estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuentan con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y listo.

La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza. Internet constituye un instrumento importante para la movilización de capitales, ya que éstos pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Fibras ópticas: En la llamada “era de la información” no puede dejarse de lado el papel que desde los años ochenta ha tenido en diversas aplicaciones el uso de Fibras ópticas de cristal. Dada su capacidad para transmitir imágenes, las fibras ópticas se utilizan mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

En telefonía, las fibras ópticas han sustituido progresivamente a los cables coaxiales utilizados anteriormente; los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias, de manera que ofrecen mayores posibilidades para transportar un volumen mucho mayor de información con mayor velocidad de transmisión.

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Biotecnología. En el desarrollo de la biotecnología la técnica más importante es la ingeniería genética. Ésta se originó a partir de las investigaciones sobre la estructura del ADN realizadas por Francis Crick y James Dewey Watson en 1953. En la década de 1970 se llevó a cabo la transferencia de genes, es decir, la posibilidad de insertar genes de un organismo en otro, técnica de gran potencial que ha traído importantes beneficios en la lucha contra enfermedades como la hemofilia, la diabetes, la hepatitis o el SIDA. En 1973, 20 años después de que james Watson y Francis Chick publicaron el estudio de las bases moleculares del código genético, se insertó ADN extraño en la célula de un huésped, lo cual se conoce como donación de genes. El nacimiento de la oveja Dolly en 1997 fue posible gracias a la combinación del núcleo de una célula adulta de glándula mamaria con un óvulo sin núcleo, un proceso denominado “clonación

Los avances de la ingeniería genética que sin duda son de gran importancia para la ciencia médica, han provocado reacciones contrarias por parte de personas y grupos que advierten sobre los riesgos de orden ético que implica la donación aplicada a los seres humanos, como también se ha cuestionado otra innovación biotecnológica, la fertilización in vitro, debido a lo que puede significar para los valores religiosos la manipulación de embriones humanos, situación que en algunos países ha llevado al establecimiento de restricciones de carácter legal.

La biotecnología se divide en cuatro grandes áreas: alimentación, salud, medio ambiente e industria. En el campo de la salud, uno de los más importantes resultados es la fabricación de insulina humana a partir de una bacteria (1978). La insulina es una hormona proteica que se genera en el páncreas, y por su ausencia el azúcar se concentra en la sangre; a esta deficiencia se le conoce como diabetes, enfermedad que padecen millones de personas en el mundo. Actualmente se buscan nuevos tratamientos para la curación de ciertas enfermedades, sobre todo del cáncer.

MEDICINA: La medicina es un buen ejemplo del desarrollo científico y tecnológico de nuestro tiempo. Los beneficiarios de tales adelantos no dependen del país al que pertenecen, sino de su situación socioeconómica, geográfica o hasta racial. Los estudios e implantación de órganos se deben a la aclaración de los complejos fenómenos de la inmunología, lo cual permite el uso médico de los transplantes de órganos desde 1954, fecha en que se realizó el primer transplante de riñón. En la actualidad es posible el transplante de cualquier órgano.

En 1895 se utilizaron los rayos X para estudiar internamente al paciente. Son los precursores de la imagenología actual, utilizada en la resonancia magnética y nuclear, la tomografía axial computarizada, el ultrasonido diagnóstico y la medicina nuclear en todas sus formas. Técnicas importantes son también la angiografía por sustracción digital y otras de tipo terapéutico como la angioplastía, el marcapaso artificial que se instaló por vez primera en Suecia en 1958, la circulación y la diálisis extra-corpóreas.

Otro gran avance fueron las innovaciones en endocrinología, especial el descubrimiento de la insulina, que permitió salvar a muchos diabéticos de una muerte segura. También fue decisivo el hallazgo de la cortisona, que constituye un poderoso agente antiflamatorio y antialérgico.

Con el descubrimiento de los grupos sanguíneos y su tipificación, la transfusión de sangre se convirtió en un procedimiento seguro y eficaz, completada con el desarrollo de una sustancia -la heparina– que impide la coagulación sanguínea. Comenzaron también a aplicarse terapias efectivas para trastornos neurológicos, como la epilepsia y el mal de Parkinson.

En 1955, el estadounidense Jonas Salk descubrió una vacuna contra la poliomelitis a partir del trabajo con virus muertos. Diez años después, su compatriota Albert Sabin produjo una vacuna segura de virus vivos que sustituyó a la cíe su predecesor, erradicando así la última gran plaga infantil. También se descubrió que el sistema inmune era el causante de la enfermedad por factor RH y responsable del fracaso de los transplantes de órganos, técnica intentada en 1902 por Alexis Carrel pero que cobró fuerza en 1967, cuando el doctor Christian Barnard realizó en Sudáfrica el primer trasplante de corazón.

Los trasplantes, la sustitución de huesos y tejidos, los medicamentos antirrechazo y los avances en general de la tecnología médica -aplicaciones del rayo láser, la computación y la robótica-, junto a los éxitos de la anestesiología, ofrecieron un gran desarrollo de la cirugía y, en especial, de la microcirugía. También apareció la biotecnología moderna, aplicada al desarrollo de sustancias que elevan las defensas en caso de patologías cancerígenas. Sin embargo, la revolución sanitaria ha estado marcada por la desigualdad: sólo un 16% de la población mundial goza plenamente de sus éxitos. Según la Organización Mundial de la Salud, los países industrializados, que representan un 10% de las enfermedades, consumen el 90% de los recursos sanitarios.

El descubrimiento de la fisión del uranio culminó un proceso iniciado en 1896, cuando Henri Becquerel descubrió la radioactividad. Este fenómeno físico-químico mostró que algunos elementos -llamados radiactivos-se transformaban en otros, cercanos a ellos en la tabla periódica. El gran salto cualitativo lo dio el descubrimiento, en 1938, de que la fisión, o sea, la escisión del núcleo de un átomo en otros elementos, libera gran cantidad de energía.

El estudio de esta “transmutación” posibilitó el descubrimiento de la reacción exotérmica que genera la división de un núcleo atómico en otros de menor masa por el choque con ciertas partículas, como el neutrón. Por la fisión nuclear, un núcleo pesado como el Uranio 235 se divide en dos núcleos más ligeros cuando choca con él un neutrón. Al dividirse, el núcleo del uranio libera más neutrones, que colisionan a su vez con otros átomos de uranio, creando una reacción en cadena de gran poder radioactivo y energético.

En la Segunda Guerra Mundial, estos estudios se orientaron hacia su aplicación militar. De este modo, Estados Unidos obtuvo la mayor arma de destrucción masiva: la bomba atómica.


La gran hazaña: pisar la Luna En julio de 1969, la misión espacial estadounidense Apolo 11, llevando a bordo tres astronautas, llegó a la Luna. Para dar sus primeros pasos en el satélite de la Tierra, el hombre hubo de realizar un esfuerzo tecnológico sin precedentes: fabricar un potente cohete y diseñar un módulo lunar capaz de funcionar en el espacio. El astronauta Neil Armstrong camina sobre la superficie lunar.

Efectos negativos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos aspectos destructivos y perjudiciales derivados de la tecnología, y se argumenta que ello es consecuencia de la incapacidad de los gobiernos y las industrias para predecir o valorar los posibles efectos negativos del desarrollo acelerado de los productos tecnológicos.

La contaminación atmosférica, que proviene de muchas fuentes, principalmente de las centrales térmicas que queman combustibles fósiles, de los desastres nucleares y de los tubos de escape de los automóviles, está provocando el “efecto invernadero” o calentamiento de la superficie;

• los recursos naturales, incluso los no renovables como el petróleo, se están usando por encima de sus posibilidades;

• la destrucción masiva de selvas y bosques, que puede tener a largo plazo graves efectos en el clima mundial.

• los gases contaminantes, emitidos por los automóviles y las industrias, están provocando el adelgazamiento de la capa de ozono, lo que conduce a intensificar la radiación ultravioleta con graves peligros para la salud.

• pesticidas como el DDT amenazan la cadena alimenticia;

• la caza y pesca indiscriminadas, así como los derrames de petróleo en el mar, amenazan la supervivencia de especies animales en vías de extinción, como es el caso de la ballena;

• los residuos minerales usados por la industria están contaminando ríos, lagos y mares, así como las reservas de agua subterránea;

• el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen;

• en el aspecto social, la amenaza a ciertos valores, como la calidad de vida, la libertad de elección, la igualdad de oportunidades y la creatividad individual

Los grupos de presión ecologistas. La grave situación producida por los efectos negativos de la tecnología, ha provocado reacciones entre grupos ecologistas cada vez más influyentes, que en diversas formas se han manifestado en contra de las amenazas al medio ambiente y a la vida en el planeta. Aunque desde el siglo XIX se empezó a ejercer presión de estos grupos, logrando en Gran Bretaña la aprobación de leyes que limitaran la contaminación, en la segunda mitad del siglo veinte estos grupos comenzaron a exigir leyes más restrictivas, aunque en ocasiones eran poco realistas.

La acción de los ecologistas ha dada origen a un nuevo fenómeno político, la aparición de los partidos “verdes”, que en diversos países intentan atraer al electorado en relación al tema de la conservación del medio ambiente, concentrando su atención sobre todo en la producción de energía, cuyas industrias han presionado de dos maneras. Por un lado, han criticado a las centrales térmicas convencionales que utiliza combustibles fósiles como el petróleo, bajo el argumento de que los humos generados (compuestos sobre todo de dióxido de carbono y óxidos de nitrógeno) producen “lluvia ácida” que, a su vez, causan graves perjuicios a la vida vegetal y contaminan los ríos, además de que han sido señalados como causantes del efecto invernadero. Por otra parte, los ecologistas han organizado una tenaz resistencia contra el uso de cualquier forma de energía nuclear, sobre todo después del desastre de Chernobil.

Los gases desprendidos por el tubo de escape de los automóviles han sido señalados como otro grave factor de riesgo, con el peligro adicional de que su contenido de plomo puede afectar el desarrollo de las facultades mentales en la población infantil. Como consecuencia, muchos países han aprobado leyes destinadas a reducir gradualmente el contenido de plomo de la gasolina, con el propósito de llegar a eliminarlo totalmente.

Las constantes advertencias de estos grupos a través de los medios de comunicación, han obtenido algunas respuestas de los gobiernos a favor de reducir los contaminantes y cambiar la actitud hacia la vida animal y vegetal, buscando protegerla y detener su explotación indiscriminada.

Una alternativa que ya se ha hecho realidad en muchos países para resolver la problemática del agotamiento de los recursos naturales es el reciclado, que consiste en la transformación de los materiales sólidos o semisólidos que generan las actividades humanas, en nueva materia prima para uso industrial. Tales residuos se dividen en cuatro categorías: agrícolas, industriales, comerciales y domésticos. Además de la ventaja que el reciclado de residuos proporciona a favor de evitar el agotamiento de los recursos de la tierra, favorecen a las empresas industriales al mejorar los procesos de producción y reducir los costos de inversión.

A pesar de todas las alternativas planteadas y puestas en práctica para reducir los efectos negativos del avance tecnológico, aún falta mucho por hacer y se debe insistir una y otra vez en concientizar no sólo a los gobiernos y a las grandes empresas industriales, sino también al ciudadano común que de manera irresponsable abusa de la utilización de recursos naturales como el agua, arroja desperdicios a la vía pública y a los ríos, o por descuido provoca incendios forestales.

Es necesaria una profunda toma de conciencia sobre los graves riesgos que conlleva todo ese tipo de amenazas contra la vida en el planeta; sería paradójico y terrible que ésta llegara a su fin ya no por el estallido de una tercera guerra mundial desencadenada por los gobiernos poseedores de energía nuclear, como tanto se temió durante la Guerra fría, sino por un injustificable y fatal descuido de la especie humana en su conjunto.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

Historia de la Energia Nuclear Descubrimiento Estructura del Atomo

HISTORIA DE LA ENERGIA NUCLEAR Y SUS PROTAGONISTAS

Rayos Catódicos Rayos X Radioactividad I Polonio y Radio
Einstein: E=mc² Radiactividad II Fermi: Pila Atómica Bomba Hiroshima

Cuando el hombre primitivo, frotando entre sí dos trozos de madera seca, obtuvo por primera vez pequeñas y amarillentas llamas, hizo el gran descubrimiento que habría de gravitar por los siglos de los siglos en la historia de la humanidad. Instintivamente realizó la primera liberación de energía: la energía química acumulada por el Sol en forma de luz y calor, y echó las bases de la civilización.

Desde entonces, el progreso del hombre ha dependido de su habilidad para desentrañar y superar los secretos de la naturaleza. Pero el hombre jamás se declara satisfecho de sus conquistas. Lo desconocido constituye en todo momento para él un desafío permanente que le apasiona y estimula. Una ambición suya hondamente sentida fue y sigue siendo descifrar la incógnita de lo misterioso. Y nada más misterioso que la materia. Los filósofos de la antigüedad forjaron sobre ésta definiciones diferentes.

Demócrito de Abdera (470-380 a. de J.C.) afirmó que se componía de “átomos”, partículas diminutas, inalterables e indivisibles, y Dalton (1802), fundador de la teoría atómica, sostuvo muchos siglos después lo mismo. A partir de entonces, el átomo se convirtió en la atracción de una legión de investigadores, pero fue Rutherford quien, en 1911, reveló su enigmática arquitectura.

La materia se compone de moléculas cuyo diámetro es de dos diezmillonésimas de milímetro, y átomos tan increíblemente pequeños que diez millones de ellos podrían colocarse en fila dentro del punto con que termina esta oración. Durante muchos siglos se creyó que el átomo era el constituyente último e indivisible de la materia; mas ahora se sabe que semeja a un sistema solar ultraminúsculo y que se compone de un núcleo, correspondiente al Sol, y de electrones que giran alrededor del núcleo como planetas.

Este, que no es sólido o macizo ni uniforme, está formado por “protones”, partículas cargadas de electricidad positiva; “electrones”, partículas de electricidad negativa que giran como un torbellino en torno al protón, y “neutrones” que carecen de carga eléctrica. Hay tantos átomos en una gota de agua que si todos los habitantes del mundo se pusieran a contarlos rápidamente y lo hicieran día y noche sin interrupción, necesitarían 10.000 años para terminar la cuenta. Todos los átomos poseen una misma estructura general, misteriosamente conservada por ciertas fuerzas internas, pues los protones que están en el núcleo, cargados de electricidad positiva, deberían repelerse unos a otros violentamente, y no lo hacen. Prueba de que existe alguna otra energía aún desconocida que los mantiene unidos, dando estabilidad al núcleo.

Los principios relacionados con la misma fueron intuidos por algunos estudiosos de la antigüedad, que contemplando ciertos fenómenos no supieron explicarlos de otra manera que por la acción de esas fuerzas misteriosas. Se lanzaron algunos de ellos en su búsqueda pero, sin los elementos que la técnica incorporó siglos después a la acción de la ciencia, sólo lograron entrever lo que sería privilegio de los científicos modernos: El llegar a descubrir y luego darle aplicación.

La historia de la energía nuclear consta de etapas, al frente de cada una de las cuales figuran, entre otros, estos nombres: Rutherford, los Curie, Becquerel, Soddy, Geiger, Moseley, Chadwick, Aston, Thomson, Bothe, Becker, Anderson, Blachett, Fermi, los Joliot-Curie, Urey, Murphy, Coc-koroft, Walton, Lawrence, Kapitza, Otto Hahn, Lise Meitner, Frisen, Niels Bohr, Szilard, Tronstad, Wigner, Compton, Wheeler, Allison, Oppenhei-mer, Dunning, Smyth, Oliphant. Y como denominador común de tanto esfuerzo, Einstein, profeta y matemático genial, cuya ecuación “E = mc2, la más célebre ecuación científica (la energía es igual a la masa multiplicada por el cuadrado de la velocidad de la luz), revolucionó la concepción corriente sobre el universo y suministró algo más que la base teórica para la desintegración del átomo.

La nacionalidad de cada uno de esos hombres importa poco, pues la ciencia, para quien las fronteras no existen, es evolucionista y depende de la interasociación de las ideas. La genealogía de los grandes descubrimientos científicos muestra que cada hombre de ciencia hereda un tanto de sus predecesores, al margen de la latitud geográfica en que naciera.

Fue a mediados del siglo XIII cuando aprendió el hombre a transformar la energía liberada de las reacciones químicas en energía mecánica de movimiento: inventó la pólvora. Y resulta irónico que ello tuviera más bien propósitos destructivos que constructivos.

Hacia fines del siglo XVII descubrió la manera de aprovechar la energía de combustión para realizar trabajos mecánicos, transformando agua en vapor, y tuvieron que transcurrir otros des siglos antes de que supiera que la energía liberada de la combustión podía utilizarse directamente, sin los intermediarios de agua y vapor, encendiendo una mezcla de aire y combustible pulverizado, en los cilindres del motor conocido actualmente como de combustión interna.

Este último hallazgo trajo otros muchos tras de sí, el más importante de todos: la liberación de la energía nuclear energía casi inimaginable en la cual radica el secreto del calor solar. Lo indivisible fue dividido y lo imposible fue hecho realidad. Es con la creación del mundo el acontecimierto más extraordinario, porque se descubrió la fórmula para perfeccionarlo o para destruirlo.

La liberación de la energía nuclear persigue cinco objetivos esenciales:
1) transmutar unos en otros casi todos los cuerpos simples, realizando así el sueño ce los alquimistas medievales;
2) dar a la medicina nuevas y poderosas armas para combatir las enfermedades más rebeldes;
3) suministrar nueves procedimientos de investigación que han conducido a grandes progreses en la fisiología de las plantas y animales, incluso del hombre;
4) crear muchas substancias nuevas y producir artificialmente casi todas las materias que se encuentran en la naturaleza;
5) utilizar la energía almacenada en el átomo para usos prácticos de la especie humana.

DESCUBRIENDO LA ESTRUCTURA DEL ÁTOMO: Los primeros años del siglo XX presenciaron el nacimiento de la física nuclear, una nueva ciencia que tendría profundas consecuencias. La estructura del átomo, con los electrones en torno a un diminuto núcleo central, quedó clara hacia 1911-1913, pero sólo gracias a la comprensión de la estructura del núcleo pudieron los científicos dominar la energía encerrada en el corazón del átomo.

El descubrimiento del núcleo reveló que la mayor parte de la masa del átomo y toda su carga positiva están concentradas en una pequeña región central. En 1919, Ernest Rutherford había descubierto que los núcleos de varios elementos contenían partículas con carga positiva idénticas al núcleo de hidrógeno, el átomo más ligero. Postuló entonces que estas partículas eran elementos constituyentes de todos los núcleos y les dio el nombre «protones». Trece años más tarde, la imagen quedó completa cuando el físico británico James Chadwick descubrió el neutrón, una partícula eléctricamente neutra, apenas más pesada que el protón.

Juntos, los protones y los neutrones constituyen los núcleos atómicos de todos los elementos (excepto del hidrógeno, cuyo núcleo se compone solamente de un protón). Los científicos saben actualmente que están ligados por la denominada fuerte fuerza nuclear. En todos los átomos, el número de electrones (que determina las propiedades químicas del elemento) equilibra exactamente el número de protones del núcleo. La función de los neutrones consiste en diluir la fuerza eléctrica repulsiva entre los protones, lo cual contribuye a la estabilidad del núcleo atómico. En los núcleos más grandes, se requieren más neutrones para contrarrestar esta repulsión eléctrica; de esta forma, en los núcleos más pesados, el número de neutrones supera al de protones.

Sin embargo, sólo ciertas configuraciones de protones y neutrones resultan completamente estables. Otras producen núcleos inestables o, en otras palabras, radiactivos. Estos núcleos se transforman en estructuras más estables mediante la emisión espontánea de radiaciones: partículas alfa (núcleos de helio), partículas beta (electrones) y rayos gamma (fotones muy energéticos). En determinadas circunstancias, un núcleo grande, como el de uranio, se puede dividir en dos fragmentos más o menos iguales y unos cuantos neutrones, en un proceso denominado fisión.

La energía liberada en el curso de estas transmutaciones es millones de veces mayor que la que interviene en las reacciones químicas, debido a la fuerza de las uniones nucleares. A fines de los años 30, tras descubrir el fenómeno de fisión en el uranio bombardeado con neutrones, los físicos advirtieron que podían provocar una reacción en cadena, consiguiendo que los neutrones liberados en una fisión provocaran otras, y así sucesivamente. Controlada, esta reacción en cadena constituye una fuente de energía útil; si se descontrola, determina una explosión devastadora.

Los físicos advirtieron muy pronto los potenciales usos y abusos de esta fuente de energía nuclear. Sus sueños se han hecho realidad con la construcción de reactores que generan energía atómica para usos pacíficos; pero también se han hecho realidad sus más terribles pesadillas con la proliferación de armas atómicas.

Utilizando partículas alfa como «proyectiles», los físicos descubrieron que los núcleos contienen protones. En la ilustración, varias partículas alfa dejan su rastro en un detector denominado cámara de nubes, según una fotografía de Patrick Blackett, tomada en Cambridge en 1925. La partícula que está más a la derecha (compuesta por dos neutrones y dos protones) colisiona en el aire del detector con un núcleo de nitrógeno (siete neutrones y siete protones) y es capturada, El núcleo absorbe los dos neutrones y uno de los protones, convirtiéndose así en un núcleo de oxígeno-1718 protones y nueve neutrones), pero rechaza el protón restante. Este sigue su trayectoria, describiendo la ramificación más tenue de la izquierda, mientras que el núcleo de oxígeno avanza muy poco más, dejando un trazo breve y grueso.

El boson de Higgs

El Boson de Higgs

Por otro lado, la idea de transmutar una sustancia en otra no era disparatada, y siglos más tarde los científicos modernos pudieron llevarla a cabo en sus laboratorios.