El efecto fotoeléctrico

Biografia de Heisenberg Werner y Su Aporte en Fisica Cuantica

Biografia de Heisenberg Werner y Su Trabajo en Fisica Cuantica

HEISENBERG, Werner Karl. (Wurzburgo, 1901-Munich, 1976.) Físico alemán. Estudió en la Universidad de Munich como alumno de Amold Sommerfeld, doctorándose en 1923, y trabajó en la de Gotinga con Max Born.

En ambos lugares fue compañero de Wolfgang Pauli. Colaboró con Niels Bohr en Copenhague (1924-27) y fue profesor de la Universidad de Leipzig (1927), director del Instituto de Física Max Planck de Berlín (1942), del de Gotinga (1946) y del de Munich (1958).

En 1925-26 desarrolló una de las formulaciones básicas de la mecánica cuántica, que revolucionó la Física del siglo XX tanto como la teoría de la Relatividad de Einstein, aunque ambas se aplican en campos generalmente no coincidentes: la Relatividad comenzó en entornos macroscópicos y tiene que ver sobre todo con la interacción gravitatoria, mientras la Mecánica cuántica se dirige sobre todo al mundo microscópico, donde dominan las otras tres interacciones fundamentales: la electromagnética y las dos nucleares, fuerte y débil.

Biografia de Heisenberg Werner y Su Trabajo en Fisica Cuantica

Las formulaciones en cuestión son la Mecánica de matrices de Heisenberg, Max Born y Ernst Pascual Jordán, y la Mecánica ondulatoria de Schródinger.

La mecánica de matrices abandona el concepto de partículas que se mueven en trayectorias bien definidas, al estilo del átomo de Bohr, preludio de la Mecánica cuántica, y se apoya en la teoría de matrices infinitas de Hilbert.

Las dos formulaciones de la Mecánica cuántica resultaron ser equivalentes entre sí.

En 1927, Heisenberg formuló su famoso principio de incertidumhre o de la indeterminación, que afirma que es imposible conocer con precisión arbitraria dos de las magnitudes básicas de la Mecánica: la posición y el momento (o la velocidad, si la masa es constante).

De hecho, el producto de las incertidumbres de ambas magnitudes debe ser siempre mayor que ana constante que depende de h, la constante de Planck.

Existen diversas formas equivalentes del principio de incertidumbre. una de las cuales se refiere a otras dos magnitudes: la energía y el tiempo.

El principio causó una gran conmoción entre los físicos, que veían desaparecer la suposición clásica de la precisión absoluta, introduciendo el indeterminismo en las raíces de la estructura del universo y de la materia.

Además, este principio supone la imposibilidad de realizar medidas perfectas, pues el observador, por el mero hecho de medir una de las magnitudes de una partícula, cambia los valores de las demás.

Heisenberg utilizó la Mecánica cuántica para predecir el espectro dual del átomo de hidrógeno y explicar el del helio.

Después de la segunda guerra mundial, intentó, al igual que Einstein, desarrollar una teoría del campo unificado, basada en entidades matemáticas complejas, parecidas a los vectores, aunque su intento no fue coronado por el éxito.

En 1932 se le concedió el premio Nobel de Física, por la Mecánica cuántica de matrices.

También recibió la medalla Max Planck y la de la Universidad de Columbia.

Publicó muchos libros, algunos de tendencia eminentemente filosófica.

Entre ellos destacan: Die physikalischen Prinzipien der Quantentheorie (Principios físicos de la teoría de los cuantos, 1930), La Física nuclear y Relaciones sobre la radiación cósmica (1943), Das Naturbild der heutigen Physik (La imagen de la Naturaleza en la Física actual, 1955), Physics and philosophy (Física y Filosofía, 1958) y Diálogos sobre la física atómica (1972).

• ¿Quien Era Heisenberg Werner?

Werner Heisenberg era el más creativo y ambicioso de todos los físicos de su generación. Un hombre de talentos envidiables que no sólo manejaba con gran facilidad, desde su más tierna infancia, los instrumentos matemáticos, sino que además tocaba el piano con la destreza de un concertista y dominaba el extenso repertorio clásico de obras para este instrumento.

Que podía aprender aparentemente sin ningún esfuerzo lenguas extranjeras y, por ejemplo, en un breve lapso de tiempo estuvo en condiciones de dar conferencias en danés.

Que tenía buenas cualidades como esquiador en bajadas difíciles (lejos de las pistas habilitadas para turistas), pero que ante todo parecía sacar de la galera excelentes ideas físicas.

Produjo, a la edad de veinticuatro años, el corte decisivo que llevó a la física cuántica, y que ya a los veintiséis era profesor de física, que posteriormente se ocupó de nuevos descubrimientos revolucionarios dentro de su ciencia y que, finalmente, antes de cumplir sus cincuenta años se atrevió a hacer publica una fórmula sobre el origen del mundo.

• ►Lo Indeterminado

Aunque esta última tentativa finalmente cayó en el vacío y resultó infructuosa, el nombre de Heisenberg alcanzó la fama más allá de su especialidad, en particular, por su concepto del principio de indeterminación, que con el nombre (menos exacto) de principio de incertidumbre entró en la lengua de todos los días, si bien alude a un aspecto bastante intrincado de la realidad atómica.

El principio de Heisenberg se refiere al hecho de que no todas las propiedades de un objeto de dimensiones atómicas permiten medirse experimentalmente con exactitud.

No se puede, por ejemplo, averiguar el lugar y la velocidad de un electrón al mismo tiempo, como reconoció Heisenberg por primera vez, al reflexionar sobre la pregunta de un compañero, quien quería saber por qué no se podía observar un electrón en un microscopio.

Para poder localizar al electrón —así decía la respuesta de Heisenberg—, debería utilizarse un rayo con una longitud de onda muy pequeña.

Pero dado que, según Planck, su energía es muy alta, en el encuentro entre el rayo y el electrón, el objeto que se pretende estudiar sería expulsado tan violentamente de su órbita y alterada de tal forma su velocidad que sería imposible llevar a cabo con precisión la determinación de su ubicación.

Sin embargo, en este rápido bosquejo, queda expresado sólo muy superficialmente lo que en realidad reconoce el principio de indeterminación de Heisenberg.

Se trata menos de una incertidumbre que de una indeterminación.

Y en verdad no se trata simplemente de que dos propiedades de un electrón (u otros datos de la esfera atómica) no pueden medirse al mismo tiempo; en definitiva, en este caso se supone que las propiedades buscadas tienen un valor concreto independientemente de si alguien quiere medirlas o no.

En realidad, la cosa tal como la reconoció Heisenberg es mucho peor.

A decir verdad, un electrón no posee ninguna propiedad determinable, hasta que alguien dirige su atención hacia él y se ocupa de medirlo.

Los objetos de la realidad atómica son, sin la presencia de la atención del observador, indeterminados, y precisos en la manera en que lo indica (formulado matemáticamente) el principio de indeterminación.

Los electrones mantienen para sí todas las posibilidades abiertas, antes de adoptar —bajo las pautas de un sujeto en la forma del experimentador— cualidades concretas.

Heisenberg realizó sus aportes más importantes en la teoría de la estructura atómica. En 1925 comenzó a desarrollar un sistema de mecánica cuántica, denominado mecánica matricial, en el que la formulación matemática se basaba en las frecuencias y amplitudes de las radiaciones absorbidas y emitidas por el átomo y en los niveles de energía del sistema atómico.

• La belleza de la juventud

Heisenberg desde muy joven padecía de una alergia severa (fiebre del heno), y para poder curarse viajó hasta la isla de Helgoland (casi libre de polen), don de en las dos semanas de su estadía apenas durmió.

Un tercio de sn tiempo lo dedicó a aprender de memoria poemas del Diván oriental de Goethe, otro tercio lo pasó escalando los peñascos de la isla Rolen, y el último tercio del tiempo se ocupó de formular una mecánica de los átomos, que partía de la existencia del quantum de efecto, descubierto Max Planck.

Desde un punto de vista filosófico, Heisenberg había resuelto no utilizar en la descripción de los átomos sino las propiedades que eran accesibles a la observación experimental.

Es decir que en su teoría se podía hablar, po ejemplo, de la frecuencia de la luz que emiten los átomos, porque éste puede medirse, pero no podía tratar, en cambio, de las órbitas de lo electrones, ya que seguían siendo inaccesibles a la observación.

Desde el punto de vista físico, Heisenberg llevó toda su atención a la validez de la teoría de la energía, y su firme sujeción a este pilar casi sagrado de la física clásica le permitió, una noche, «desarrollar de forma coherente y consistente la matemática que tenía en mente» y con la que buscaba expresar las leyes atómicas.

Sobre el papel que tenía delante de sus ojos, de golpe, cobró forma lo que hoy en día se enseña en la universidad come mecánica cuántica y que ha demostrado ser tan exitoso y rico en consecuencias.

Expresado de una manera más sobria, esta experiencia le había permitido ver que las ecuaciones fundamentales sobre los átomos y sus elementos no podían formularse, si se procedía como en la física clásica que trata, por ejemplo, a las magnitudes como energía e impulso de forma numérica.

Heisenberg ve, por el contrario, que el mundo del microcosmos sólo puede concebirse, si se traducen los elementos físicos en cons-liucciones complejas y se le confieren dos dimensiones ordenadas en forma de columnas.

Los expertos designaban a estas construcciones con un concepto de múltiples aplicaciones, el concepto de matrices. Lo sorprendente es que, aunque los matemáticos conocían desde hace tiempo las matrices (en su especialidad) y las utilizaban en sus operaciones, el propio Heisenberg no las conoció hasta que les fueron reveladas por su imaginación.

Lo que Heisenberg logró en Helgoland corresponde al descubrimiento de una nueva forma, algo, que en el campo del arte es designado como un acto de creación.

• El camina hacia Copenhague

Después de este importante paso hacia un nuevo estilo de ciencia, Heisenberg regresó a Gottingen, para publicar las estructuras matemáticas así descubiertas, conjuntamente con su maestro Max Born y su asistente Pascual Jordán, que manejaban las matrices y dieron a la visión intuitiva de Heisenbeg la rigurosa formulación, que hoy encontramos en los manuales de física.

De esta manera surge el así llamado «trabajo de los tres hombres», que se convirtió en el modelo de muchas publicaciones científicas.

Uno de sus sus maestro, coocido como Sommerfeld reconoció de inmediato las dotes de Heisenberg, por lo que lo envió a Gottingen, en el momento en que Borh daba allí sus célebres clases, que pasaron a la historia de la física con el nombre de el «festival Bohr».

Heisenberg estaba entre los oyentes más jóvenes y en la sala gigantesca pero impresionantemente atestada de gente debía parecer bastante insignificante, entre todos los renombrados profesores.

No obstante, muy seguro de sí mismo, planteó una pregunta crítica.

Incluso se atrevió a contradecir a Bohr, y desconcertó un poco al eminente científico.

Biografia de Heisenberg Werner y Su Trabajo en Fisica Cuantica
Heisenberg y Bohr en Copenhague, alrededor de 1932

A partir de ese momento se genera una relacion muy especial de amistad,entre el premio Nobel danés de casi cuarenta años y el estudiante alemán de apenas veintidós, que se convirtió pronto en una colaboración científica extraordinariamente exitosa.

Mas tarde Bohr invita a Heisenberg a Copenhague, y ambos se ocupan de que el instituto Bohr, establecido en esa ciudad, esté en condiciones de poder concebir y comprender la nueva física en sus dimensiones filosóficas.

El mensaje esencial de Copenhague radica en una dualidad de las cosas que por ejemplo, ve la luz como ondas y como partículas; que establece justificadamente en la física el quantum discreto junto a un campo de fuerza continuo; que permite tanto el análisis cualitativo al estilo de Bohr como el pensamiento matemático (cuantitativo) al estilo de Heisenberg.

• La Fisión Nuclear, Fisionó La Amistad

El verdadero drama entre los científicos —y especialmente entre Bohr y Heisenberg— comenzó, cuando en el año 1938 se descubrió la fisión nuclear y los físicos tuvieron de inmediato la certeza de que podrían construirse reactores nucleares y bombas atómicas.

Aunque pronto resultó evidente que con el uranio existente en la naturaleza, no se podían construir bombas atómicas, no cabe duda que de en los primeros años de la guerra algunos físicos alemanes se ocuparon de investigar la cuestión de si y cómo podían fabricarse o enriquecerse variantes del uranio más explosivas (el isótopo con el número el número atómico 235).

La pregunta que aún obsesiona a muchos historiadores es qué papel desempeñó Heisenberg en todo esto y qué estrategia siguió, en general, en su cabeza en relación con la bomba atómica.

¿No la quiso construir o no pudo hacerlo?. ¿Intentó evitar que los alemanes la construyeran? ¿Con qué precisión e intensidad se ocupó de la física de la reacción en cadena necesaria para las explosiones atómicas?.

¿De qué otra manera podía reaccionar Bohr sino con una expresión de terror puro?. Bohr sabía qué ambicioso y genial era Heisenberg, y eso sólo podía querer decir —desde su perspectiva—, que ni las dificultades científicas ni de ningún otro tipo impedirían a su más famoso discípulo alemán recorrer todo el camino hasta dar con el explosivo, y ocuparse a la vez de llegar a la meta antes que el resto los físicos.

En todo caso, tras la conversión, que por temor a la Gestapo se había llevado a cabo mientras paseaban a los largo del puerto de Copenhague, Bohr parece haber vuelto a su casa pálido como un muerto y sumamente inquieto.

Lo concreto es que antes de que pasara mucho tiempo, Bohr huyó de su patria y en los Estados Unidos se puso en marcha el programa que tenía como única meta construir la bomba atómica, antes de que los nazis estuvieran en condiciones de hacerlo.

• Más allá del átomo

Tras la segunda guerra mundial la vida de Heisenberg transcurre por carriles más tranquilos.

Su anterior sueño de poder repetir el salto revolucionario que fue necesario para poder pasar de las dimensiones visibles al mundo de las estructuras atómicas, para pasar ahora del exterior de los átomos a su interior —o sea a las fuerzas que operan en el núcleo— no lo pudo dar.

Tampoco logra algo que pueda compararse con el éxito de su juventud, cuando lleva su atención en otra dirección y busca el elemento conectar entre una teoría del átomo y una teoría del cosmos.

(La era de los medios de comunicación se burla con descreimiento de su «fórmula para el cosmos».)

Heisenberg asume obligaciones políticas como presidente de la Comisión de Física Atómica creada por la comunidad científica alemana.

Fue Miembro de:

Royal Society
Academia Prusiana de las Ciencias
Academia Nacional de los Linces
Academia Pontificia de las Ciencias
Academia de Ciencias de Baviera
Academia de Ciencias de Gotinga
Real Academia de las Ciencias de Suecia
Real Academia de Artes y Ciencias de los Países Bajos
Academia Estadounidense de las Artes y las Ciencias
Academia Sajona de Ciencias (1930-1942)
Academia Alemana de las Ciencias Naturales Leopoldina (desde 1933)
Academia Sajona de Ciencias (desde 1942)
Academia Nacional de Ciencias de los Estados Unidos (desde 1961) 

Fallecimiento: 1º de febrero de 1976, en Múnich, Alemania

Temas Relacionados:

• El Principio de Incertidumbre
• El Conocimiento Científico La Fisica y de la Naturaleza
• Científicos Premio Nobel de Física Mas Influyentes
• Biografia Balseiro Jose Antonio
• Historia de la Fisica Moderna Los Descubrimientos y Evolución
• El Cuanto de Energia:Fisica Cuantica, La Constante de Planck

Enlace Externo:• Heisenberg, imprecisión y revolución cuántica

Fuentes Consultadas:
Aristoteles, Leonardo , Einstein y Cia. de Ernst Peter Fischer Editorial Mamon Troppo

Cientificos Mas Importantes de la Historia y Sus Descubrimientos

Científicos Mas Importantes de la Historia y Sus Descubrimientos

Los primeros intentos de estudiar el mundo desde un punto de vista científico datan del antiguo Egipto y Babilonia.

Sin embargo es a los griegos a quienes debemos las bases de muchos de nuestros pensamientos científicos; la geometría, la astronomía y la química fueron estudiadas frecuentemente de una manera amplia aunque, a veces, las conclusiones a que llegaron fueron desacertadas.

Aristóteles creía (erróneamente) que la Tierra era el centro del Universo y que toda la materia estaba formada de cuatro elementos:  tierra, aire, fuego y agua.

Durante la edad media la química se hizo importante aunque no se la conocía por tal nombre.

Los alquimistas, dedicados a cosas tales como producir oro de otros metales, realizaron individualmente muchos descubrimientos importantes, aunque poco contribuyeron a nuestro conocimiento de la naturaleza de la materia.

La visión del Universo fue alterada radicalmente por las ideas de Copérnico (quien demostró que el centro del sistema solar era el Sol).

El siglo XVII vio un gran florecimiento de la investigación científica. Newton formuló sus leyes del movimiento y de la gravitación universal; en 1662 se fundó en Londres la Royal Society y se crearon en Europa muchos otros cuerpos de científicos organizados, los cuales allanaron el camino para el acercamiento a la ciencia moderna.

Ésta ha evolucionado rápidamente a través de los siglos XVIII y XIX, hasta llegar al profesionalismo especializado de hoy.

A continuación figuran muchos de los más grandes científicos.

juego conocer cientificos

LOS CIENTÍFICOS FAMOSOS (Orden Alfabético)

Adrián,  Edgardo   (1889-       )   Inglés,  fisiólogo.  Renombrado por sus trabajos sobre el cerebro, el sistema nervioso y la función de los nervios.

Agassiz, Juan Luis Rodolfo  (1807-1873)   Suizo, naturalista. Una autoridad en peces, para los cuales, propuso  una  nueva  clasificación.  También  estudió  los glaciares.

Ampére, Andrés María (1775-1836) Francés, matemático. Estudió la electricidad y el magnetismo. Dio su nombre a la unidad de corriente eléctrica.

Appleton, Eduardo Víctor (1892-       ) Inglés, físico, investigó el comportamiento de las ondas de radio de largo alcance, especialmente su reflexión en la atmósfera superior.

Aristóteles (384-322 a. C.) Griego, filósofo. Hizo una clasificación del conocimiento y muchos estudios en. el campo de la metereología, biología y geología.

Arquímedes (287-212 a. C.)  Griego, matemático. Estableció  el principio  de Arquímedes,  dedujo la ley de las palancas e inventó el tornillo de Arquímedes y la polea compuesta o polipasto.

Baekeland, León  Hendrik   (1863-1944)   Belga,  químico. Descubrió  el primer  plástico  termo-endurecido de uso práctico. Esto llevó a la producción de la baquelita.

CIENTIFICOS

Baeyer, Adolfo de (1835-1917) Alemán, químico. Realizó investigaciones acerca de los compuestos del cacodilo; descubrió la eosina, la galeína y la ceruleína. Es también conocido por su teoría de la asimilación del ácido carbónico por las plantas. Premio Nobel de química en 1905.

Becquerel,  Antonio Enrique   (1852-1908).  Francés; descubrió la radiactividad mientras usaba sales de uranio.   También estudió la fosforescencia, la luz y el magnetismo.

Berzelius, Juan Jaoobo (1779-1848). Sueco, químico. Descubrió varios elementos, sugirió el uso de la primera letra de los nombres de los elementos como símbolos químicos y creó la primera tabla segura de pesos atómicos.

Black, José (1728-1799). Inglés, químico. Redescubrió el anhídrido carbónico, al que llamó «aire fijado». Es también conocido por sus teorías sobre el calor latente y sobre el calor específico.

Blackett, Patricio Maynard Stuart (1897-       ). Inglés, físico.   Con la cámara de Wilson fotografió la división de un núcleo del nitrógeno) por una partícula alfa, en un protón y un núcleo de oxígeno.

Bohr Níels (1885- ). Dinamarqués, físico. Extendió grandemente la teoría de la estructura atómica al inventar un método explicativo del espectro de los elementos y su posición en la tabla periódica. Ayudó al desarrollo de la teoría cuántica.

Boussingault, Juan Bautista (1807-1887). Francés, biólogo. Explicó las diferencias básicas entre la nutrición animal y vegetal y demostró que las plantas obtienen nitrógeno de los nitratos del suelo y no de la atmósfera.

Boyle, Roberto (1627-1691). Inglés, químico. Figura destacada en la química del siglo XVII. Sus investigaciones cubrieron un campo muy amplio, incluso la neumática; es mejor recordado por la ley que lleva su nombre.

Bragg, Guillermo Enrique (1862-1942). Inglés, físico. Famoso por su trabajo sobre la estructura de los cristales y los átomos; aplicó el espectrógrafo de rayos X, que desarrollaron juntos él y su nijo G. L. Bragg.

grandes cientificos

Bragg,  Guillermo Lorenzo   (1890-       ).  Inglés,  físico. Trabajó con su padre  Sir G. E. Bragg en la estructura de los cristales.

Brahe, Tycho  (1546-1601). Dinamarqués, astrónomo. Hizo  muchas  observaciones  exactas  de los  planetas y  del  Sol.   Éstas  dieron  la  base  para las  leyes  de Kepler.

Brown, Roberto  (1773-1858). Inglés, botánico.   Fue el primero en observar los movimientos de las partículas suspendidas en un líquido.   En su honor, se llamó a este fenómeno «movimiento browniano».

Buffon, Jorge Luis (1707-1788). Francés, naturalista. Dedicó su vida a describir y clasificar plantas. Notorio por su trabajo monumental, Historia Natural.

Bunsen, Roberto Guillermo Eberardo (1811-1899). Alemán, químico. Con Kirchhoff descubrió el análisis espectral. Es recordado por su invento del mechero de Bunsen, aunque hizo inventos y descubrimientos más importantes.

Cannizzaro, Estanislao (1826-1910). Italiano, químico. Aplicó la hipótesis de Avogadro para la determinación de los pesos atómicos; experimentó en química orgánica y descubrió la reacción que luego llevó su nombre.

Cavendish, Enrique (1731-1810). Inglés, físico y químico. Descubrió el hidrógeno y demostró que cuando éste se quema se produce agua. Realizó la primera’ determinación exacta del peso de la Tierra.

Chadwick, Jaime  (1891-       ). Inglés, físico. Trabajó en la  desintegración  nuclear y   en la  dispersión  de partículas alfa.   El bombardeo de berilo con éstas lo llevó al descubrimiento del neutrón.

Cockcrobt, Juan Douglas (1897- ). Inglés, físico. Trabajó en la transmutación del núcleo atómico mediante el uso de partículas atómicas aceleradas. Consiguió desintegrar el núcleo de litio, con protones de alta velocidad.

Copérnico, Nicolás (1473-1543). Polaco, astrónomo. Descubrió que el Sol es el centro del sistema solar. Comprendió que las estrellas están a una enorme distancia de la Tierra pero pensó que estaban fijadas en una esfera.

Crookes, Guillermo  (1832-1919). Inglés,  químico y físico. Inventó el tubo de Crookes y sugirió la verdadera naturaleza de los rayos catódicos.   Descubrió el talio y estudió la radiactividad.

Curie, María Sklodowska (1867-1934). Nació en Polonia y se radicó en Francia, química. Con su esposo separó el polonio de los minerales uraníferos; luego descubrieron  el radio.

Curie, Pedro (1859-1906). Francés, físico y químico. Trabajó en cristalografía, magnetismo y piezoelectricidad.    Ayudó   al   descubrimiento   del   radio   y   del polonio.

Cuvier, Jorge Leopoldo (1769-1832). Francés, naturalista. Trabajó en anatomía comparativa y propuso una clasificación completa del reino animal. Estableció la paleontología como una ciencia separada.

grandes cientificos

Darwin, Carlos Roberto (1809-1882). Inglés, naturalista. Como resultado de sus observaciones, mientras viajaba alrededor del mundo, propuso la teoría de la evolución. Ésta fue publicada en su libro El origen de las especies.

Davy, Hunfredo (1778-1829). Inglés, químico. Famoso por su invento de la lámpara de seguridad.  Experimentó con el gas hilarante,  aisló el sodio y otros metales reactivos y dio nombre al cloro.

Dewar, Jaime (1842-1923). Inglés, químico. Importante por sus investigaciones sobre el comportamiento de la materia a bajas temperaturas; fue el primero en licuar hidrógeno; inventó el vaso Dewar de vacío.

Eddington, Arturo Stanley (1882-1944). Inglés, químico.   Hizo notables contribuciones a la astrofísica, especialmente  sobre la  estructura  de las   estrellas, y calculó la edad del Sol.

Ehrlich, Pablo (1854-1915). Alemán, bacteriólogo. Descubrió que los microbios absorben colorantes en forma selectiva. Mediante la combinación de colorantes con productos químicos venenosos trató de matar los microbios patógenos.

grandes cientificos del mundo

Einstein, Albert (1879-1955). Nació en Alemania, físico matemático. Escribió la Teoría general de la relatividad para rectificar ideas fundamentales sobre la gravitación, relacionando masa con energía; demostró que el espacio y el tiempo eran conceptos inseparables. Ha realizado trabajos apreciables en la teoría  cuántica.

Faraday,  Miguel   (1791-1867).  Inglés,  físico  y  químico. Descubrió el principio de la inducción electromagnética usado en la dínamo.  También licuó cloro y formuló las leyes de la electrólisis.

Fermi, Enrique    (1901-1954).   Italiano,   físico.   Hizo notables contribuciones a la física nuclear por su investigación sobre substancias radiactivas artificiales y energía  atómica.

Fischer, Emilio Armando (1852-1919). Alemán, químico. Trabajó durante muchos años en la estructura de los hidratos de carbono y proteínas. Fabricó artificialmente algunas substancias naturales como la fructosa y la cafeína.

Flamsteed, Juan (1646-1719). Inglés, astrónomo. Primero en obtener el título de Astrónomo Real en Gran Bretaña, es famoso por haber inventado la proyección cónica de los mapas; realizó muchos adelantos en la mejora de los métodos de observación de las estrellas.

Fleming,   Alejandro    (1881-1955).   Inglés,   bacteriólogo. Renombrado por su descubrimiento  de la  penicilina.

Florey, Howard Gualterio (1889- ). Inglés, patólogo. Con Chain aisló una forma pura y estable de penicilina, adaptable al uso medicinal.

Franklin,   Benjamín   (1706-1790).   Norteamericano, hombre de estado y físico. Fue el primero en probar la  naturaleza   eléctrica   de  los   relámpagos   e   inventó el pararrayos.

Fraunhofer, José de (1787-1826). Alemán, físico. Fue suyo el primer estudio preciso de las líneas oscuras en el espectro del Sol, llamadas líneas Fraunhofer.

Galeno, Claudio (aproximadamente de 130-200). Griego, médico; autor fecundo de obras sobre anatomía y fisiología. Sus trabajos permanecieron en uso durante muchos años.

Galilei, Galileo (1564-1642). Italiano, matemático y astrónomo. Construyó el primer telescopio astronómico práctico, con el cual estudió la superficie de la Luna, la Vía Láctea, el Sol, y muchos de los planetas.

Galvani, Luis (1737-1798). Italiano, físico. Renombrado por su descubrimiento de la electricidad animal (galvanismo). Demostró que tocando el nervio que conduce a un músculo de la pata de la rana, éste se contrae.

Gauss, Carlos Federico   (1777-1855). Alemán, matemático. Ganó gran reputación por su trabajo en las teorías del magnetismo y de los números.

Gay-Lussac, José Luis  (1778-1850). Francés, químico y físico. Notorio por su ley de las proporciones definidas y por sus otros adelantos en química.

Gilbert, Guillermo (1544-1603). Inglés, físico. El padre del magnetismo, descubrió su ley básica, es decir, que polos iguales se repelen. Concibió que la Tierra en sí, actúa como un imán.

Golgi, Camilo (1843-1926). Italiano, histólogo. Descubrió el aparato Golgi, una red nerviosa en la mayor parte de las células; desarrolló muchas técnicas de coloración para el estudio de la estructura del sistema nervioso.

Graham,   Tomás   (1805-1869).   Inglés,   químico.   Famoso por su trabajo en la difusión de los gases. Formuló la Ley de Graham.

grandes cientificos

Guericke, Otón de (1602-1686). Alemán, físico. Inventó la bomba neumática; alcanzó la obtención de vacío y creó también un aparato para la producción de electricidad mediante la fricción de una esfera de sulfuro.

Haeckel, Ernesto Enrique (1834-1919). Alemán, biólogo. Sostuvo la teoría de Darwin y realizó importantes estudios sobre las medusas, corales y esponjas. Realizó las primeras tentativas para hacer el árbol genealógico del reino animal.

Halley, Edmundo (1656-1742). Inglés, astrónomo. Mejor conocido por sus observaciones del cometa que lleva su nombre. También trabajó sobre el magnetismo terrestre los vientos y el movimiento de las estrellas.

Harvey, Guillermo (1578-1657). inglés, médico. Llegó  a  la  fama   por   su   descubrimiento   de  la   circulación de la sangre.

Heisenberg, Werner Carlos (1901- ). Alemán, físico. Notorio por su trabajo sobre estructura atómica, fundó la mecánica cuántica. También formuló el principio de incertidumbre.

Herschel,  Federico  Guillermo   (1738-1822).  Nació en  Alemania,  astrónomo. Desarrolló  un  nuevo   tipo de telescopio reflector. Descubrió  Urano y  dos  de sus satélites.

Hertz, Enrique  (1857-1894). Alemán, físico.  Probó experimentalmente la existencia de las ondas de radio  y  demostró  su   semejanza  con  la  radiación  luminosa.

Hooke, Roberto  (1635-1703). Inglés, físico. Trabajó en  matemáticas,  presión  atmosférica y  magnetismo; también estudió el microscopio y telescopio.

grandes cientificos

Hooker, José Dalton   (1817-1911). Inglés, botánico. Notable por su libro Genera Plantarium que escribió con Bentham y que contiene un nuevo e importante sistema de clasificación de las plantas.

Hopkins, Federico Gowland (1861-1947). Inglés, bioquímico.  Sus investigaciones sobre las proteínas y vitaminas fueron de gran importancia. Su trabajo llevó al descubrimiento de los aminoácidos esenciales.

Humboldt,  Federico  de   (1769-1859).   Alemán,  geógrafo. Exploró América del Sur y Asia Central; hizo muchas observaciones de los fenómenos naturales.

Hunter, Juan (1728-1793). Inglés, cirujano y anatomista. El principal cirujano de su época. Hunter fundó la cirugía científica, donde introdujo muchas técnicas quirúrgicas.

Huxley, Tomás Enrique (1825-1895). Inglés, biólogo. Sostenedor de la teoría de Darwin, Huxley trabajó sobre los vertebrados (especialmente el hombre) y métodos de enseñanza científica.

Huygens, Cristian (1629-1695). Holandés, astrónomo y físico. Descubrió la naturaleza de los anillos de Saturno y uno de sus satélites. Formuló su teoría ondulatoria de la luz e inventó el reloj de péndulo.

Jenner, Eduardo (1749-1823). Inglés, médico. Descubrió   un  método   para   prevenir  la  viruela   por  inoculación.

Joliot,  Juan  Federico   (1900-1958).  Francés,   físico. Con  su  esposa Irene Joliot Curie bombardeó  boro con partículas alfa y produjo la primera substancia radiactiva artificial.

Joule, Jaime Prescott (1818-1889). Inglés, físico. Famoso por su determinación de la equivalencia mecánica del calor y sus investigaciones en electricidad y magnetismo. La unidad de energía tomó su nombre.

Kelvin, Guillermo Thompson (1824-1907). Inglés, matemático y físico. Inventó el galvanómetro de espejo, la balanza Kelvin y el electrómetro de cuadrante. Introdujo la escala Kelvin de temperatura absoluta.

grandes cientificos

Kepler, Juan (1571-1630). Alemán, astrónomo. Sus tres leyes del movimiento de los astros son de gran importancia para la astronomía, y proveyeron las bases de la investigación de Newton sobre la gravitación.

Koch, Roberto (1843-1910). Alemán, bacteriólogo. Descubrió los organismos que causan el ántrax, la tuberculosis y el cólera. Desarrolló también nuevas técnicas de coloración y nuevos métodos de cultivo de bacterias.

Lamarck, Juan Bautista (1744-1829). Francés, naturalista. Muy famoso por su teoría de la evolución (lamarquismo) en la cual la herencia de los caracteres adquiridos —se sostenía— explicaba el origen de las especies.

Laplace, Pedro Simón, de (1749-1827). Francés, matemático. Resolvió  muchos  de los problemas matemáticos del sistema solar.  Dedujo la ley que gobierna el campo magnético que rodea a una corriente.

Lavoisier, Antonio Lorenzo (1743-1794). Francés, químico. Descubrió la naturaleza de la combustión y, finalmente, refutó la teoría del flogisto. También descubrió que los animales necesitan oxígeno para vivir.

grandes cientificos

grandes cientificos

Leeuwenhoek, Antonio de (1632-1723). Holandés, óptico. Con lentes simples hizo muchos descubrimientos importantes, observaciones de microbios, corpúsculos de sangre y tejidos animales.

Liebig, Justo de (1803-1873). Alemán, químico. Mejor conocido por su invento del condensador ds Liebig. Es importante por sus trabajos en agricultura, nutrición de las plantas y química orgánica.

Linneo, Carlos (1707-1778). Sueco, botánico. Muy conocido por su trabajo sobre clasificación de animales y plantas. Escribió el Systema Naturae.

Lister, José (1827-1912). Inglés, cirujano. Introdujo los antisépticos en la ciencia médica y más tarde la cirugía aséptica.

Lovell, Alfredo Carlos Bernardo (1913- ). Inglés, astrónomo. Profesor de astronomía de la Universidad de Manchester, trabajó en varios problemas, especialmente en la exploración de las ondas de radio provenientes del espacio.

grandes cientificos

Lyell, Carlos (1797-1895). Inglés, geólogo. Autor de muchos trabajos de geología, Lyell sostuvo la teoría de que los cambios ocurridos en la corteza de la Tierra en el pasado, se debieron a las mismas causas que los cambios que están teniendo lugar ahora.

Malpighi,  Marcelo   (1628-1694).  Italiano,  médico  y anatomista.   Descubrió los capilares entre las arterias y venas y estudió la embriología de los animales y plantas, anatomía de las plantas  e  histología de los animales.

Manson, Patricio (1844-1922). Inglés, médico. Famoso por sus investigaciones de la medicina tropical, fue el primero en demostrar que los insectos son portadores de algunos de los organismos causantes de enfermedades.

Maxwell, Jaime Clerk (1831-1879). Inglés, físico. Famoso por sus investigaciones matemáticas que condujeron al descubrimiento de las trasmisiones radiales.

Mendel,  Gregorio Juan  (1822-1884). Austríaco, naturalista.  Famoso  por su  trabajo   sobre  la  herencia, pionero del estudio  de sus leyes fundamentales.   Su trabajo forma la base  del mendelismo.

Mendeleiev, Demetrio Ivanovich  (1834-1907). Ruso, químico.  Es   famoso   por   su  formulación   de   la  ley periódica basada en los pesos atómicos.

Michelson, Alberto Abraham (1852-1931). Norteamericano, físico. Determinó la velocidad de la luz y realizó estudios prácticos de las corrientes del éter. Inventó también un interferómetro para el estudio de las líneas del espectro.

Millikan, Roberto Andrews (1868-1935). Norteamericano,  físico.  Determinó   el  valor   de  la   carga   del electrón por medio de un famoso experimento en el que usó gotas de aceite.

Newton, Isaac (1642-1727). Inglés, matemático. Notorio por su trabajo sobre la gravedad. Descubrió las tres leyes básicas del movimiento y la relación entre los colores y la luz. Sus trabajos sobre óptica, problemas matemáticos y astronomía han sido de inmensa importancia.

Oersted, Juan Cristian (1777-1851). Dinamarqués, físico. Precursor de la investigación del electromagnetismo, descubrió el principio básico de que un alambre que lleva una corriente eléctrica es rodeado por un campo magnético.

Ohm, Jorge Simón (1787-1854). Alemán, físico. Se dio su nombre a la unidad de resistencia eléctrica y su ley es de fundamental importancia en electricidad.

Pasteur, Luis (1822-1895). Francés, bacteriólogo.  Sus experimentos sobre fermentación destruyeron el mito de la generación espontánea.  Fundó la ciencia de la bacteriología y descubrió la inmunidad artificial.

Pavlov, Juan Petsovich (1849-1936). Ruso, patólogo. Es notorio por su trabajo sobre la fisiología de la digestión, y los reflejos condicionados.

Planck Max Carlos Ernesto Luis (1858-1947). Alemán, físico. Desarrolló la teoría de los cuantos y también trabajó en termodinámica y óptica.

Priestley, José (1733-1804). Inglés, químico. Descubridor .del oxígeno, no llegó a concebir la verdadera I unción de éste en la combustión y le dio el nombre de «aire desflogistado». También descubrió el amoníaco, el óxido de nitrógeno, el monóxido de carbono y el anhídrido sulfuroso.

Ramón y Cajal, Santiago (1852-1934). Español, histólogo. Es sobresaliente su trabajo sobre el sistema nervioso. Hizo importantes descubrimientos acerca de la estructura y forma de las células nerviosas, especialmente en el cerebro y la espina dorsal.

Ray, Juan (1627-1705). Inglés, naturalista. El más grande entre los primeros naturalistas ingleses, fue principalmente un botánico y señaló la diferencia entre las monocotiledóneas y las dicotiledóneas.

Roentgen, Guillermo Conrado (1845-1923). Alemán, físico. Su  descubrimiento de los rayos X revolucionó ciertos aspectos de la física y la medicina.

Ross,  Ronaldo   (1857-1932).   Inglés,  médico.   Probó que la hembra del mosquito Anopheles transporta el parásito causante de la malaria.

Rutherford, Ernesto (1871-1937). Inglés, físico. Descubridor de los rayos alfa, beta y gamma emitidos por sus substancias radiactivas. Famoso por su teoría sobre la estructura del átomo, fue el primero en realizar la trasmutación de un elemento.

grandes cientificos

Scheele, Carlos Guillermo (1742-1786). Sueco, químico. Descubridor del oxígeno, el cloro y la glicerina, y sintetizó algunos compuestos orgánicos.

Schleiden, Matías Santiago (1804-1881). Alemán, botánico. Con Schwann desarrolló la «teoría celular».

Schrodinger, Erwin (1887). Austííaco, físico. Especialmente notorio por su trabajo en la mecánica ondulatoria.

Schwann, Teodoro  (1810-1882). Alemán, anatomista. Desarrolló,  con Schleiden, la «teoría celular» trabajando en tejidos animales. Descubrió la enzima pepsina.

Simpson, Jaime Young (1811-1870). Inglés, médico. Famoso por su descubrimiento de las propiedades anestésicas del cloroformo; fue el primero en usar anestésicos en cirugía.                                        ,

Smith, Guillermo (1769-1839). Inglés, geólogo. Demostró que es posible determinar la edad de las rocas mediante el estudio de los fósiles contenidos en ellas.

Soddy, Federico (1877-1956). Inglés, físico y químico. Célebre por su descubrimiento de los isótopos y por el  trabajo  realizado  ulteriormente  sobre  éstos.  Con Rutherford   presentó  la   teoría   de  la  desintegración espontánea.

Stores, Jorce Gabriel (1819-1903). Inglés, matemático y físico. Descubrió cómo determinar la composición química del Sol y las estrellas por sus espectros. Formuló también la ley de Stokes de la viscosidad.

Thomson, J. J. (1856-1940). Inglés, físico. Conocido por su determinación del e/m (carga del electrón dividido su masa), y su descubrimiento de que los rayos, catódicos consisten en electrones, o sea, partículas cargadas negativamente.

Torricelli, Evangelista (1608-1647). Italiano, físico. Inventó el barómetro de mercurio y construyó un microscopio simple.

Urey, Haroldo Clayton  (1893-       ). Norteamericano, químico. Fue el primero en aislar agua pesada y de tal manera, en descubrir el deuterío. Es una autoridad en isótopos.

Van’t Hoff, Santiago Enrique  (1852-1911). Holandés, físico.   Su nombre se asocia a una ley relativa al equilibrio  de las reacciones  químicas.  Notable también por sus investigaciones en presión osmótica.

Vesalio, Andrés (1514-1564). Belga, anatomista. Visto como el padre de la anatomía moderna, hizo írmenos descubrimientos mediante concienzudas disecciones. Mucho de su trabajo está contenido en su libro De Corporis Humani Fabrica.

Volta, Alejandro (1745-1827). Italiano, físico. Desarrolló la teoría de las corrientes eléctricas e inventó la primera batería. La unidad de presión eléctrica es conocida como «voltio» en recuerdo de su nombre.

Wallace, Alfredo Kussel (1823-1913). Inglés, naturalista. Con Darwin, publicó un ensayo sobre la teoría de la evolución. La línea Wallace, línea imaginaria, separa las áreas de la fauna asiática de la australiana.

Wegener,   Alfredo   Lotario    (1880-1930).   Alemán, geólogo. Famoso por su tesis sobre el desplazamiento de los continentes.

Wilson, Carlos Thomson Rees (1869-1959). Inglés, físico. Famoso por su invento de la cámara de niebla, la cual ha probado ser de un valor inestimable en los estudios atómicos.

Fuente Consultada:Enciclopedia Juvenil Técnico-Cientifica Editorial Codex Volumen II – Entrada Cientificos

Enlace Externo: Grandes Cientificos

juego conocer cientificos

Científicos Premio Nobel de Física Mas Influyentes

GRANDES FÍSICOS CONTEMPORÁNEOS

Como una extraña ironía, estado normal en el ánimo de la historia, lo que fuera la preocupación principal de los especulativos filósofos griegos de la antigüedad, siguió siendo la preocupación fundamental de los experimentados y altamente tecnificados hombres de ciencia del siglo XX: el elemento constitutivo de la materia, llamado átomo desde hace 25 siglos.

Fue prácticamente hasta los inicios de la presente centuria que la ciencia empezó a penetrar experimentalmente en las realidades atómicas, y a descubrir, de nuevo la ironía, que el átomo, llamado así por su supuesta indivisibilidad, era divisible. Mas aún, ya empezando la presente década, el abultado número de partículas subatómicas elementales descubiertas, hace necesario sospechar que están constituidas por alguna forma de realidad aún menor.

Y a pesar de que en nuestra escala de dimensiones cotidianas la distancia que separa al electrón más externo del centro del átomo es absolutamente insignificante, en la escala de la física contemporánea es inmensa, tanto que recorrerla ha tomado lo que llevamos de siglo, la participación de varias de las más agudas inteligencias de la humanidad y cientos de millones de dólares en tecnología, equipos y demás infraestructura.

En su camino, no obstante, muchos han sido los beneficios obtenidos por el hombre con el desarrollo de diversas formas de tecnología, aunque también se han dado malos usos a las inmensas fuerzas desatadas por las investigaciones. Pero por encima de todo ello, ha prevalecido un común estado del intelecto- el afán por conocer.

El Premio Nobel de Física ha seguido de cerca este desarrollo, y por lo tanto hacer un repaso suyo es recorrer la aventura de la inteligencia, con las emociones y asombros que nunca dejará de producirnos el conocimiento científico.

Por Nelson Arias Avila
Físico PhD, Instituto de Física de la Universidad de Kiev

Albert Einstein cientifico fisico nobel
1. Albert Einsten (1879-1955)
Considerado el padre de la física moderna y el científico más célebre del siglo XX.
Año: 1921 «Por sus servicios a la física teórica, y en especial por el descubrimiento de la
ley del efecto fotoeléctrico».

Realizó sus estudios superiores en la Escuela Politécnica Federal Suiza en Zurich y terminó su doctorado, en 1905, en la Universidad de Zurich. Trabajó, entre 1902 y 1909, en la Oficina de Patentes de Berna; de allí pasó a ocupar el cargo de profesor adjunto en el Politécnico de Zurich. Más tarde ejerció también la docencia en la Universidad de Berlín y en la de Princeton; dictaría, además, innumerables conferencias en universidades de Europa, Estados Unidos y Oriente. Ocupó los cargos de director del Instituto de Física de Berlín y miembro vitalicio del Instituto de Estudios Avanzados de Princeton. En 1905 formuló la «teoría de la relatividad», la cual amplió en 1916 («teoría general de la relatividad»). En 1912 formuló la «ley de los efectos fotoeléctricos». A partir de 1933 se dedicó al estudio de los problemas cosmológicos y a la formulación de la teoría del campo unificado, la cual no pudo culminar exitosamente. Además de su indiscutible aporte a la ciencia, Einstein realizó una labor prominente a favor de la paz y el humanitarismo.

Max Planck cientifico fisico nobel

2. Max Planck (1858-1947)
Recibió el Nobel en 1918 por su descubrimiento de la energía cuántica. Fundador de la física cuántica.
Año: 1918 «Como reconocimiento a los servicios que prestó al progreso de la física con
el descubrimiento
de la cuantificación de la energía».
El principio de la termodinámica fue el tema de la tesis doctoral de Max Planck, en 1879. Había estudiado matemáticas y física en la Universidad de Munich y en la de Berlín, con científicos afamados de la época. Fue profesor e investigador de la Universidad de Kiel y profesor de física teórica en la Universidad de Berlín; así mismo, se desempeñó como «secretario perpetuo» de la Academia de Ciencias. Sus investigaciones más importantes están relacionadas con la termondinámica y las leyes de la radiación térmica; formuló la «teoría de los cuantos», la cual se constituyó en la base de la física cuántica. Fue uno de los primeros en entender y aceptar la teoría de la relatividad y contribuyó a su desarrollo. Trabajó con bastante éxito también en las áreas de la mecánica y la electricidad.

Bardeen cientifico fisico nobel

3. John Bardeen (1908-1991)
Año: 1956 Único físico en ser premiado dos veces con el Nobel (1956 y 1972).
Destaca su desarrollo del transmisor.

Marie Curie cientifico fisico nobel
4. Marie Curie (1867-1934)
Física, química y Nobel de ambas disciplinas. Estudió junto con su marido el fenómeno de la radiactividad.
Año: 1903 «Como reconocimiento al extraordinario servicio que prestaron por sus investigaciones conjuntas sobre los fenómenos de radiación descubiertos por el profesor Henri Becquerel»

Madame Curie estudió física y matemáticas en París. Sus aportes a la física y a la química (cuyo Nobel también obtuvo en 1911) se inician con los estudios que desarrolló -en compañía de su marido Pierre- sobre los trabajos y observaciones de Henri Becquerel respecto de la radiactividad: Marie descubrió que la radiactividad es una propiedad del átomo; además descubrió y aisló dos elementos radiactivos: el polonio y el radio, en 1898 y 1902 respectivamente. En 1906 se constituyó en la primera mujer catedrática en La Sorbona, al ocupar la vacante tras la muerte de Pierre. Tres años más tarde publicó su «Tratado sobre la radiactividad» y en 1944 comenzó a dirigir el Instituto de Radio en París. Murió de leucemia, contraída probablemente en sus experimentos, al exponerse a la radiación.

Rontgen cientifico fisico nobel
5. Wilhelm Conrad Róntgen (1845-1923)
Primer galardonado con el Nobel de Física, en 1901, por su descubrimiento de los rayos X.
Año: 1901: «Como reconocimiento a los extraordinarios servicios que prestó a través del descubrimiento de los rayos X, que posteriormente recibieron su nombre».
Sus aportes al campo de la física abarcan campos diversos desde investigaciones relacionadas con el calor específico, hasta los fenómenos de la capilaridad y la comprensibilidad; se interesó igualmente por el área de la radiación y la polarización eléctrica y magnética. El mayor reconocimiento de la comunidad científica internacional lo obtuvo cuando trabajaba en los laboratorios de la Universidad de Wurzburgo: allí, el 8 de noviembre de 1895, descubrió los que él mismo llamó «rayos X», porque desconocía su naturaleza (también conocidos en la época como «rayos Róntgen»).

Marconi cientifico fisico nobel
6. Guglielmo Marconi (1874-1937)
Nobel en 1909, junto con Ferdinad Braun, por su contribución al desarrollo de la telegrafía inalámbrica.
Año: 1909: «Como reconocimiento a sus contribuciones para el desarrollo de la telegrafía inalámbrica».
Aunque Marconi estudió en Liverno y Bolonia, su formación en el campo de la física y la ingeniería -en las cuales se destacó- fue poco académica. El conocimiento acerca de la producción y recepción de las ondas electromagnéticas –descritas por Hertz– causaron en Marconi una fascinación especial, sobre todo por su convencimiento de que las ondas en cuestión podían utilizarse en las comunicaciones: sus experimentos desembocaron en el nacimiento de la telegrafía sin hilos; inventó, además, la sintonía, el detector magnético, la antena directriz, el oscilador giratorio, las redes directivas y colaboró con sus trabajos a perfeccionar los instrumentos de microondas.

Enrico Fermi cientifico fisico nobel
7. Enrico Fermi (1901-1954)
Año: 1938: Galardonado en 1938. Sus investigaciones en radiactividad lo llevaron a
descubrir las reacciones nucleares.

Millikan cientifico fisico nobel
8. Robert A. Millikan (1868-1953)
Año: 1923: Determinó el valor de carga del electrón y trabajó en los efectos fotoeléctricos.
Recibió el Premio en 1923.

dirca cientifico fisico nobel
9. Paul A. M. Dirac (1902-1984)
Año: 1933: Uno de los fundadores de la mecánica y electrodinámica cuántica. Recibió el Nobel en 1933
junto a Erwin Schródinger.

cientifico fisico nobel Ernst Ruska
10. Ernst Ruska (1906-1988)
Año: 1986: Premio Nobel en 1986 por su investigación en óptica electrónica.
Diseñó el primer microscopio electrónico.

Fuente Consultada:
Revista TIME Historia del Siglo XX El Siglo de la Ciencia

Espectro de la Luz:Concepto Básico y el Espectro de Emisión

Espectro de la Luz:Concepto Básico y el Espectro de Emisión en AStronomia

Cuando se impregna un hilo muy fino de platino con determinadas sales y se pone sobre la llama del mechero, dicha llama adquiere unas coloraciones que sor características del elemento metálico que forma parte de la sal.

Así, todas las sales de sodio dan coloración amarillenta, mientras que las sales de cobre proporcionan a la llama un color azul-verdoso.

También cuando hacemos pasar un rayo de luz por un prisma de vidrio podesmo descomponer a dicho rayo en varios colores, que dependerán de que material emite ese rayo de luz.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Espectro de Luz Visible

Espectro de Luz Visible

La luz solar, o la emitida por un arco eléctrico, parecen blancas, pero un examen más detenido de esta luz blanca revelará que, en realidad, se compone de una mezcla de rayos de diferentes colores.

A veces, en días de sol radiante, es posible ver un espectro de luces de diferentes colores sobre la pared opuesta a una ventana.

Con cuidado, será posible ubicar la fuente de estas luces de colores y con toda seguridad se encontrará que se debe a que un rayo de luz blanca ha sido descompuesto, por refracción en algún borde de vidrio o cristal —el borde de un espejo, tal vez el de un ornamento  de  cristal.

Un efecto similar puede ser observado en una habitación a oscuras si se dirige un delgado haz de luz blanca hacia un prisma triangular.

Si se interpone una pantalla blanca en el camino del haz emergente, se advertirá una serie de bandas de colores.

Con un dispositivo tan rudimentario las imágenes de color se superponen.

Se puede obtener un espectro más satisfactorio de la luz blanca dirigiendo hacia el prisma un haz de rayos paralelos y enfocando los haces emergentes sobre la pantalla.

Para esto se requieren, por lo menos, dos lentes convexas.

Esquema Básico de Espectrógrafo

Esquema Básico de Espectrógrafo: El primer químico que hizo uso este fenómeno con fines analíticos fue el alemán. Bunsen, quien, en colaboración con Kirchhoff, ideó un dispositivo para analiza: los colores emitidos por las sales de los elementos.

Este aparato recibe el nombre de espectroscopio y consiste básicamente en un prisma en el que la luz, procedente de la llama, se dispersa.

La fuente luminosa se ubica en el foco de la primera lente, de modo  que   el   haz   de   luz   blanca   quede compuesto de rayos paralelos.

La pantalla se ubica en el foco de la segunda lente.

Mediante este dispositivo perfeccionado, las bandas de luz de color se separan y es posible distinguir los componentes de la luz blanca: violeta, índigo, azul, verde, amarillo, anaranjado y rojo.

El prisma puede separar los componentes de la luz blanca debido a que éstos poseen distintas longitudes de onda.

De las formas visibles de movimiento ondulatorio, la luz violeta es la de menor longitud de onda y es la más desviada al pasar por el prisma.

La luz roja posee la longitud de onda mayor de todo el espectro visible y es la menos refractada (desviada).

El fenómeno de descomposición de la luz en los siete colores

El fenómeno de descomposición de la luz en los siete colores del arco iris recibe el nombre de dispersión de la luz , y el conjunto de colores se denomina espectro visible de la luz blanca.

Cada una de las luces que componen la luz blanca recibe el nombre de luz monocromática, pues es luz que no se descompone en otras.

Bien sigamos,a hora calentando una sustancia suficientemente, lo que se pondrá en estado de incandescencia.

El color de la luz emitida es siempre característico para cada elemento presente, una especie de huella digital.

Ésta es la base del ensayo a la llama que se emplea en química analítica para identificar los constituyentes de una mezcla.

El sodio emite una luz intensamente amarilla (el color de las luces que a veces se utilizan para iluminación urbana), el potasio da un color lila y el calcio, luz color anaranjado.

También los gases dan luces de colores característicos si se los encierra en un tubo sellado a muy baja presión y se los conecta a una fuente de alta tensión.

Es conocida la luz roja emitida por el neón, que se utiliza en letreros luminosos y faros.

Las luces de color emitidas por sólidos o gases a alta temperatura pueden ser estudiadas más detenidamente por medio de un espectroscopio .

En este aparato la luz es descompuesta en sus componentes y se ve que los diferentes elementos dan espectros constituidos por series de lineas de longitud de onda característica para cada elemento.

Tan bien definidas están estas líneas espectrales que sirven para identificar elementos presentes (análisis espectral) en muestras minúsculas o para detectar impurezas infinitesimales.

En todos los casos observados, la luz procedente de la llama está formada po: un conjunto de rayas luminosas cuyo color y disposición son característicos del elemento químico de la sal que se está analizando.

Así, por ejemplo, toda.; las sales de sodio, ya sean cloruros, sulfatos, carbonatos, etc., producen dos líneas amarillas muy intensas.

Este tipo de análisis o identificación tambié» puede realizarse con elementos gaseosos encerrados en tubos de descarga eléctrica en los que se ha practicado el vacío.

Llamamos espectro visible de emisión de un elemento, al conjunto de colores característicos que emite dicho elemento cuando se altera por el calor o por una descarga eléctrica.

Ejemplo de Algunos espectros de emisión.

Ejemplo de Algunos espectros de emisión.: (Arriba) Espectro del hidrógeno. (Centro) Espectro del mercurio. (Abajo) Espectro de la luz blanca de la lámpara de arco de carbón.

En general, el espectro emitido por sustancias sólidas o líquidas en estado incandescente produce un espectro continuo.

Por el contrario, el espectro emitido por sustancias gaseosas es un espectro de rayas o discontinuo.

De igual forma que se analiza la luz o energía emitida por una sustancia, también puede analizarse la luz o energía que dicha sustancia absorbe.

Al iluminar una sustancia con un conjunto de radiaciones aparecerán en el espectroscopio todas las radiaciones, excepto las absorbidas por la sustancia en cuestión.

El espectro resultante se denomina espectro de absorción.

En el espectro de absorción aparecen rayas oscuras en las mismas zonas en que aparecían las rayas luminosas en el espectro de emisión.

Esto significa que las sustancias emiten las mismas radiaciones que absorben.

APLICACIONES DE ESTE FENÓMENO EN LA ASTRONOMIA:

La luz procedente de cada estrella es originada por incontable número de átomos; unos producen una determinada longitud de onda, y otros otra distinta.

Por consiguiente, el astrofísico necesita un instrumento capaz de descomponer la luz con exactitud en sus diferentes longitudes de onda, o sea en colores.

Una forma de conseguirlo es haciendo pasar la luz procedente de una estrella a través de un prisma de cristal.

Pero, un solo prisma separa muy poco los colores, no siendo en realidad suficiente para suministrarnos todos los resultados que necesitamos.

Debemos descomponer la luz en miles de colores o de longitudes de onda diferentes, y para conseguirlo se precisan instrumentos especiales.

Algunos de ellos, incluyendo el espectroscopio y el espectrógrafo, se describen más adelante.

Cuando la luz de una estrella incide en el ocular de un telescopio, pasa a través de una delgada rendija antes de llegar al instrumento que la descompone en los distintos colores.

Cada, color aparece como una estrecha raya, pues cada uno de ellos ha sido enmarcado por la delgada rendija.

Desde el punto de vista del astrofísico, una de las cuestiones más importantes es que para cada color en particular la raya se proyecta en un lugar determinado y no en otro cualquiera.

El conjunto completo de rayas —denominado espectro de la estrella— puede ser fotografiado y medida la posición exacta de las rayas.

De esta manera el astrofísico conoce la clase de átomos que precisamente’contiene una estrella.

Por este método ha sabido que el Sol y todas las demás estrellas que vemos brillar en el firmamento están constituidos precisamente por la misma clase de átomos que encontramos en la Tierra.

Pero el astrofísico no se conforma con saber cuáles son las diversas clases de átomos presentes en una estrella; también quiere   conocer  las  proporciones  relativas   de   cada  sustancia.

Por ejemplo, si las rayas espectrales indican que una estrella contiene simultáneamente hidrógeno  y oxígeno, quiere saber cuál es más abundante y en qué proporción.

Puede conocerlo midiendo la intensidad de las distintas rayas.

Supongamos que hay 10 veces más de hidrógeno que de oxígeno en una estrella; deberíamos esperar, por lo tanto, que llegasen más radiaciones de los átomos de hidrógeno que de los de oxígeno, lo cual se traduce en que el hidrógeno debería producir rayas más intensas que el oxigeno.

Y esto es lo que sucede en la realidad.

Así, al medir la intensidad de las rayas, el astrofísico puede deducir que el hidrógeno es 10 veces más abundante que el oxígeno, pero no puede asegurar cuántas toneladas de cada gas contiene la estrella en cuestión.

La medición de la intensidad de las rayas espectrales indica al astrónomo la composición de las capas superficiales del Sol y de otras estrellas.

Así se sabe que el Sol contiene 10 veces más hidrógeno que helio.

Los científicos saben también que estas dos sustancias son conjuntamente unas mil veces más abundantes que la totalidad de los restantes elementos.

Las capas superficiales de las estrellas varían considerablemente de unas a otras, pero en un gran número de ellas el hidrógeno y el helio son los principales constituyentes.

Fuente Consultada:
Revista N°32 TECNIRAMA Enciclopedia de la Ciencia y La Tecnologia – Los Espectros –
Secretos del Cosmos Colin A. Roman Colecciones Salvat N°2
Físico-Química Secundaria Santillana Escudero-Lauzurica-Pascual-Pastor

Temas Relacionados:
Las Franjas de Fraunhofer Concepto de Espectroscopia
Radiacion Cuerpo Negro, Explicación del Fenómeno Físico
Fuga de Galaxias Constante de Hubble Alejamiento de las Galaxias
La Astronomia en la Exploracion Espacial y el Estudio del Universo
Modelo Atómico de Bohr Niels
El Cuanto de Energia:Fisica Cuantica, La Constante de Planck
El Disco de Newton-Expliacion de La Descoposicion de la Luz
Objetivos de la Astrofísica: Historia de su Origen

Enlace Externo:La espectroscopía en la astronomía

Historia del Progreso Tecnológico En El Uso de la Energía

Historia del Progreso Tecnológico En El Uso de la Energía

El dominio del hombre sobre la materia creció en proporción directa con el control que adquirió sobre la energía.

El proceso fue larguísimo.

Durante siglos y siglos la humanidad sólo dispuso de la energía muscular, primero la suya propia y luego la de los animales domésticos.

Llegó a depender en tal forma de su ganado que cuando éste era muy especializado y el clima lo obligaba a emigrar, el hombre iba tras él; al final de la edad glacial, cuando el reno siguió los hielos en su retroceso, el hombre marchó a su zaga.

Lo mismo ocurrió con el camello.

Cuando la actividad era medianamente inteligente, la ejecutaban casi exclusivamente los hombres: la pirámide de Keops se edificó en base a la técnica de las multitudes y costó, probablemente, cien mil vidas.

Desde hace casi dos siglos, el hombre aprendió a disponer de cantidades abundantes de energía, e inició una era industrial muy diferente a las otras épocas históricas.

He aquí la lista de los pasos más importantes hacia el dominio de la energía:

CRONOLOGÍA DE LOS AVANCES TECNOLÓGICOS

domesticacion del caballo

4000 a. C. (aprox.): El hombre domestica al caballo.

la rueda

3500 a.  C.  (aprox.) Primeros   vehículos   con   ruedas,   en   Mesopotamia.

3000  a.  C.   (aprox.):   Arado   liviano   para   trabajo   continuo.

27  a.  C.  (aprox.):  Vitrubio   describe   molinos   de   agua,   ruedas a   vapor y  algunas  máquinas. 900  (aprox.):   Los persas utilizan molinos de viento.

1638:   Galileo   publica   sus  estudios  sobre  el   péndulo  y  loe   proyectiles.

1686:   Newton publica   sus  «Principia»,   en   los  que   formula   las leyes  de   la   mecánica   celeste. 1693:   Leibniz  establece  la   ley  de  conservación  y transformación de  la   energía   cinética   en   energía   potencial  y  viceversa.

maquina a vapor

1775:   Máquina de vapor de Watt.

lavoisier

1777: Lavoisier atribuye la energía animal a procesos químicos y compara   la   respiración  con   una   combustión   lenta,

1824:   Carnot  funda   la  termodinámica.

1831:  Faraday descubre  la  inducción  electromagnética.

1843/50: Joule determina   el  equivalente   mecánico  del   calor.

1847: Helmholtz incluye el calor en la ley de conservación de la energía.

1850 a 1854: Kelvin y Clausius formulan la primera y segunda ley de la  termodinámica y descubren  la  entropía.

maxwell electromagnetismo

1860/61: Maxwell y Boltzmann calculan la distribución estadística   de  la  energía  en  los  conjuntos  de  moléculas.

1866:   Primer   cable   eléctrico   submarino   a   través   del   Atlántico.

1876: Otto construye el primer motor de combustión interna a base  de  petróleo.

1879/80: Lámpara eléctrica de filamento carbónico de Edison y  Swan.

1884:  Turbina de vapor de Parsons.

becquerel radioactividad

1896:   Becquerel descubre  la  radiactividad.

albert einstein

1905: Einstein asimila la masa a la energía en una célebre ecuación   que  luego   permitirá   la   transmutación   de   una   en   otra.

1932: Chadwick descubre el neutrón, la partícula más eficaz para el  bombardeo  de  núcleos atómicos.

fision nuclear

1945: Primera reacción de fisión nuclear, con uranio (punto de partida de las centrales electroatómicas y de la propulsión atómica).

1951: Primera reacción de fusión nuclear, con hidrógeno pesado (reacciones termonucleares).

1956:   Primera   turbina   atómica,   en   Calder   Hall   (Gran   Bretaña!.

Temas Relacionados

• Historia de la Energia Nuclear
• Funcionamiento De Una Central Nuclear
• Naturaleza de la Materia
• Las Particulas Subatomicas del Universo
• El Polvo Cosmico y Sus Componentes

Efectos de la Radiación Ultravioleta Sobre la Piel: La Fluorecencia

Efectos de la Radiación Ultravioleta Sobre la Piel

A unos 19 Km. de la superficie de la Tierra, empieza una capa de gas ozono (O3) cuya densidad máxima se encuentra a unos 43 Km. de altura de la Tierra. Esta capa de ozono cumple una función muy importante.

Tiene la propiedad de atrapar los rayos ultravioleta perjudiciales que emite el Sol, y, por tanto, evita que alcancen la Tierra.

Los rayos ultravioleta son radiaciones cuyas longitudes de onda varían desde 120 °A a 3.900 °A (una unidad ángstrom es la diez millonésima de milímetro).

En el espectro electromagnético, los rayos ultravioleta se encuentran entre la luz visible, cuya longitud de onda es mayor, y los penetrantes rayos X, de longitud de onda más corta.

El  Sol   es  un   cuerpo extremadamente caliente.

Está incandescente porque la temperatura de su superficie es de unos 6.000 grados centígrados, y emite una gran cantidad de radiaciones electromagnéticas, la mayoría de las cuales son luz visible.

Emite también rayos infrarrojos y luz ultravioleta.

La luz visible afecta a la parte sensible de la retina del ojo y produce la sensación de luz.

La frontera entre la luz visible y la ultravioleta coincide con la frontera entre lo visible y lo invisible.

La luz visible es inocua, pero la ultravioleta es perjudicial para los tejidos vivos.

El efecto depende de la longitud de onda.

La región ultravioleta comprendida entre 3.000 °A y 1.850 °A es particularmente mortífera, y los rayos correspondientes se utilizan, de hecho, para destruir bacterias patógenas en hospitales y almacenes de alimentos, en donde las bacterias se eliminan antes de que lleven a cabo su acción destructora.

Los rayos ultravioleta de mayores longitudes de onda (3.900 °A a 3.000 °A) pueden tener efectos beneficiosos, en dosis moderadas.

Cuando broncean la piel (bronceado solar), los rayos ultravioletas trasforman algunas sustancias orgánicas complejas de las células epiteliales humanas, tales como el ergosterol, en vitamina D.

A continuación, esta importante vitamina se incorpora al torrente circulatorio sanguíneo, y queda a punto para ser utilizada por el organismo.

Se sabe muy poco acerca de los efectos de los rayos ultravioleta más cortos, sobre la materia viva.

Tales rayos son muy difíciles de controlar experimentalmente, ya que no se puede conseguir que atraviesen el vidrio ni el cuarzo (un mineral trasparente que trasmite algunos rayos ultravioleta).

Esto significa que no se pueden enfocar con instrumentos ópticos como el microscopio ultravioleta.

De todos los rayos ultravioleta, sólo pueden atravesar la barrera del ozono, los relativamente beneficiosos a la vida humana.

La luz ultravioleta altera los tejidos vivos porque lleva la suficiente energía para provocar un cambio químico.

Tanto el bronceado de la piel como la muerte de las bacterias, resultan de cambios en la estructura química de los materiales que hay en el interior de las células vivas.

Normalmente, se requiere una cierta cantidad de energía para el cambio, y la célula es especialmente sensible a la luz ultravioleta de la longitud de onda correspondiente a esta energía (la cantidad de energía trasportada por cualquier radiación electromagnética depende de su longitud de onda).

penetracion de los rayos ultravioletas

espectro de la luz

penetracion de los rayos ultravioleta

La luz ultravioleta se utiliza para destruir bacterias. Se usa la luz de una lámpara de descarga de vapor de mercurio para mantener el ambiente libre bacterias,  en   un   laboratorio   de  fabricación   de   penicilina.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

¿Son tan nocivos los rayos ultravioleta?:

Cuando nos exponemos al sol, la piel reacciona de inmediato co menzando un proceso de defensa que nosotros damos en llamen bronceado.

El «ponerse moreno» no es más que un contraataque de nuestra epidermis a la acción de los rayos ultravioleta, contraataque pensado para concentraciones de ozono bastante superiores a las que existen en la actualidad.

Quien más o quien menos de ustedes, apreciados lectores, habrá sufrido en los últimos años las consecuencias de esta disminución de la capa de ozono en forma de enrojecimientos o quemaduras (espero que no en nada más grave).

Si mi propia experiencia pudiera servirles de ilustración, les contaría cómo allá por la década de los ochenta y contando yo unos veinte años de edad, decidí un buen día no volver a pisar una playa si no era con gorra, camiseta y una buena crema solar, cuando tras un breve adormecimiento de domingo y de no más de 30 o 40 minutos sobre la arena (permítanme una recomendación: si se divierten los sábados hasta bien entrada la noche, no madruguen y se tumben al sol a la mañana siguiente), volvía casa y me miré al espejo: mi cara era lo más parecido a un volcán en erupción de lava que hubiera visto jamás.

Algunos geles y after sun pudieron recomponerme en unos días, pero recuerdo mi sorpresa y mi comentario con todo el mundo respecto a «qué demonios había pasado con el sol».

La misma exposición que años atrás, siendo una niña, sólo me hubiera causado un leve enrojecimiento, esta vez me había provocado una quemadura tan incómoda como sorprendente.

Pocos años después comencé a oír hablar seriamente del adelgazamiento de la capa de ozono.

Efectivamente, nuestra atmósfera ya no nos ofrece la misma protección que hace unos años frente a los rayos ultravioleta.

La melanina que se forma en la hipodermis al recibir estos rayos tarda al menos tres días en transferirse a las capas exteriores de la epidermis, y son éstos los días en que somos más propicios a los eritemas y quemaduras solares.

Otra defensa natural de la piel es la formación de células epiteliales queratinosas para crear un manto de mayor grosor sobre la piel; sin embargo, esta piel no es más que una acumulación de células muertas en su superficie, es decir, se trata de una protección lograda a cambio de aniquilar miles de células y apilarlas en la capa más externa de la piel.

La exposición prolongada al sol constituye una agresión, grave en ocasiones, y los causantes de ella son fundamentalmente los rayos ultravioleta del grupo B.

Los rayos UV-B:

Este tipo de radiaciones solares son.captadas en buena parte por el ozono en las capas más bajas de la estratosfera, es decir, el ozono tiene un papel clave con respecto a la cantidad de UV-B que atraviesa nuestra biosfera y llega hasta nosotros.

Cuando la capa de ozono tenía el espesor correcto, solamente incidía sobre nuestro suelo una fracción de ellos, y éstos eran (y son) los únicos capaces de desarrollar la melanina en la piel.

En la actualidad nos alcanza una proporción desmesuradamente alta de UV-B, y aquíes donde comienzan los verdaderos problemas.

Los rayos UV-B penetran en nuestra piel hasta atravesar la epidermis.

Cuando la cantidad de UV-B es excesiva, nuestro ADN puede dañarse con facilidad.

Estas espirales portadoras del código genético y responsables de que sus células se reproduzcan con idéntica estructura unas a otras, son muy sensibles a las radiaciones y las UV-B parecen «volverlas locas» del mismo modo que lo hace la radiación de tipo nuclear, los rayos X o las emisiones electromagnéticas de gran potencia.

Pensemos que un daño en las hélices en una de sus células orgánicas de ADN puede multiplicarse por mil en cuestión de días, meses o años (otro de los terrores de este peligro es que las lesiones son acumulativas y pueden surgir años después de sufrir el daño).

Esto es lo mismo que decir que la exposición excesiva a los rayos UV-B puede provocar, y de hecho provoca, cáncer de piel y lesiones en las partes más débiles expuestas al sol (ojos, labios, etc.).

La Academia Norteamericana de Dermatología afirma que los rayos UV-B son los responsables de un millón de casos de cáncer de piel, entre ellos el melanoma, el más fatal.

Lamentablemente, los mismos rayos que antaño nos hacían lucir un espléndido color dorado en la piel, son hoy en día fuente de importantes enfermedades.

Pero no sólo la piel sufre daños cuando las radiaciones UV-B la alcanzan en exceso: las cataratas aumentan año a año su iná dencia en nuestra población por el efecto de los rayos ultravioleta.

Aunque no está muy claro el proceso por el cual el cristalino degenera, se comienza a investigar sobre la fotooxidación de las proteínas de la lente ocular bajo el efecto de los radicales libres generados por los UV-B.

En ocasiones, la córnea llega a «que marse» a causa de las radiaciones y esto es especialmente peligroso para las personas que realizan actividades diarias en superficies altamente reflectantes (pescadores, monitores de esquí, alpinistas, etc.) si no toman la precaución de colocarse unas gafas de sol suficientemente oscuras como para neutralizar la reverberación de estos rayos solares.

Lamentablemente, miles de animales que pastan o desarrollan sus actividades en lugares muy soleados y/o en montañas de altura considerable se ven obligados a sufrir todos los años cataratas y graves problemas oculares por culpa de la insensatez humana.

rayos ultravioletas

Los Rayos UV-A y UV-C:

Los rayos UV-A penetran más profundamente en la piel, de modo que alcanzan con facilidad la dermis o capa media.

Sin embargo, no por ello son más nocivos que los UV-B ya que no provocan mutaciones en nuestro código genético.

Sí, en cambio, agotan el caudal del colágeno cutáneo y son por tanto los responsables del envejecimiento prematuro de la piel. Todos conocemos a esos labradores o pescadores que, por la acción de tantas y tantas horas al sol, presentan unas marcadas arrugas en su rostro curtido y tostado.

Pese a su antiesteticismo, estas personas no desarrollaban ningún tipo de cáncer epitelial.

Sin embargo, una nueva polémica surgió sobre estos rayos a partir del mes de junio de 1997, fecha en la que un equipo de investigadores franceses anunció que los UV-A podían ser igual o más peligrosos que los UV-B.

Sus razonamientos eran que los rayos UV-A conforman el 90% de las radiaciones ultravioleta que nos alcanzan, a la vez que afirman que dichos rayos son igualmente dañinos que los UV-B, con la única diferencia de que, según estos investigadores, precisan de un mayor tiempo de exposición para causar lesiones.

El argumento de mayor peso que esgrimen es que los UV-A incrementan el daño producido por los UV-B.

Curiosamente, una semana después de este descubrimiento, los famosos laboratorios de cosmética L’Oréal hicieron pública una nueva molécula (OR-10154) capaz de filtrar a la vez los rayos UV-B y los UV-A con gran eficacia.

Actualmente se encuentra en fase de comprobación ante el comité científico de cosmeto-logía de Bruselas.

No hace falta ser muy avispado para percatarse de que, de ser aprobada su comercialización como es de prever, aportará a la casa francesa L’Oréal pingües beneficios, calculables en miles de millones de francos.

Sin discutir los trabajos de estos investigadores, ni siquiera la que será famosa molécula OR-10154, convendría preguntarse por qué son ahora más peligrosos los rayos UV-A que hace cincuenta años si la capa de ozono jamás ha interferido en su paso hasta la superficie de la Tierra.

En el caso de este espectro, el deterioro de la capa de ozono no influye en absoluto, ni influirá en el futuro, de modo que si bien es cierto que los UV-A son responsables de las arrugas prematuras en personas que se exponen diariamente a varias horas de sol, también lo es que no tienen por qué participar en el desarrollo de tumores ni lesiones cutáneas y/o oculares.

O, al menos, tendrían la misma intervención en estos graves problemas que a principios de siglo o hace quinientos años (épocas en las que todos sabemos que el cáncer era un mal prácticamente desconocido).

Argumentar, por otra parte, que los UV-A multiplican los efectos perniciosos de los UV-B es seguir afirmando, de una manera o de otra, que los rayos dañinos siguen siendo únicamente los UV-B, ya que sin su presencia los UV-A no tendrían oportunidad de multiplicar nada.

Respecto a los melanomas y las cataratas, los UV-B siguen siendo los únicos culpables, y un simple filtro solar «de los de siempre» ofrecería idénticas garantías al respecto.

Otra cosa muy distinta es la prevención del envejecimiento de la piel, en cuyo caso una crema anti-UV-A sería muy beneficiosa y yo se la recomiendo a todo aquel que tenga por costumbre exponer su piel al sol, pero siempre anunciándola como tal y no lanzando al aire amenazantes conclusiones cuyo fin parece ser el de asustar a la población para, tal vez, lograr en un futuro cercano más ventas.

Respecto a los rayos UV-C, recordemos que son captados por el ozono atmosférico en su totalidad.

Gracias a su debilidad, un pequeño tanto por ciento de ozono sería suficiente para no dejarlos pasar, por lo que, de momento, no debemos preocuparnos por ellos. Si el manto de ozono desapareciera en su totalidad, lo de menos serían los UV-C porque en ese caso todos estaríamos pronto muertos.

Cómo protegernos eficazmente:

Las dos únicas maneras de protegerse frente a los rayos ultravioleta de un modo efectivo son el uso de una crema con buena protección solar y el administrar prudentemente el tiempo de exposición al sol.

Cremas con filtro solar:

Es un error pensar que sólo se deben usar cremas de protección solar cuando nos tumbamos en la arena dispuestos a tomar una buena ración de sol.

Efectivamente, ésa es la actividad más peligrosa y en la que será imprescindible tomar todo tipo de precauciones.

Sin embargo, un paseo con los brazos y las piernas descubiertos al sol, o una mañana en las terrazas de verano, pueden acarrearnos del mismo modo desagradables sorpresas en forma de enrojecimientos y quemaduras.

Tengamos en cuenta también que las superficies reflectantes (arena, rocas, baldosas, etc.) hacen las veces de espejo y reverberan los rayos invisibles del espectro solar, pudiendo de este modo llegar a quemarnos sin haber sentido ningún tipo de calor sobre la piel.

Siempre que el día sea soleado (máxime en verano) y usted vaya a salir a la calle con parte de su cuerpo desprovisto de ropa, será conveniente que utilice una crema con protección solar.

Por supuesto, el rostro debe estar también protegido.

Fuente: Como Sobrevivir Al Siglo XXI – Ana P. Fernandez Magdalena – Editorial Robin Book

CÓMO SE GENERA LA LUZ ULTRAVIOLETA:

La Tierra recibe muy poca luz ultravioleta natural, ya que la capa de ozono de la atmósfera bloquea eficazmente su camino. Sin embargo, la luz ultravioleta se puede producir con facilidad en los tubos de descarga de gas.

Una fuente muy considerable de luz ultravioleta es el tubo de descarga de vapor de mercurio.

Si el vapor de mercurio se excita haciendo pasar a su través una corriente eléctrica, emite luz ultravioleta.

Las radiaciones se producen de forma totalmente semejante a la fluorescencia.

En este caso, en vez de recibir energía luminosa, los átomos de gas reciben la energía de una corriente eléctrica (una corriente de menudas partículas cargadas negativamente: electrones).

Cuando se deja de excitar el átomo de mercurio, gran parte de su exceso de energía se libera en forma de luz ultravioleta.

Los tubos de descarga se utilizan, principalmente, para generar luz visible.

Si se cubre la parte interior de un tubo de vapor de mercurio con un material fluorescente, prácticamente toda la luz ultravioleta que se produce en la descarga se convierte en luz visible por fluorescencia.

Estos tubos de descarga se encuentran en la moderna iluminación por tubos, y se escogen los materiales radiactivos de tal forma que proporcionen una excelente luz blanca.

Cualquier radiación ultravioleta no absorbida es detenida por el cristal del tubo. La mayoría de los cristales son opacos a la luz ultravioleta.

Un tubo de descarga se puede adaptar para que emita luz ultravioleta pura, ennegreciendo la parte exterior del tubo, con lo que se detienen las radiaciones visibles.

El tubo de esta lámpara «negra» debe fabricarse, no de vidrio, sino de cuarzo, que transmite con facilidad luz ultravioleta de una serie de longitudes de onda.

Por otra parte, los tubos de descarga no son el único medio de producir luz ultravioleta.

Se puede generar también, como en el Sol, produciendo el suficiente calor, y, entonces, parte de la radiación emitida es luz ultravioleta.

Sin embargo, este método de producción es extraordinariamente ineficaz, puesto que, incluso en cuerpos tan calientes como el Sol, sólo una fracción de la radiación total es luz ultravioleta.

Cuanto más caliente está el cuerpo, mayor es la proporción de luz ultravioleta en la radiación que emite.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

FLUORESCENCIA:

Algunas sustancias, incluso muchas de las que no pueden reaccionar químicamente, cuando se exponen a la luz ultravioleta, absorben una gran cantidad de radiación.

Son, con frecuencia, sustancias fluorescentes.

Tales sustancias absorben la luz ultravioleta e inmediatamente transforman la energía en luz visible.

Los dientes y las uñas son fluorescentes y relucen suavemente (es decir, emiten luz visible), cuando se los ilumina con una lámpara de luz ultravioleta.

Cuando fluorescen diversas clases de materiales emiten luz de diferentes colores.

Ello permite preparar un método para comprobar la autenticidad de obras pictóricas.

Cuando, por ejemplo, fluoresce una pintura que contiene blanco de plomo, emite luz blanca.

Sin embargo, una pintura con blanco de cinc, da una luz fluorescente de color amarillo limón.

Los diversos pigmentos amarillos que se utilizan en las pinturas amarillas dan colores fluorescentes que se diferencian ligeramente; por tanto, cuando se examina cuidadosamente un cuadro con luz ultravioleta, los expertos pueden encontrar información sobre quién lo pintó y cuándo fue pintado.

La fluorescencia tiene lugar cuando los átomos de una sustancia son excitados por la luz ultravioleta. Los átomos tienden a volver cuanto antes a su posición estable, estado no excitado.

Ellos pueden radiar luz exactamente de la misma longitud de onda que la que han absorbido.

Sin embargo, normalmente, en vez de emitir luz ultravioleta de una sola longitud de onda de alta energía, radian dos longitudes de onda de menor energía, que se encuentran, probablemente, en la región visible.

La   luz  ultravioleta   se   produce  en   un  tubo  de descarga   bombardeando  átomos de   mercurio   con   un corriente eléctrica.  La  fluorescencia trasforma  la  luz ultravioleta en luz visible.

Ver: Descubrimiento de los Rayos X

Ver:  Usos de los Rayos Infrarrojos

Fuente Consultada
TECNIRAMA N°57 La Enciclopedia de la Ciencia y la Tecnología (CODEX)

Enlace Externo:

Uso de Energia Atómica o Explosivos en Obras Civiles

Uso de Energía Atómica o Explosivos en Obras Civiles

EL PODER EXPLOSIVO Y ATÓMICO PARA MOVIMIENTO DE TIERRA

Muchas personas creen que la dinamita tiene «mayor poder» que la gasolina y se equivocan: la fuerza de ruptura de la dinamita proviene de que su combustión o conversión en gases es súbita, mientras que la de la gasolina es lenta.

Asi si arrojamos contra un vidrio una pelota de algodón y un trozo de hierro de igual peso, es probable que el segundo lo quiebre, y no el primero, debido a la instantaneidad del impacto.

En otras palabras, la primera diferencia entre un explosivo y un combustible es que en el primero el proceso es violento y en el segundo es pacífico y controlado.

Si echamos un reguero de pólvora por el suelo y encendemos uno de sus extremos, ésta arderá sin explotar.

Para que la pólvora desarrolle su poder explosivo tiene que estar encerrada.

Por eso se habla de la «explosión» de la gasolina cuando se convierte en gases dentro de los cilindros del motor. Pero no todo lo que es capaz de arder es capaz de explotar.

En muchos explosivos la detonación es súbita porque ya contienen en su molécula el oxigeno necesario para la combustión y no necesitan esperar que les llegue de afuera. «Explosión» no implica necesariamente «combustión»; lo único que se requiere es un aumento casi instantáneo del volumen, en general la conversión de un sólido o líquido en gases.

Supongamos por ejemplo que tenemos un litro de explosivo, y que pesa un kilogramo.

Transformado en gases ocuparía unos 1.000 litros a la misma temperatura; pero si arde o de cualquier manera se calienta, como el volumen de un gas se duplica a cada 273°, basta que llegue a unos 1.200° para que un kilo de explosivos genere más de 4.000 litros de gases.

Este volumen, miles de veces mayor que el origina!, ejerce una presión tan violenta si el explosivo está encerrado que el conjunto estalla.

Al aire libre, en cambio, puede observarse sólo  una  combustión  rápida,   es  decir una deflagración.

• ►QUÍMICA DE LOS  EXPLOSIVOS

Se comprende que un explosivo tiene que ser un compuesto bastante inestable para poder descomponerse súbitamente.

Por esta razón muchos de ellos contienen nitrógeno, cuyos átomos tienden a unirse entre sí en moléculas estables de gas y a liberar los otros elementos del compuesto.

El TNT o trinitrotolueno es un ejemplo característico.

El tolueno se obtiene del carbón, (destilación de la hulla) , y se lo combina con ácido nítrico, cuya fórmula es HNO3 y le suministra el oxígeno necesario.

Para llevar a cabo la reacción se añade ácido sulfúrico concentrado que absorbe el agua que se desprende e interrumpiría el ataque del ácido nítrico.

Los esquemas que acompañan esta nota son suficientemente claros para comprender la estructura del trinitrotolueno.

Aunque muchos explosivos son compuestos cíclicos, es decir derivados de anillos bencénicos de seis carbonos, existen explosivos como la nitroglicerina cuya estructura es lineal.

Lo que un explosivo requiere es la posibilidad de descomponerse instantáneamente, a menudo por combustión, y que los productos de la reacción sean gases con el fin de que la presión aumente muchísimo.

Cuando la molécula contiene oxígeno «encerrado» como es el caso del TNT se quema por sí misma y no necesita el aporte del aire

En los cohetes se ensayan actualmente sustancias muy similares a los explosivos sólidos, llamadas «propergoles»; en efecto, el cohete atraviesa una atmósfera enrarecida y necesita llevar su propia carga de oxígeno, sea en un tanque separado o bien formando parte de la molécula del propergol.

La mayor dificultad es obtener una superficie uniforme de combustión. Los propergoles suelen tener forma de cilindros huecos para que dicha superficie de  deflagración  no   varíe  apreciablemente.

INTENTOS DEL USO DE LA EXPLOSIÓN ATÓMICA

Para la utilización pacífica se pensó exclusivamente en las bombas termonucleares, que casi carecen de residuos radiactivos: una bomba de hidrógeno de 100 kilotones (equivalente a 100.000 toneladas de TNT) que explote a 100 metros de profundidad abre un agujero de 350 metros de diámetro, despedaza 500.000 toneladas de roca, y su radiactividad transitoria ocupa sólo una capa de 10 centímetros de espesor. Los técnicos trabajaron para reducir dicha radiactividad al 1 % de esos valores.

explosion nuclear

Los proyectos de utilización pacífica de la energía de fusión atómica forman una lista bastante larga, porque prometen realizar en forma rápida y económica una serie de proyectos actualmente lentos y costosos.

Se habló primero de abrir, mediante explosiones, un puerto artificial en Alaska, al norte del círculo polar para poder explotar valiosos yacimientos de hulla; el trabajo total sólo llevaría un año. Pero quedó momentáneamente postergado.

En cuanto al canal de Panamá, aunque es económicamente beneficioso resulta insuficiente para el intenso tránsito y se realizan grandes trabajos para ampliarlo en su parte más angosta.

Existen dos proyectos para excavar —mediante explosiones termonucleares— otro canal más al sur, esta vez a nivel del mar, es decir, sin esclusas; el más interesante es el trazado en la provincia de Darién, más cerca de Colombia.

La utilización de energía atómica reduciría su costo a la mitad.

Mapa de Centro América

Otro aspecto importante es el de la explotación del petróleo, a veces inaccesible a través de capas de rocas que lo mantienen encerrado, o porque está mezclado con arena y los métodos de bombeo actuales resultan improductivos.

Se calcula que bajo las arenas del lago de Atabasca en el Canadá hay más petróleo que en todo el Medio Oriente y que encerrados entre los estratos de titila de los Estados Unidos se encuentran cantidades fantásticas de petróleo.

Explosiones atómicas adecuadas que generaran calor o que desmenuzaran las rocas liberarían esa riqueza potencial.

Algo similar ocurre con las aguas subterráneas.

A veces se alternan zonas áridas y zonas fértiles simplemente porque el agua no puede llegar a las primeras debido a que una barrera de rocas subterráneas le impide aflorar; se buscaría entonces fragmentar dichas capas rocosas.

Por último se habla de la instalación de centrales eléctricas térmicas. Estas se conocen ya en su forma natural en Nueva Zelandia, donde se explota el agua caliente de los geysers.

Pero se ha proyectado crear núcleos artificiales de calor mediante explosiones atómicas y luego bombear agua para extraer vapor.

Este último proyecto es muy discutido entre los especialistas.

Usos pacíficos de los explosivos nucleares

Al finalizar la segunda guerra mundial, comenzó a pensarse en la gran utilidad que se podría obtener de los explosivos nucleares, aplicados a la ingeniería civil.

La fácil remoción, con dichos medios, de grandes masas de tierra ponía al alcance del hombre la realización de proyectos gigantescos: canales navegables, mares artificiales, nuevas cursos para ríos, etc.

Sin embargo, estas metas, teóricamente accesibles, constituían una quimera irrealizable, por la radiactividad que se desprendería.

Los diversos países que poseían explosivos nucleares, especialmente, Estados Unidos y la U.R.S.S., organizaron comisiones especiales para que estudiasen el problema, tanto desde el punto de vista técnico, para obtener los máximos rendimientos, como el de seguridad de la población (bombas nucleares  «esterilizadas»).

La utilización de explosivos a gran escala para el movimiento de tierras se efectúa desde hace bastante tiempo en la U.R.S.S.; se trata, naturalmente, de explosivos químicos convencionales; pero la experiencia que se obtiene de su manejo es totalmente trasladable a procesos de mayor envergadura, como pueden ser los nucleares.

En la década del 60, los técnicos soviéticos han utilizado tales explosivos químicos en la región de Samarkanda, para modificar ligeramente el curso del río Zeravshan.

En los países occidentales, los primeros anteproyectos con explosivos nucleares datan de 1956, cuando Egipto nacionalizó el canal de Suez.

El peligro que podía correr el comercio inglés hizo pensar al gobierno de Gran Bretaña en abrir un nuevo canal que comunicase el mar Mediterráneo con el mar Rojo, a través de Israel; dicho canal partiría de un punto cercano a la zona de Gaza y desembocaría en el golfo de Aqaba.

En   1957,   la Comisión  Nacional  de   Energía  Atómica  de los   Estados   Unidos   aprobó   un   programa   de   trabajo   con explosivos nucleares, que recibió el significativo nombre de Reja de arado.

En la actualidad, dicho programa ha invertido ya 25 millones de dólares en el estudio de proyectos de ingeniería civil, entre los que se destacan un nuevo tendido de vía férrea a través de las montañas de California, y un nuevo canal para unir los océanos Atlántico y Pacífico, que sustituya al de Panamá, de características antiguas e insuficiente para el tráfico actual.

Dicho canal tendría una anchura de 330 metros, en vez de los 200 actuales; todavía no está decidida su ubicación, pues se citan dos rutas posibles; una de ellas, a través de Panamá, por el Sasardi y el Morti, y la otra, por Colombia, partiendo del golfo de Urabá, en el Atlántico, por el río Atrato y su afluente Truandó.

El movimiento de tierras con medios nucleares resultaba mucho más económico que el realizado con los medios mecánicos clásicos.

Así, una bomba de dos megatones de potencia costaba unos 600.000 dólares; utilizando explosivos químicos se necesitaban 2.000.000 de toneladas, que importan unos 200 millones de dólares.

Hay que señalar que el costo de una bomba nuclear es bastante independiente de la potencia que libera, es decir, una bomba de 20 kilotones no vale el doble que otra de 10 kilotones; el costo de esta última era en su momento de unos 350.000 dólares, y ya se ha dicho lo que vale una de 2 megatones !no llega al doble!), cuya potencia es 200 veces mayor.

De lo anterior, se desprende que un proyecto nuclear es tanto más económico cuanto mayor sea la  obra  a   realizar.

Para dar idea de la potencia de los explosivos nucleares basta saber que una bomba de 100 kilotones libera, al explotar, un billón de calorías, hace subir la temperatura de la zona en 10 millones de grados y da lugar a una onda expansiva de 1.000 megabares de presión.

Como se ha dicho al principio, el único factor que limitó, hasta ahora, el uso de estos potentes medios es la radiactividad desprendida en las explosiones. Pero, también en este aspecto, se ha progresado sensiblemente.

La Comisión Internacional de Protección contra las Radiaciones dá como límite máximo de radiactividad permisible 0,5 Roentgen, que es la dosis recibida normalmente por un paciente al que se le hace una radiografía dental.

Pues bien, este valor de radiactividad se encontraba ya a 100 kilómetros del centro de explosión de las bombas de 100 kilotones utilizadas en el año 1962.

Mediante explosiones controladas la zona  de  radiactividad  peligrosa  se  ha  reducido,  y  los  0,5 Roentgen aparecen a unos 45 kilómetros del lugar de la explosión.

Pero la nube radiactiva (que no abarca un círculo con centro en la explosión, sino que tiene forme de lengua a partir de dicho centro), no sólo se ha reducido en longitud, sino también en anchura, de manera que se logró que el peligro de la radiactividad se reduzca unas 1.000 veces.

En un futuro próximo, se espere conseguir bombas nucleares «esterilizadas», cuya red actividad peligrosa no supere los 4 kilómetros, a contal desde el centro de la explosión.

Minería: Los explosivos nucleares utilizan la energía nuclear para fragmentar la roca.

Dadas las características propias de los elementos nucleares que se emplean como fuente de energía y los riesgos asociados a la implementación de este tipo de tecnología, tanto para las personas como para el medio ambiente, actualmente no se usan en la minería.

Enlace Externo: Preguntas Frecuentes Sobre Los Explosivos

Conceptos Básicos de Electromagnetismo-Historia y Aplicaciones

Conceptos Básicos de Electromagnetismo:
Historia y Aplicaciones

Antetodo se aclara que la explicación sobre este fenómeno físico es sólo descriptivo y tiene como objetivo describir las características mas imporatantes del mismo.

Es una especie de descripción tecnico-histórica para darle al interesado una somera idea de como funciona la naturaleza en lo que respecta a la interacción de campos magnéticos y eléctricos.

De todas maneras es una interesante descripción  orientada a todos los curiosos de la física o para quellos estudiantes principiantes que desean adentrarse en el mundo del electromagnetismo.

Leer con detenimiento estos conceptos básicos, ayudarán de sobremanera a enteder luego las explicaciones matemáticas o conclusiones finales de las experiencias de laboratorio.

Si el lector desea un estudio mas técnico, con las correspondientes deducciones matemáticas que implican un analisis profundo del fenómeno, debería hacer nuevas búsquedas, ya que existen muchos y excelentes sitios que explican muy didacticamente al electromagnetismo.

Conceptos Básicos de Electromagnetismo Historia y Aplicaciones

INTRODUCCIÓN HISTÓRICA:

Los fenómenos conocidos de la electricidad estática y del magnetismo permanente han sido observados durante unos 2500 años. William Gilbert, en Inglaterra, realizó muchas investigaciones ingeniosas en electricidad y magnetismo.

En 1600, publicó De Magnefe, el primer libro concluyente sobre este tema, donde explica muchas de las  semejanzas entre la electricidad y el magnetismo.

Una y otro poseen opuestos (positivo y negativo en electricidad, polo norte y polo sur en electromagnetismo). En ambos casos, los opuestos se atraen y los semejantes se repelen, y también en ambos casos la fuerza de la atracción o repulsión declina con el cuadrado de la distancia.

Nosotros, igual que los primeros observadores, hemos notado semejanzas entre los fenómenos relativos a la electricidad y los relacionados con el magnetismo.

Por ejemplo:
1.   Existen dos clases de concentración eléctrica —más y menos— y dos clases de concentración magnética  —norte y sur.
2.   Tanto en electricidad como en magnetismo, concentraciones del mismo nombre se repelen entre sí; mientras que concentraciones de nombre diferente se atraen mutuamente.
3.   Los efectos eléctricos y los magnéticos se describen  en función  de campos.
4.   En electricidad y en magnetismo, las fuerzas de atracción y repulsión están de acuerdo con la ley inversa  de  los cuadrados.
5.   Cuerpos apropiados pueden electrizarse frotándolos (como cuando se frota un objeto de plástico con una piel); análogamente, cuerpos apropiados pueden ser imantados por frotamiento (como cuando se frota una aguja de acero con un imán).
6.   Ni las cargas eléctricas, ni los polos magnéticos son visibles, ni tampoco los campos asociados, eléctrico o magnético. Tanto en electricidad como en magnetismo, las concentraciones y sus campos se conocen sólo por sus efectos.

Quizás podamos encontrar otras semejanzas. Se puede ver de qué modo ellas llevaron a los primeros científicos a sospechar que la electricidad y el magnetismo estaban íntimamente relacionados, siendo, posiblemente, manifestaciones distintas del mismo fenómeno fundamental.

Cuando en 1800, el físico italiano Alessandro Volta descubrió la primera pila electroquímica útil, los hombres de ciencia tuvieron la primera fuente segura de energía para hacer funcionar circuitos eléctricos.

Todavía no se encontraban pruebas de alguna conexión entre los fenómenos eléctricos y magnéticos.

Por consiguiente, en la primera mitad del siglo XIX los sabios opinaban que «a pesar de las semejanzas aparentes entre la electricidad y el magnetismo, estos dos fenómenos no están relacionados entre sí».

Esta era la situación de 1819 cuando un profesor de ciencias danés, llamado Hans Christian Oersted, hizo una observación de gran importancia en este campo de la Física.

Oersted, al parecer, había considerado y buscado un enlace entre la electricidad y el magnetismo.

Fisico Oerster

Hans Christian Oersted

De acuerdo con uno de sus alumnos, Oersted estaba utilizando una batería de las pilas voltaicas primitivas durante una de sus clases.

En aquellos días, las baterías eran caras, difíciles de manejar y no duraban mucho tiempo.

Oersted deseaba usarla mientras fuera posible, así que colocó un alambre paralelo arriba de una brújula y cerró el circuito.

Posiblemente, Oersted trataba de demostrar a sus alumnos que la corriente eléctrica y el comportamiento de la brújula no estaban relacionados.

Para su sorpresa, cuando cerró el circuito, la aguja de la brújula se movió y osciló a una posición que ya no era paralela al alambre.

Oersted había tropezado con el fenómeno de que una corriente eléctrica está rodeada de un campo magnético.

Además, tenía su mente alerta y con el pensamiento abierto para reconocer un fenómeno inesperado   y   atribuirle   la   importancia   que   merecía.

Oersted efectuó muchos experimentos con estos nuevos fenómenos y, al principio del año siguiente, publicó una pequeña comunicación describiendo sus observaciones.

Las noticias científicas viajan, en general, con rapidez y no pasó mucho tiempo cuando un gran número de investigadores capaces realizaban experiencias sobre electromagnetismo.

Entre ellos estaban Michael Faraday en Inglaterra, André Ampere en Francia y William Sturgeon, quien fabricó el primer electroimán con núcleo de hierro en 1823.

Con toda seguridad el descubrimiento de Oersted, en su aula, fue un paso importante en el desarrollo de  los conceptos del electromagnetismo.

Una de las razones de que los efectos magnéticos de una corriente eléctrica fueran tan importantes es que introdujeron una nueva clase de fuerza.

Todas las observaciones previas con cualquier tipo de fuerzas estaban relacionadas con acciones sobre la recta entre los cuerpos que producían la fuerza. Así, las fuerzas gravitacionales están siempre en la línea recta que une las dos masas; de este modo se comportan también las fuerzas atractivas y repulsivas entre cargas eléctricas y entre imanes.

Pero aquí, existía una fuerza donde la acción era perpendicular a la recta que une el alambre y la aguja de la brújula.

Cuando Oersted colocó una corriente arriba y paralela a la brújula, la aguja giró alejándose de su posición paralela al alambre.

PARTE I: IMANES , MAGNETISMO Y CORRIENTES INDUCIDAS

En la Naturaleza existe un mineral, llamado magnetita por haber sido descubierto en la ciudad griega de Magnesia, que tiene la propiedad de atraer las limaduras de hierro.

Este fenómeno se denomina magnetismo y los cuerpos que lo manifiestan se llaman imanes. Un imán tiene dos polos, uno en cada extremo, que llamanos Norte y Sur

Si tomamos un imán, que puede girar horizontalmente alrededor de su punto medio, y le acercamos un polo de otro imán se observa que los polos del mismo nombre se repelen y los de nombre distinto se atraen.

Al dividir un imán en varios trozos, cada uno de ellos, por pequeño que sea, posee los dos polos.

Este comportamiento se explica suponiendo que los imanes están formados por una gran cantidad de minúsculos imanes ordenadamente dispuestos.

Así, al frotar un trozo de hierro con con imán se ordenan los pequeños imanes que contiene el trozo de hierro, de tal modo que la acción magnética no se neutraliza entre ellos.

El trozo de hierro así tratado manifiesta sus propiedades magnéticas y constituye un imán artificial.

Hoy se sabe que los imanes están formados por minúsculos imanes moleculares originados por el giro de electrones que dan lugar a corrientes eléctricas planas, y según el sentido de giro presentan una cara norte o una cara sur.

La región del espacio sensible a las acciones magnéticas se llama campo magnético.

Para visualizar el campo magnético, Michael Faraday (1791-1867), de quien hablaremos mas abajo, esparció limaduras de hierro sobre un papel colocado encima de un imán.

Observó que las limaduras se situaban en líneas cerradas; es decir, líneas que parten de un polo del imán y que llegan al otro polo.

limaduras de hierro en un imán

Además, las líneas no se cortan. Estas líneas se llaman líneas de campo o de fuerza  y, por convenio, se dice que salen del polo norte y entran en el polo sur.

No existe una expresión matemática sencilla que sirva para determinar el campo magnético en las inmediaciones de un imán, pero podemos decir que:

•  El campo magnético se reduce a medida que nos alejamos del imán.
•  El campo magnético depende del medio en el que situemos al imán.

Observemos el comportamiento de la brújula, frente al campo mágnetico que produce nuestro planeta.

El núcleo de la Tierra está compuesto  por una aleación de hierro y níquel. Este material es muy buen conductor de la electricidad y se mueve con facilidad por encontrarse en estado líquido.

La Tierra actúa como un imán: Campo magnético terrestre. Si tomamos una aguja imantada y la dejamos girar libremente, se orientará siempre en una misma dirección norte-sur.

De ahí que al polo de un imán que se orienta hacia el norte geográfico le denominemos polo norte, y al otro polo del imán, polo sur.

Esto quiere decir que la Tierra se comporta como un enorme imán.

Y es debido a que a medida que la Tierra gira, también lo hace el hierro fundido que forma su núcleo.

El planeta Tierra es como un gran imán con dos polos.

 Los polos geográficos y los polos magnéticos de la Tierra no coinciden, es decir, que el eje  N-Sgeográfico no es el mismo que el eje N-S magnético.

EXPLICACIÓN DE LAS EXPERIENCIAS:

Como parte de una demostración en clase, colocó la aguja de una brújula cerca de un alambre a través del cual pasaba corriente.

experimento de Oerster

Experimento de Oerster

La aguja dio una sacudida y no apuntó ni a la corriente ni en sentido contrario a ella, sino en una dirección perpendicular. 0rsted no ahondó en su descubrimiento, pero otros sí se basaron en él, y concluyeron:

1a-Antes de conectar la corriente eléctrica la aguja imantada se orienta al eje N-S geográfico.

1b-Al conectar el circuito eléctrico, la aguja tiende a orientarse perpendicularmente al hilo.

2a– Cambiamos el sentido de la corriente eléctrica invirtiendo las conexiones en los bornes de la pila.

Igual que en el primer experimento, antes de conectar la corriente eléctrica la aguja imantada se orienta al N-S geográfico.

Pero al conectar ahora el circuito eléctrico, la aguja se orienta también perpendicularmente al hilo, aunque girando en dirección contraria a la efectuada anteriormente.

Las experiencias de Oersted demuestran que las cargas eléctricas en movimiento (corriente) crean un campo magnético, que es el causante de la desviación de la brújula; es decir, una corriente eléctrica crea a su alrededor un campo magnético.

•  La dirección del campo magnético depende del sentido de la corriente.
•  La intensidad del campo magnético depende de la intensidad de la corriente.
•  La intensidad del campo magnético disminuye con la distancia al conductor.

Llamamos campo magnético a la región del espacio en donde se puede apreciar los efectos del magnetismo, por ejemplo mientras la aguja se la brújula se desplaze hacia un costado, significa que estamos dentro de ese campo magnético.

A medida que alejamos la brújula del conductor observaremos que el efecto se pierde pues el campo magnético creado desaparece. Para graficar un campo magnético utilizamos líneas circulares con flechas que muestran el sentido del campo y las denominamos: líneas de fuerza.

El físico francés André-Marie Ampére (1775-1836) quien continuó con el estudio de este fenómeno, dispuso dos alambres paralelos, uno de los cuales podía moverse libremente atrás y adelante.

Cuando ambos alambres transportaban corriente en la misma dirección, se atraían de forma clara.

Ampere Fisico

André-Marie Ampére (1775-1836)

Si la corriente fluía en direcciones opuestas, se repelían. Si un alambre quedaba libre para girar, cuando las corrientes discurrían en direcciones opuestas, el alambre móvil describía un semicírculo, y cesaba de moverse cuando las corrientes tenían el mismo sentido en ambos alambres. Resultaba manifiesto que los alambres que transportaban una corriente eléctrica mostraban propiedades magnéticas.

Campo magnético creado por un conductor rectilíneo

Las líneas de fuerza del campo magnético creado por un conductor rectilíreo son circunferencias concéntricas y perpendiculares al conductor eléctrico.

Para saber la dirección que llevan dichas líneas de fuerza nos ayudaremos con la regla de la mano derecha.

regla de la mano derecha en electromagnetismo

Regla de la mano derecha

Para aplicar dicha regla, realizaremos el siguiente proceso. Tomamos el hilo conductor con la mano derecha colocando el dedo pulgar extendido a lo largo del hilo en el sentido de la corriente. Los otros dedos de la mano indican el sentido de las líneas de fuerza del campo magnético creado.

Campo magnético creado por una espira

Una espira es un hilo conductor en forma de línea cerrada, pudiendo ser circular, rectangular, cuadrada, etc.

Si por la espira hacemos circular una corriente eléctrica, el campo magnético creado se hace más Intenso en el Interior de ella.

El sentido de las líneas de fuerza es el del avance de un sacacorchos que girase en el sentido de la corriente.

Campo magnético creado por un solenoide o bobina

Si en lugar de disponer de una sola espira, colocamos el hilo conductor en forma enrollada, obtendremos un solenoide o bobina.

En este caso, el campo magnético creado por la corriente al pasar a través de la bobina será mucho mayor, puesto que el campo magnético final será la suma de campos creados por cada una de las espiras.

Así pues, en una bobina, el campo magnético será más intense cuanto mayor sea la intensidad de corriente que circule por el ella y el número de espiras que contenga la bobina.

De esta forma, una bobina, por la que circule una corriente eléctrica equivaldría a un imán de barra. El sentido de las líneas de fuerza se determina a partir de cualquiera de sus espiras.

campo magnetico en un solenoide

SOLENOIDE. Consiste en un conductor arrollado en hélice de modo que forme un cierto número de espiras circulares regularmente distribuidas unas a continuación de otras.

Cuando una corriente eléctrica recorre el conductor, el solenoide adquiere las propiedades de un imán, con sus polos norte y sur correspondientes. Llegamos, pues, a la conclusión de que la corriente eléctrica crea un campo magnético.

Las líneas de fuerza que en él se originan, por convenio, van del polo norte al polo sur en el exterior, y en sentido contrario por el interior.

Para determinar el nombre de los polos de un solenoide se emplea una aguja imantada, hallándose que el extremo del solenoide por el que la corriente, visto desde fuera, circula por las espiras en el sentido de las agujas del reloj, es el polo sur, y el extremo opuesto es el polo norte.

ELECTROIMANES:

Como vimos anteriormente se puede obtener un campo magnético mayor a partir de corriente eléctrica si se acoplan muchas espiras, unas al lado de otras (por ejemplo, arrollando un hilo conductor), construyendo lo que se conoce como solenoide.

Para crear campos magnéticos aún más intensos, se construyen los electroimanes, que son solenoides en cuyo interior se aloja una barra de hierro dulce, es decir, un hierro libre de impurezas que tiene facilidad para imantarse temporalmente.

Cuando se hace circular corriente eléctrica por el solenoide, con centenares o miles de vueltas (es decir, centenares o miles de espiras), el campo magnético se refuerza extraordinariamente en su interior, y el solenoide se convierte en un poderoso imán con múltiples aplicaciones.

electroimán casero

Si arrollamos un conductor alrededor de una barra de hierro dulce (clavo) y hacemos pasar por él la corriente eléctrica, tendremos un electroimán.

Al objeto de aumentar la intensidad del campo magnético creado por el electroimán, éstos se construyen en forma de herradura, pues así el espacio de aire que tienen que atravesar las líneas de fuerza para pasar de un polo a otro es menor.

Los electroimanes se emplean para obtener intensos campos magnéticos en motores y generadores.

También se utilizan en timbres eléctricos, telégrafos y teléfonos, y actualmente se construyen gigantescos electroimanes para utilizarlos como grúas y para producir campos magnéticos intensos y uniformes, necesarios en trabajos de física nuclear.

Demos ahora un paso mas…

A partir de los descubrimientos de Oersted, algunos científicos de su época se plantearon si el efecto contrario podría ocurrir es decir, si un campo magnético sería o no capaz de generar una corriente eléctrica, algo que tendría unas interesantes consecuencias prácticas.

En 1831 Faraday observó que cuando se mueve un circuito cerrado a través de un campo magnético se origina una corriente eléctrica que recorre aquel circuito, y que se conoce con el nombre de corriente inducida.

Dicha corriente cesa en el momento en que se interrumpe el movimiento.

induccion electromagnetica

Las experiencias de Faraday fueron las siguientes: tomó un  imán y lo colocó cerca de una bobina, la que tenía un conectado un medidor de corriente, llamado amperímetro o galvanómetro.

Pudo observar que cuando ambos elementos (imán-bobina) están en reposo, la corriente es nula, es decir, la aguja el amperimetro no se mueve.

Luego movió el iman hacia dentro de la bobina y notó que la aguja se movía, lo que determinó un pasaje de corriente por la misma. También notó que cuanto más rápido se desplazaba el imán mayor era la corriente medida.

Cuando el imán está en reposo, dentro o fuera de la bobina, no hay corriente y a aguja del galvanómetro permanece con medición nula.

También probó en sentido inverso, es decir, dejó inmovil el imán y desplazó la bobina y el efecto fue el mismo al antes explicado.

Conclusiones de Faraday: Inducción electromagnética

En todos los experimentos de Faraday, en los que se acerca un imán a un circuito cerrado o bobina, los efectos son los mismos si el imán permanece en reposo y es la bobina del circuito la que se mueve.

Faraday concluyó que para que se genere una corriente eléctrica en la bobina, es necesario que exista un movimiento relativo entre la bobina y el imán.

Si se mueve la bobina hacia el imán, hay una variación en el campo magnético en el circuito, pues el campo magnético es más intenso cerca del imán; si se mueve el imán hacia la bobina, el campo magnético también varía.

A la corriente generada se le llama corriente inducida y, al fenómeno, se le denomina inducción electromagnética.

Por lo tanto se obtiene energía eléctrica como consecuencia del movimiento del imán con respecto a la bobina o de la bobina con respecto al imán.

La inducción electromagnética es el fundamento de los generadores de corriente eléctrica, como son la dinamo y el alternador.

PARTE II: EFECTO MOTOR Y EFECTO GENERADOR

EFECTO MOTOR: Hasta ahora vimos ejemplos con circuitos cerrados pero sin que circule una corriente por ellos, simplemente el fenómeno aparece cuando movíamos el iman o la bobina respecto uno del otro.

Ahora estudiaremos cuando ademas del movimiento relativo, también circula una corriente por esa bobina.

Para ello observemos la imagen de abajo, donde se coloca una alambre conectado a una batería dentro de un campo magnético de un imán.

concepto electromagnetismo

Efecto Motor

Un alambre se coloca horizontalmente a través de un campo magnético. Al fluir los electrones hacia la derecha de la mano, el alambre recibe la acción de una fuerza hacia arriba.

La fem (voltaje) de la batería y la resistencia del circuito son adecuados para que la corriente valga unos pocos amperios. Al llevar cabo este experimento, se encuentra:

Se observa que:

a.   Cuando el alambre tiene corriente y se coloca a través del campo magnético, el alambre recibe la acción de una fuerza. (si hay fuerza hay un movimiento)

b.   Cuando el alambre con corriente se coloca bastante lejos del imán no experimenta ninguna fuerza.

c.   Cuando el alambre no lleva corriente y se coloca a través del campo magnético, no experimenta ninguna fuerza.

d.   Cuando el alambre no lleva corriente y se coloca bastante lejos del imán, no experimenta  ninguna  fuerza.

e.   Cuando el alambre con corriente se coloca paralelo al campo magnético, no experimenta ninguna fuerza.

De estas observaciones se puede deducir:

(1) que debe tener corriente y
(2) que su dirección debe cruzar el campo magnético, para que el alambre reciba la acción de una fuerza.

f.   Cuando el alambre conduce electrones que se alejan  del observador,  recibe la  acción de una fuerza vertical.

g.   Cuando el alambre conduce electrones hacia el observador, recibe la acción de una fuerza vertical opuesta a la del caso (f ).

De esto se puede concluir que el sentido de la fuerza sobre el alambre forma ángulos rectos con el sentido de la corriente y con el del campo magnético.

Se deduce, que el sentido de la corriente influye sobre el sentido de la fuerza, h.

Si  se invierten los polos magnéticos, también se invierta el sentido de la fuerza que actúa sobre el alambre.

De esta observación puede verse que el sentido del campo magnético, influye sobre el sentido de la fuerza. i.   Si se varía la intensidad de la corriente en el alambre, la magnitud de la fuerza resultante varía en la misma proporción.

Esto indica que la fuerza que recibe el alambre depende directamente de la intensidad de la corriente. j.

Si se substituye el imán por uno más débil o más  potente,   la  magnitud  de  la  fuerza resultante varía en la misma proporción. Por tanto, la fuerza sobre el alambre es directamente proporcional a la densidad de flujo del campo magnético.

Debido a que los principios fundamentales de este experimento son básicos para el trabajo de motores eléctricos, la existencia de una fuerza que  actúa  sobre  una  corriente  que  cruza  un campo magnético, se llama efecto motor

El efecto motor no debe ser ni sorprendente ni misterioso. Después de todo, una corriente eléctrica es un flujo de electrones que experimentan una fuerza deflectora cuando atraviesan un campo magnético.

Puesto que no pueden escapar del alambre, lo arrastran con ellos.

regla de los 3 dedos de la mano izquierda

La regla de los tres dedos también se aplica a la desviación de un alambre con corriente a través de un campo magnético. Use la mano izquierda, con el mayor apunte en el sentido del flujo electrónico, de negativo a positivo.

EFECTO GENERADOR:

concepto electromagnetismo

Efecto Generador

El alambre se empuja alejándolo del lector. Cuando esto se hace en condiciones apropiadas, los electrones libres del alambre son imrjulsados hacia arriba.

De nuevo se tiene un campo magnético debido a un potente imán permanente . Sin embargo, esta vez se mantiene el alambre vertical y lo mueve acercándolo y alejándolo, hacia adelante y atrás, atravesando el campo.

El alambre en movimiento se conecta con un medidor eléctrico sensible —un galvanómetro— que indica la existencia de una corriente eléctrica débil y, por tanto, de una fuerza electromotriz o voltaje (fem) que produce dicha corriente.

En este experimento el estudiante observará y deducirá lo siguiente:

a.   Cuando el alambre se mueve a través del campo magnético se produce una fem.
b.   Cuando el alambre se mueve en una región lejos del imán, no hay fem.
c.   Cuando el alambre se mueve paralelo al campo magnético, no hay fem.
d.   Cuando el alambre se mantiene fijo, en una posición lejos del imán, no hay fem.
e.   Cuando el alambre se mantiene fijo en una posición, dentro del campo magnético, no hay fem.
De estas observaciones se puede concluir que el alambre debe moverse a través del campo magnético para que se genere una fem. Es evidente, que la parte superior del alambre, es positiva o negativa con respecto a la parte inferior. De esto se puede deducir que la fem generada forma ángulos rectos con el movimiento y también con el campo magnético.
f.    Cuando el alambre se mueve a través del campo, alejándose del observador, se produce una fem.
g.  Cuando el alambre se mueve a través del campo acercándose al observador, se produce una fem cuya polaridad es opuesta a la del inciso anterior (f).
De estos hechos se puede ver que el sentido del movimiento  determina el  sentido  de la fem generada.
h. Si se invierten los polos magnéticos el sentido
de la fem generada se invierte. Esto indica que el sentido de la fem generada está determinado por el sentido del campo magnético.
i.   Si se varía la velocidad de movimiento del alambre, la magnitud de la fem generada varía también de acuerdo con ella. Este dato indica que la fem generada es directamente dependiente de la velocidad del alambre en movimiento.
j. Si se colocan imanes más débiles o más potentes, la magnitud de la fem generada disminuye o aumenta proporcionalmente. Por tanto, la fem generada es directamente dependiente de la densidad de flujo del campo magnético.

Si se realizan estos experimentos, puede ser difícil ver el movimiento de la aguja del galvanómetro, porque la fem es muy pequeña.

Sin embargo, se puede fácilmente repetir un experimento de la imagen.

Se enrolla una bobina de alambre con varias vueltas, se conectan sus extremos al galvanómetro y se mueve dicha bobina rápidamente hacia el polo N de una barra imantada.

El gavanómetro se desviará, demostrando que se ha producido una fem en la bobina. La fem cambia de sentido cuando se aleja la bobina del imán o cuando se usa el polo S en lugar del polo N.

En este caso el alambre en la bobina que se mueve en un campo magnético se desplaza, principalmente, de modo perpendicular al campo.

De acuerdo con esto, debe generarse una fem.

Se puede preferir pensar en la bobina de este modo: a través del área de la bobina pasa una cierta cantidad de flujo magnético, al mover la bobina hacia el imán, la cantidad de flujo a través de ella aumenta.

Siempre que cambia el flujo por una bobina, se genera una fem.

Debido a que los principios en que se basan estos experimentos también son básicos para el funcionamiento de los generadores eléctricos, constituyen el llamado efecto generador: una fem se genera en un conductor, cuando éste se mueve a través de un campo magnético o cuando el campo magnético varía dentro de una bobina.

Conceptos Básicos de Electromagnetismo:
Historia y Aplicaciones

Fuente Consultada:
Enciclopedia TECNIRAMA De La Ciencia y la Tecnología
Enciclopedia Temática CONSULTORA Tomo 10 Física
FISICA Fundamentos y Fronetras Stollberg – Hill

Temas Relacionados Con La Energía Eléctrica:

Nuevas Fuentes de Energia en el siglo XIX Petroleo y Electricidad
Energía Mareomotriz: Produccion de Electricidad Con Las Mareas
Biografia de Ampere Andre Cientifico Aportes a la Electricidad
Calor Producido Por la Corriente Electrica Aplicaciones
Historia del Uso de la Corriente Alterna:Disputa Edison Vs. Tesla
Biografia de Volta Inventor de la Pila Electrica
Biografia de Ohm Simón:Obra Científica y Experimentos

Enlace Externo:Qué es Electromagnetismo? Su Definición

El Espacio Curvo:Teoría de Relatividad y la Curvatura Espacial

El Espacio Curvo Teoría de Relatividad

La teoría general de la relatividad constituye la culminación de los logros de Albert Einstein.

Fue el resultado exitoso de un denodado esfuerzo de cuatro años para extender su teoría especial de la relatividad.

Esta teoría demuestra que la luz puede quedar atrapada en un hueco negro.

Se describen aquí esos extraños objetos y lo que sería un viaje a su interior.

A propósito de objetos extraños, se discute la posible existencia de túneles o huecos de gusano que conducen hacia otro universo.

¿Pueden tales huecos de gusano emplearse para viajar en el tiempo?.

Se dice lo que las teorías de Einstein afirman al respecto.

Einstein comprendió desde el comienzo que la teoría especial de la relatividad quedaba restringida a una clase particular de movimiento: el movimiento uniforme, es decir, el movimiento sin aceleración.

Buscó entonces durante más de una década una teoría más general de la relatividad y finalmente logró su objetivo, en 1917.

Luego de cuatro años de muy intenso trabajo, en los que hubo muchas salidas en falso y callejones sin salida, finalmente salió airoso y desarrolló la Teoría General de la Relatividad.

La teoría es muy matemática y sus detalles son difíciles de entender, aún hoy sus implicaciones son revolucionarias.

Publicó su versión final de la teoría a comienzos de 1916, en los Annalen der Physik, la misma prestigiosa revista donde había publicado su teoría especial de la relatividad, su formula E = mc² y sus demás artículos importantes.

El artículo de la relatividad general fue titulado «Formulación de la teoría general de la relatividad».

El artículo comienza con el enunciado de que todas las leyes de la física deben ser válidas en cualquier marco de referencia animado de cualquier tipo de movimiento. La relatividad no está ya restringida al movimiento uniforme: el movimiento acelerado está incluido.

Con esta proposición, Einstein creó una teoría de la gravedad, un sistema del mundo, con un conjunto de ecuaciones básicas que, cuando se resuelven, proporcionan las leyes que cumple el universo.

En esta teoría los objetos producen una deformación del espacio-tiempo que los rodea, lo cual afecta el movimiento de cualquier cuerpo que entra en esta región del espacio-tiempo.

Einstein había pensado ya en esta posibilidad desde 1907, cuando desarrolló su principio de equivalencia.

Pero necesitaba las complejas matemáticas de Marcel Grossmann para construir una teoría completa de la gravedad.

Aunque esta distorsión del espacio-tiempo ocurre en cuatro dimensiones, veamos lo que ocurre en dos.

Imaginemos una lámina de plástico flexible estirada por los cuatro extremos y sujeta con algunas tachuelas, como la que se muestra en la figura de abajo.

espacio curvo teoria general de la relatividad

Éste es nuestro espacio-tiempo de cuatro dimensiones en dos dimensiones.

Ahora ponemos de alguna manera una bola de billar en medio de la lámina.

El peso de la bola estira el plástico y produce una hondonada.

Si colocamos ahora una canica sobre la lámina de plástico, ésta rueda hacia la bola de billar.

Si empujamos la canica hacia los lados, ésta describe una curva alrededor de la hondonada y comienza a moverse en una espiral descendente hasta chocar con la bola de billar.

La bola de billar no atrae a la canica. Ésta rueda hacia la bola de billar a causa de la hondonada que se formó en la lámina de plástico, la distorsión del espacio.

e manera similar, el Sol crea una depresión en la estructura del espacio-tiempo. La Tierra, los planetas y cometas se mueven en este espacio-tiempo distorsionado.

El Sol no atrae a la Tierra…. La depresión que el Sol crea en el espacio-tiempo hace que la Tierra se mueva a su alrededor.

El Sol modifica la geometría del espacio-tiempo.

En relatividad general no existe la fuerza gravitacional.

La gravedad es producto de la geometría.

Bien entonces en base a lo antedicho,…¿Cual  es la forma del Universo? ¿Es cúbico, esférico o completamente ilimitado, extendiéndose hasta el infinito?.

Toda la información que poseemos acerca de los confines del Universo proviene de la luz (y ondas de radio) que recibimos de las galaxias distantes. Parece que la luz alcanza la Tierra desde todas las direcciones, lo que hace pensar en la simetría del Universo, sea esférico o infinito.

Pero el Universo no es nada de eso, y no se puede representar totalmente por una figura simétrica de tres dimensiones.

Sus fronteras exteriores no se pueden visualizar, debido a que la luz no nos proporciona su información propagándose en líneas rectas. Todo el espacio comprendido entre sus límites es curvo.

El espacio no es tridimensional, como un edificio o una esfera, sino tetradimensíonal, y la cuarta dimensión es el tiempo.

El tiempo aparece en las ecuaciones que expresan las propiedades del espacio, pero no se puede representar.

La idea básica del espacio-tiempo de cuatro dimensiones es fácil de visualizar.

De hecho, se usa a todas horas.

Supongamos que hemos aceptado la invitación a cenar de una amiga, el 29 de julio, viernes, a las 7 p.m., en un restaurante del centro de la ciudad.

El restaurante queda en el piso 44 del edificio del Banco Central, situado en la esquina de la Avenida 9 de Julio con Sarmiento.

Para encontrarnos con la amiga en el restaurante, el viernes, necesitamos ponernos de acuerdo sobre cuatro números: tres que describen la ubicación específica del restaurante (Avenida 9 de Julio, Sarmiento, piso 44) y otro que describe el tiempo (7 p.m. del viernes). Si vamos a las 8 p.m. del miércoles al restaurante no nos encontraremos.

El   espacio   es  curvo   y   está   distorsionado, porque contiene materia —todos los billones y billones de estrellas y galaxias del Universo—.

La luz sufre los efectos de las fuerzas gravitatorias, ejercidas por la materia del espacio, y, en distancias largas, se propaga según líneas curvas y no rectas.

Aun nuestro propio Sol, que es una estrella sin mucha masa, curva apreciablemente un rayo de luz que, dirigiéndose de una estrella lejana a» la Tierra, pasa a pocos grados de él.

La dirección de la curvatura observada iparece sugerir que la luz se dobla hacia dentro.

Un rayo de luz que parte de cualquier punto es, en conjunto, atraído siempre Hacia el centro del Universo.

Dicho rayo, después de sufrir la acción de toda la materia del Universo, que lo atrae hacia dentro, vuelve, finalmente, al mismo punto de partida.

Es como partir de un punto cualquiera de la Tierra y viajar continuamente en línea recta. La «línea recta» se vá doblando en un camino curvo alrededor de la superficie del planeta.

Cada 40.000 kilómetros (circunferencia de la Tierra), el camino termina en su punto de partida, for mando un gran círculo.

La curvatura del espació se puede visualizar por la extraña conducta de la luz; en particular, de la velocidad de la luz: La velocidad es la distancia recorrida dividida por el tiempo.

Cualquier  ilustración respecto al comportamiento de la velocidad de la luz incluye también la dimensión del tiempo (que no se puede incluir en un diagrama puramente espacial).

curva espacio

Si la luz no fuera afectada por la materia, y siempre se propagara en línea recta (es.decir, a la misma velocidad), el espacio nó estaría distorsionado ni curvado.

Entonces podría representarse como una superficie plana de dos dimensiones (con lo que nos ahorraríamos la tercera dimensión, a pesar de que ella es realmente necesaria).

Si la luz describe un gran círculo alrededor del Universo y vuelve al punto de partida, el diagrama de dos dimensiones se transforma en una esfera de tres dimensiones, y los caminos de la luz son círculos alrededor de la esfera. La luz cambia de dirección; luego, su velocidad varía.

curva espacio hacia afuera

Las teorías de la relatividad de Albert Einstein están todas ligadas al comportamiento de la velocidad de la luz.

En su teoría general de la relatividad, Einstein (1916)  demostró lo que debía suceder si la luz interaccionaba con la materia.

En sus ecuaciones se presentaban tres posibilidades: la luz no era afectada, en cuyo caso el Universo debía ser plano; la luz se doblaba, bien hacia dentro o hacia fuera.

Las dos últimas posibilidades conducen a un espacio curvo de cuatro dimensiones.

Pero si la luz se curva hacia fuera en lugar de hacia dentro, el diagrama toma la forma de una silla de montar y las curvas son hipérbolas en lugar dé círculos.

Los rayos de luz se saldrían continuamente y nunca retornarían a su punto de partida.

La evidencia experimental que se posee parece  indicar una curvatura hacia el interior del espacio.

Fuente Consultada:
Einstein Para Dummie s Carlo I. Calle
Revista Tecnirama Fascículo N°120 Enciclopedia de la Ciencia y la Tecnología
50 Cosas que debe saber sobre el Universo Joanne Bajer
Einstein y su Teoría de la Relatividad Byron Preiss (ANAYA)

Temas Relacionados:
• ¿Por que es Famoso Einstein? El Mayor Genio de la Fisica del Siglo
• 1905: Año Maravilloso Trabajos y Descubrimientos de Einstein
• Biografia de Einstein Albert Obra Cientifica y Vida
• El movimiento browniano estudiado por Albert Einstein
• Geometria No Euclidiana El Espacio Curvado de Einstein
• Vision de Einstein Sobre la Energia Atomica Aplicaca a la Bomba
• Implicancias de Teoria de la Relatividad
• Biografia de Heisenberg Werner y Su Aporte en Fisica Cuantica

Enlace Externo:• Astrofísica y Física

Historia de Ciencia Tecnica Tecnologia y Sus Avances

Historia de la Ciencia ,Técnica y Tecnología: Curiosidades y Avances Científicos

INTROUDUCCIÓN: Si consideramos la ciencia como la investigación sistemática de la realidad a través de la observación, la experimentación y la inducción (conocido como método científico)

Sin duda, se realizaron descubrimientos, pero de forma fragmentaria. La mitología y la religión dominaron como formas de explicar el mundo.

Esto empezó a cambiar con las especulaciones de los primeros filósofos griegos, que excluían las causas sobrenaturales de sus explicaciones sobre la realidad.

Al llegar el s. III a.C. la ciencia griega era muy elaborada y producía modelos teóricos que han dado forma desde entonces al desarrollo de la ciencia.

Con la caída de Grecia ante el imperio Romano, la ciencia perdió su estado de gracia. Se lograron pocos avances importantes, salvo en medicina, y el trabajo realizado estaba firmemente enraizado en las tradiciones y los marcos conceptuales griegos.

Durante varios siglos, desde la caída del imperio Romano en el s. V d.C, la ciencia fue prácticamente desconocida en Europa occidental. Sólo la civilización islámica conservó los conocimientos griegos , y los transmitió más tarde de nuevo a Occidente.

Entre los s. XIII y XV se lograron algunos avances en el campo de la mecánica y la óptica, mientras que algunos hombres como Roger Bacon insistieron en la importancia de la experiencia y de la observación personal.

El s. XVI señaló la llegada de la llamada «revolución científica», un período de progreso científico que empezó con Copérnico y culminó con Isaac Newton.

La ciencia no sólo logró descubrimientos conceptuales sino que consiguió también un enorme prestigio.

La ciencia y todo lo que la rodeaba llegaron a estar muy de moda a finales del s. XVII, y atrajeron una gran cantidad de patrocinios reales y gubernamentales.

Dos hitos de esta nueva moda fueron la fundación de la Académie de Sciences por Luis XIV en Francia y de la Royal Society por Carlos II en Inglaterra.

En el curso del s. XIX la ciencia se profesionalizó y se estructuró en carreras y jerarquías emergentes, centradas en universidades, departamentos de gobierno y organizaciones comerciales.

Esta tendencia no se interrumpió con la llegada del s. XX, que ha visto cómo la ciencia dependía cada vez más de los avances tecnológicos, avances que no han escaseado.

La ciencia moderna es inmensa y extremadamente compleja. Es virtualmente imposible llegar a tener una visión global consistente de lo que ocurre en la ciencia.

Por este motivo, mucha gente la ve con algo de suspicacia. Sin embargo, la civilización occidental está completamente sometida a la creencia de que el progreso científico es un valor positivo y una fuerza que contribuye al bien de la humanidad.

Aunque algunos de los mayores peligros y horrores del mundo tienen sus raíces en el esfuerzo científico, también existe la esperanza de que, con el tiempo, la ciencia proporcionará soluciones viables para ellos.

Marie Curie (1867-1934) cientifica

Ejemplo de científico abnegado y apasionado por el descubrimiento y estudio de la naturaleza. Marie Curie (1867-1934). La científica polaca que, con su marido francés Pierre (1859-1906) y Henri Becquerel (1852-1908), recibió el premio Nobel de física de 1903 por el descubrimiento de la radioactividad. También recibió el de química de 1911 por el descubrimiento de dos elementos, el radio y el polonio.

MENU DE LOS PRINCIPALES TEMAS CIENTÍFICOS TRATADOS EN EL SITIO

bullet-historia1 Teoría Especial de la Relatividad
bullet-historia1Concepto de Palanca y Máquinas Simples
bullet-historia1 Concepto de Cantidad de Calor-Caloría-Equilibrio Termico
bullet-historia1 Anécdotas Matemáticas
bullet-historia1Las Radiaciones de un Núcleo Atómico
bullet-historia1 Tres Grandes Matemáticos
bullet-historia1 Ideas Geniales De Las Ciencias
bullet-historia1 Inventos Geniales
bullet-historia1 Medición Radio Terrestre En La Antigüedad
bullet-historia1 El Número Pi
bullet-historia1 El Átomo
bullet-historia1 La Partículas Elementales del la Materia
bullet-historia1 El Sistema Solar
bullet-historia1 Astronomía Para Principiantes
bullet-historia1 Conceptos Informáticos
bullet-historia1 La Vida de las Estrellas
bullet-historia1 El Genoma Humano
bullet-historia1 Estudio del Cuerpo Humano
bullet-historia1 Seres Humanos en el Espacio
bullet-historia1 Humanos en el Fondo del Mar
bullet-historia1 Los Tres Problemas Griegos
bullet-historia1 La Misión Apolo XI
bullet-historia1 El Big Bang
bullet-historia1 SQL Para Bases de Datos
bullet-historia1 Los Efectos de Una Explosión Nuclear
bullet-historia1 El Agua Potable
bullet-historia1 Hidrógeno: El Combustible del Futuro
bullet-historia1 El Planeta Sedna o Planetoide Sedna?
bullet-historia1La Energía Nuclear y Sus Usos
bullet-historia1El Petróleo:Una Noble Sustancia
bullet-historia1El Movimiento De Los Satélites Artificiales
bullet-historia1Porque hay rozamiento entre dos superficies?
bullet-historia1Consultas En Un Diccionario Medico Etimológico
bullet-historia1 Internet y la WEB
bullet-historia1La Inteligencia Humana (Con Un Test)
bullet-historia1Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
bullet-historia1Tres Conceptos Físicos Modernos
Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
bullet-historia1Conceptos Básicos de Cohetería Moderna
bullet-historia1 Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
bullet-historia1 Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
bullet-historia1 Hormigones y Morteros-Cálculo de Materiales por m3
bullet-historia1 Centrales Generadoras de Energía
bullet-historia1 Los Combustibles Fósiles
bullet-historia1 La Célula y La Clonación
bullet-historia1 Experimento De Las Esferas de Maldemburgo
bullet-historia1 Teoría del Campo Unificado
bullet-historia1 La Presión Atmosférica y La Experiencia de Torricelli
bullet-historia1 La Teoría Cinética de los Gases
bullet-historia1Fórmula Matemática de la belleza Universal
bullet-historia1Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
bullet-historia1 La Inteligencia Artificial
bullet-historia1 La Inmunidad Humana
bullet-historia1Motores de Combustión Interna y Eléctricos
bullet-historia1 Pilas y Baterías – Principio Físico de Funcionamiento
bullet-historia1Bell o Meucci Quien inventó el teléfono?
bullet-historia1 Las Vacunas
bullet-historia1Las Vitaminas
bullet-historia1 La Poliomielitis
bullet-historia1La Leyes de Kepler
bullet-historia1 Eclipses de Sol y de Luna
bullet-historia1 La Medición del la velocidad de la Luz
bullet-historia1 Nuestra Querida Estrella: El Sol
bullet-historia1 Las Leyes de la Mecánica Clásica de Newton
bullet-historia1 Las Leyes del Péndulo Físico
bullet-historia1 La Matemática en el Siglo XX – Desafíos Sin Resolver
bullet-historia1 Aprende a Resolver Una Ecuación de 2do. Grado
bullet-historia1 A que llamamos el pensamiento lateral? Problemas
bullet-historia1 Desalinizar El Agua de Mar
bullet-historia1 La Economía Como Ciencia
bullet-historia1 Conceptos Básicos Sobre La Ciencia
bullet-historia1 Teoría de la Deriva de los Continentes
bullet-historia1 La Lucha contra las infecciones: los antibióticos
bullet-historia1 Últimos avances científicos en medicina (2007)
bullet-historia1 La Era Espacial: Las Misiones Espaciales
bullet-historia1 Teorías Físicas Que Fracasaron
bullet-historia1 Descubriendo Nuevos Metales en el Siglo XVII
bullet-historia1 El Experimento del Siglo XXI: «La Máquina de Dios»
bullet-historia1 Enanas Blancas, Neutrones y Agujeros Negros

Usos del Transbordador Espacial-Mision y Características

Usos del Transbordador Espacial: Misión, Características y Misiones de la NASA

El Transbordador Espacial, Una Nave de ida y vuelta: Uno de los principales problemas de la exploración espacial es el alto coste de las misiones.

Hay que tener en cuenta que, hasta hace poco tiempo, los cohetes no eran reutilizables.

Para cada lanzamiento se empleaba un cohete que se iba destruyendo por etapas, a medida que se quemaba el combustible.

Las piezas desechadas eran abandonadas durante el viaje.

Por ello, se consideró importante desarrollar un vehículo espacial que fuera reutilizable, y no se destruyese en cada misión.

Este vehículo fue la lanzadera espacial de la NASA.

En el momento del lanzamiento, la lanzadera tiene acoplados unos cohetes propulsores que se desprenden durante las primeras etapas del vuelo y caen al mar, de donde se recuperan para utilizarse de nuevo en vuelos futuros.

Una vez desprendidos los cohetes propulsores, la lanzadera se impulsa por sus propios medios hasta entrar en órbita alrededor de la Tierra.

Después de orbitar alrededor de nuestro planeta, la lanzadera vuelve a aterrizar como un avión normal, a una velocidad de unos 300 km/h.

Imagen Abajo: El Transbordador Espacial, u orbitador, es el único vehículo espacial en el mundo que se puede volver a usar. Se eleva en el espacio montado sobre un gigantesco cohete y luego es capaz de volver a aterrizar como un avión. Puede estar listo para volver a usarse en sólo seis días y medio.

Carga pesada: Del mismo modo que los astronautas, el Trasbordador Espacial lleva equipaje. Satélites, sondas espaciales o laboratorios espaciales son llevados dentro del compartimiento de cargas.

Super aterrizaje: Frenos de carbón, un timón dividido en dos y alerones especiales reducen su velocidad. Al tocar la pista de aterrizaje se abre un paracaídas.

Protectores térmicos: Un escudo hecho de siliconas cubre al Trasbordador Espacial, protegiéndolo de una temperatura superior a 1.260 °C durante su entrada en la atmósfera.

Arranque: El despegue del Trasbordador Espacial está controlado automáticamente por computadoras a bordo de la nave por un centro de control desde la base en Tierra. La fuerza que desplegan los cohetes durante el despegue es tres veces mayor que la fuerza de gravedad de nuestro planeta.

Los gases calientes que emanan del cohete impulsan la nave espacial hacia arriba.

Toma sólo 50 minutos alcanzar la órbita terrestre.

Ver el Trasbordador Discovery Por Dentro

La flota de transbordadores. Con una flotilla de seis transbordadores, la NASA ha llevado a cabo apasionantes misiones en el espacio. Ésta es la historia resumida de cada uno de ellos.

• Columbia:

Su primer vuelo fue en 1981. Fue bautizado así en honor al buque que circunnavegó el globo por primera vez con una tripulación de estadounidenses.

En 1998, puso en órbita la misión Neurolab para estudiar los efectos de la microgravedad en el sistema nervioso.

Neurolab fue un esfuerzo colectivo entre seis agencias espaciales, incluyendo la Agencia Espacial Europea. Se desintegró durante su reentrada a la Tierra en febrero de 2003. Columbia voló 28 veces.

• Challenger.

Realizó su ‘primera misión en 1982. Recibió el nombre del buque inglés que exploró los mares en el siglo XIX.

En 1984, el astronauta Bruce McCandless se convirtió en la primera persona en realizar una salida espacial autónoma en una unidad de maniobra individual. El Challenger voló 10 veces.

• Discovery.

Entró en acción en 1984. Bautizado en honor a uno de los barcos del explorador británico James Cook que lo condujeron a las islas del Pacífico Sur.

En 1998 llevó a Pedro Duque por primera vez al espacio en una misión histórica en la que participó también el ex astronauta estadounidense John Glenn, el primer hombre de EE. UU. en orbitar la Tierra. Discovery llevó a cabo 30 misiones.

• Atlantis.

Su primer vuelo fue en 1985.Lleva el nombre del velero del Instituto Oceanográfico de Woods Hole, que fue el primer barco en ser usado para investigaciones marinas en Estados Unidos. En 1995 llevó al espacio la primera de nueve misiones para atracar en la Estación Espacial Mir. Atlantis viajó 26 veces.

• Endeavour.

Es el más joven de la flotilla y fue operativo en 1992. Está bautizado en honor al primer .buque del explorador británico lames Cook en las islas del Radico Sur. En 2001 timo lamiswndeñstalarel brazo robot de la Estación Espacial Internacional. Votó oí 19 ocasiones.

Enterprise.

Fue el primer modelo y se usó en pruebas tripuladas durante los noventa para estudiar cómo planeaba en el ale al ser soltado desde un anón. Sin embargo, nunca voló al espacio. Fue bautizado con el nombre de la nave espacial de la serie Star Trek.

https://historiaybiografias.com/bullet7.jpg

Los últimos cinco cambios claves para volver al espacio

Calentadores: Colocar calentadores eléctricos cerca de los puntos de fijación del depósito externo para prevenir la formación de cristales de hielo. Además, diseñar espuma aislante que no se separe de las paredes del depósito en el despegue.

Paneles de Carbono: Realizar análisis -rayos X, ultrasonido, corriente electromagnética y termografía- de los 44 paneles de carbono-carbono reforzado que recubren los bordes de ataque de las alas, el morro y las compuertas del tren de aterrizaje delantero antes de cada vuelo. Además, detectar brechas en estos paneles durante el vuelo e inventar formas de repararlas en órbita.

Videos y fotos:Evaluar la condición del transbordador durante el despegue, usando cámaras de vídeo y fotografía de la más alta resolución.

Aislante Térmico: El material aislante térmico que recubre los propulsores de aceleración es una mezcla de corcho con una pintura protectora colocada con tecnología puntera, que evita que el aislante se despegue en grandes fragmentos.

Capsula de Seguridad: Diseñar una cápsula de seguridad expulsable para los astronautas.

Paracaídas y vehículo de escape en emergencias:

La NASA trabaja también en un sistema de escape por si algo va mal durante el despegue.

En el Centro Espacial Marshall se están llevando a cabo ensayos con motores de cohetes en una serie de Demostraciones de Aborto en Plataforma que incluyen paracaídas y una cápsula similar al vehículo de escape.

«El accidente del Columbia fue ocasionado por una serie de errores colectivos. Nuestro regreso al espacio debe ser un esfuerzo colectivo», dice el director de la agencia, Sean O’Keefe.

A medida que el personal de la NASA se repone de la tragedia y se prepara a volar nuevamente, es importante recordar que explorar el cosmos es una actividad sin duda peligrosa y lo seguirá siendo durante mucho tiempo. Por eso, cualquier medida de seguridad es poca.

https://historiaybiografias.com/bullet7.jpg

Hasta el momento, las únicas lanzaderas que están en funcionamiento son las de EE.UU. La agencia espacial soviética construyó, en los años ochenta del pasado siglo, una lanzadera espacial denominada Buran (en ruso, tormenta de nieve).

El prototipo llegó a realizar tres viajes de prueba, sin tripulación, con notable éxito, en 1988.

No obstante, no eran buenos tiempos para la exploración espacial en aquel país.

La Unión Soviética se desmoronó y, antes de que la agencia espacial rusa actual tomara las riendas, muchos proyectos quedaron en el aire por falta de financiación.

Entre ellos, la lanzadera Buran.

Casi al mismo tiempo, la agencia espacial europea (ESA) desarrolló su propia lanzadera, la Hermes.

Nuevamente fueron los problemas de financiación los que causaron el abandono del proyecto, a mediados de la década de 1990.

Actualmente, la última lanzadera en desarrollo es la X-38, de la NASA, una pequeña nave que servirá como vehículo de rescate y emergencia para la estación espacial internacional.

lanzadera espacial columbia

COLUMBIA es una lanzadera espacial recuperable fabricada en la NASA.

Esta lanzadera espacial tiene un aspecto similar a un avión DC-9 pero con el ala en delta, y es el fruto de un programa de investigación aprovado en tiempos del presidente Kennedy y puesto en marcha por el presidente Nixon.

Para su despegue y puesta en órbita cuenta con dos cohetes que, una vez cumplido su cometido, se desprenden y caen hacia el océano frenados por dos grandes paracaídas, lo que posibilita su recuperación y posterior empleo en otros vuelos, después de una revisión y puesta a punto.

Finalizada su misión en el espacio, la lanzadera efectúa su reentrada en la atmósfera, soportando las altas temperaturas provocadas por la fricción merced a un recubrimiento antitérmico, y aterriza en una pista convencional, pero un poco más larga que las utilizadas por los aviones Jumbo.

Estas lanzaderas, que por sus características de recuperabilidad se denominan también transbordadores espaciales, pueden llevar cómodamente hasta cinco satélites de tamaño medio y una vez en órbita terrestre desprenderse de su carga, ahorrando así los enormes gastos de lanzamiento de cada satélite.

También pueden acercarse hasta un satélite averiado en órbita y recuperarlo para devolverlo a la Tierra o proceder a su reparación in situ.

Su primer vuelo despegó de cabo Kennedy el 12 de abril de 1981 y tomó tierra 54 horas más tarde en el desierto de California. J. Young y R. Crippen fueron sus tripulantes y su misión principal fue comprobar el funcionamiento general de la aeronave.

El segundo lanzamiento se llevó a cabo el 18 de noviembre de 1981 y en él se realizaron diversos experimentos científicos y tecnológicos, entre los que cabe destacar las pruebas de funcionamiento de un brazo robot, de construcción canadiense, cuya finalidad es depositar y retirar satélites artificiales de su órbita.

El tercer lanzamiento se realizó el 22 de marzo de 1982 y en el trancurso del vuelo se comprobó el comportamiento térmico de la aeronave, dirigiendo alternativamente sus distintas partes hacia el sol y manteniendo cada orientación durante largo tiempo.

También se realizaron comprobaciones, que se repiten en cada vuelo, del comportamiento de las distintas partes de la nave en los momentos más comprometidos, despegue y reentrada en la atmósfera, junto con comprobaciones de compatibilidad de los distintos elementos que componen el ingenio espacial.

Se probó nuevamente el brazo telemanipulador, para lo cual se colocó en su extremo un conjunto de instrumentos destinados a estudiar las modificaciones producidas en el entorno espacial por el gas y el polvo que se escapan de la areonave, conjunto que pesaba 160 kg.

Se realizaron también experiencias de producción de un enzima, uroquinasa, que puede constituir un medicamento contra la formación de coágulos sanguíneos, y cuyo aislamiento en condiciones de ingravidez es mucho más fácil que en los laboratorios terrestres.

Por último se realizaron experiencias de fabricación de microsferas de polestireno en condiciones de ingravidez, las cuales son muy útiles tanto en el campo médico como en el industrial.

Finalmente, el 22 de junio de 1982 se realizó un cuarto lanzamiento del Columbia, en el cual se repitieron las mismas experiencias que en el vuelo anterior y se añadieron otras dos.

Una de ellas consistió en la separación por elec-troforesis de materiales de interés biológico, para observar las características del proceso en condiciones de ingravidez.

La segunda fue una experiencia de interés militar, y por tanto sometida a restricciones informativas.

Con todo, se sabe que se trataba de probar un telescopio de rayos infrarrojos enfriado por helio líquido, con el que se pretendía detectar la radiación calórica emitida por un misil en vuelo, y además distinguir entre las emitidas por cada tipo de misil.

Con la puesta a punto de este telescopio los Estados Unidos tendrían la base para el establecimiento de una red de satélites de alerta.

Este cuarto vuelo ha sido la última prueba del programa norteamericano del transbordador espacial, el cual entra ahora en su fase de utilización práctica, durante la cual el Columbia alternará sus vuelos con las nuevas aeronaves Challenger, Discovery y Atlantics.

Fuente Consultadas:
La Enciclopedia del Estudiante Tomo 05 Santillana
Actualizador Básico de Conocimientos Universales Océano

Temas Relacionados:

Caracteristicas de los Viajes Espaciales
Pioneros de los Viajes Espaciales-Inventores de Cohetes
La Exploracion Espacial Historia Evolución de las Viajes Espaciales
La Mision Apolo XI:Historia de la llegada del hombre a la Luna
Biografía de Valentina Teréshkova:Primera Mujer en Viajar Al Espacio
Historia del Globo Aerostático
El Movimiento de los Satelites y Planetas

Enlace Externo: Homenaje al Transbordador Espacial

El Mar Muerto, Donde Nadie Se Ahoga:Caracteristicas del Agua

El Mar Muerto, Donde Nadie Se Ahoga:Caracteristicas del Agua

El Agua Salada del Mar Impide Sumergirse y  No Es Posible Ahogarse

Este mar existe y se encuentra en un país que conoce la humanidad desde los tiempos más remotos.

Se trata del célebre Mar Muerto de Palestina. Sus aguas son extraordinariamente saladas, hasta tal punto que en él no puede existir ningún ser vivo.

El clima caluroso y seco de Israel hace que se produzca una evaporación muy intensa en la superficie del mar. Pero se evapora agua pura, mientras que la sal se queda en el mar y va aumentando la salinidad de sus aguas.

vida en condicones extremas

Ver: Descarga de los Libros de Física y Matemática Curiosa de Perelman

Esta es la razón de que las aguas del Mar Muerto contengan no un 2 ó 3 por ciento (en peso) de sal, como la mayoría de los mares y océanos, sino un 27 o más por ciento.

Esta salinidad aumenta con la profundidad.

Por lo tanto, una cuarta parte del contenido del Mar Muerto está formada por la sal que hay disuelta en el agua.

La cantidad total de sal que hay en este mar se calcula en 40 millones de toneladas.

La gran salinidad del Mar Muerto determina una de sus peculiaridades, que consiste en que sus aguas son mucho más pesadas que el agua de mar ordinaria. Hundirse en estas aguas es imposible.

El cuerpo humano es más liviano que ellas.

El peso de nuestro cuerpo es sensiblemente menor que el de un volumen igual de agua muy salada y, por consiguiente, de acuerdo con la ley de la flotación, el hombre no se puede hundir en el Mar Muerto, al contrario, flota en su superficie lo mismo que un huevo en agua salada (aunque en el agua dulce se hunde).

Mark Twain estuvo en este lago-mar y después escribió humorísticamente las extrañas sensaciones que él y sus compañeros experimentaron bañándose en sus aguas:

«Fue un baño muy divertido.

No nos podíamos hundir.

Se podía uno tumbar a lo largo sobre la espalda y cruzar los brazos sobre el pecho y la mayor parte del cuerpo seguía sobre el agua.

En estas condiciones se podía levantar la cabeza por completo.

Se puede estar tumbado cómodamente sobre la espalda, levantar las rodillas hasta el mentón y abrazarlas con las manos.

Pero en este caso se da la vuelta, porque la cabeza resulta más pesada.

Si se pone uno con la cabeza hundida y los pies para arriba, desde la mitad del pecho hasta la punta de los pies sobresale del agua; claro que en esta posición no se puede estar mucho tiempo.

Si se intenta nadar de espaldas no se avanza casi nada, ya que las piernas no se hunden en el agua y sólo los talones encuentran apoyo en ella. Si se nada boca abajo no se va hacia adelante, sino hacia atrás.

En el Mar Muerto el equilibrio del caballo es muy inestable, no puede ni nadar ni estar derecho, inmediatamente se tumba de costado».

En la figura de abajo se puede ver un bañista que descansa comodísimamente sobre las aguas del Mar Muerto.

El gran peso específico del agua le permite estar en esta posición, leer el libro y protegerse con la sombrilla de los ardientes rayos del Sol.

El agua de Kara-Bogas-Gol (golfo del Mar Caspio) tiene estas mismas propiedades y las del lago Eltón no son menos saladas, puesto que contienen un 27% de sal.

Un bañista en el Mar Muerto.  Mar Muerto, lago salino situado entre Israel, Cisjordania y Jordania. Con una profundidad oficial que alcanza los 408 m bajo el nivel del mar (según unas mediciones realizadas en 2006, alcanzaría los 418 m), se considera el lugar más bajo de la tierra emergida, sin tener en cuenta la sima antártica Bentley, cubierta hoy día por hielo.

Algo parecido sienten los enfermos que toman baños salinos.

Cuando la salinidad del agua es muy grande, como ocurre, por ejemplo, con las aguas minerales de Staraia Russa, los enfermos tienen que hacer no pocos esfuerzos para mantenerse en el fondo del baño.

Yo he oído como una señora que tomó los baños de Staraia Russa se quejaba de que el agua «la echaba materialmente fuera del baño». Según ella la culpa de esto la tenía … la administración del balneario.

El grado de salinidad de las aguas de los distintos mares oscila un poco y a esto se debe que los barcos no se sumerjan en ellas hasta un mismo sitio.

Algunos de nuestros lectores habrán visto el signo que llevan los barcos cerca de la línea de flotación, llamado «marca de Lloyd», que sirve para indicar el nivel límite de la línea de flotación en aguas de distinta densidad.

en agua dulce (Fresh Water)

FW

en el Océano Indico (India Summer)

IS

en agua salada en verano (Summer)

S

en agua salada en invierno (Winter)

W

en el Atlántico del norte en invierno (Winter North Atlantik)

WNA

 

 

Antes de terminar este artículo quiero advertir que existe una variedad de agua que aún estando pura, es decir, sin contener otros cuerpos, es sensiblemente más pesada que la ordinaria.

Este agua tiene un peso específico de 1,1, es decir, es un 10% más pesada que la común, por consiguiente, en una piscina con agua de este tipo lo más probable es que no se ahogue nadie, aunque los que se bañen no sepan nadar.

Este agua se llama agua «pesada» y su fórmula química es D 2 0 (el hidrógeno que entra en su composición está formado por átomos dos veces más pesados que los del hidrógeno ordinario.

Este hidrógeno se designa con la letra D.

El agua «pesada» se encuentra disuelta en el agua común en cantidades muy pequeñas.

Un cubo de agua potable contiene cerca de 8 g de agua «pesada».  

Disco de carga máxima en el costado de un buque. Las marcas se hacen al nivel de la línea de flotación. Para que se vean mejor se muestran aparte aumentadas. El significado de las letras se explica en el texto.

El agua pesada de fórmula D2O (hay 17 tipos de agua pesada, cuyas composiciones son distintas) se obtiene actualmente casi pura, puesto que la cantidad de agua ordinaria que hay en ella constituye aproximadamente un 0,05%.

Este agua se emplea mucho en la técnica atómica, especialmente en los reactores atómicos.

Se obtiene en grandes cantidades del agua ordinaria por procedimientos industriales

Fuente: Yakov Perelman – Física Recreativa

Temas Relacionados:

Cuestion 1: Volar Barato Con Solo Elevarse

Cuestion 2: En El Mar Muerto Nadie Se Ahoga ¿Porque?

Cuestion 3: La Presión Atmoferica en el Interior de una Mina

Cuestión 4: La Presión Atmosferica En El Espacio

Cuestión 5: La Fuerza de la Gravedad ¿Es Grande?

Cuestión 6: La Importancia del Rozamiento

Enlace Externo:• Cosas reales que desafían las leyes de la física

Elevarse Verticalmente en Globo Mientras la Tierra Gira:Curiosa Fisica

Curiosa Situacion Física:Elevarse Vericalmente en Globo Mientras Gira La Tierra

vida en condicones extremas

Un procedimiento mas barato de viajar:

El ingenioso escritor francés del siglo XVII, Cyrano de Bergerac cuenta en su «Historia Cómica de los Estados e Imperios de la Luna» (1652), entre otras cosas, un caso sorprendente que, según dice, le ocurrió a él mismo.

Un día, cuando estaba haciendo experimentos de Física, fue elevado por el aire de una forma incomprensible con sus frascos y todo.

Cuando al cabo de varias horas consiguió volver a tierra quedó sorprendido al ver que no estaba ni en Francia, ni en Europa, sino en América del Norte, ¡en el Canadá!

¿Se puede ver desde un aeróstato cómo gira la Tierra? (El dibujo no se atiene a escala)

No obstante, el escritor francés consideró que este vuelo transatlántico era completamente natural.

Para explicarlo dice que mientras el «viajero a la fuerza» estuvo separado de la superficie terrestre, nuestro planeta siguió girando, como siempre, hacia oriente, y que por eso al descender sentó sus pies no en Francia, sino en América.

¡Que medio de viajar más fácil y económico!.

No hay más que elevarse sobre la superficie de la Tierra y mantenerse en el aire unos cuantos minutos para que al descender nos encontremos en otro lugar, lejos hacia occidente.

¿Para qué emprender pesados viajes por tierra o por mar, cuando podemos esperar colgando en el aire hasta que la misma Tierra nos ponga debajo el sitio a donde queremos ir?.

Desgraciadamente este magnífico procedimiento es pura fantasía.

En primer lugar, porque al elevarnos en el aire seguimos sin separarnos de la esfera terrestre; continuamos ligados a su capa gaseosa, es decir, estaremos como colgados en la atmósfera, la cual también toma parte en el movimiento de rotación de la Tierra alrededor de su eje.

El aire (o mejor dicho, su capa inferior y más densa) gira junto con la Tierra y arrastra consigo todo lo que en él se encuentra: las nubes, los aeroplanos, los pájaros en vuelo, los insectos, etc., etc.

Si el aire no tomara parte en el movimiento de rotación de la Tierra sentiríamos siempre un viento tan fuerte, que los huracanes más terribles parecerían ligeras brisas comparadas con él (La velocidad del huracán es de 40 m por segundo o 144 km por hora).

Pero la Tierra, en una latitud como la de Leningrado, por ejemplo, nos arrastraría a través del aire con una velocidad de 240 m por segundo, es decir, de 828 km por hora, y en la región ecuatorial, por ejemplo, en Ecuador, esta velocidad sería de 465 m por segundo, o de 1.674 km por hora).

Porque lo mismo da que estemos nosotros fijos en un sitio y que el aire pase junto a nosotros o que, por el contrario, sea el aire el que está quieto y nosotros los que nos movemos dentro de él; en ambos casos el viento será igual de fuerte.

Por ejemplo, un motociclista que avance a una velocidad de 100 km por hora sentirá un viento fuerte de frente aunque el aire esté en calma.

En segundo lugar, aunque pudiéramos remontarnos hasta las capas superiores de la atmósfera o la Tierra no estuviera rodeada de aire, el procedimiento de viajar económicamente ideado por el satírico francés sería también irrealizable.

Efectivamente, al separarnos de la superficie de la Tierra en rotación continua seguiríamos, por inercia, moviéndonos con la misma velocidad que antes, es decir, con la misma velocidad a que se movería la Tierra debajo de nosotros.

En estas condiciones, al volver a la Tierra nos encontraríamos en el mismo sitio de donde partimos, de igual manera que cuando damos saltos dentro de un vagón de ferrocarril en marcha caemos en el mismo sitio.

Es verdad que por inercia nos moveremos en línea recta (tangencialmente a la superficie terrestre), mientras que la Tierra seguiría un arco debajo de nosotros, pero tratándose de lapsos de tiempo pequeños esta diferencia no se nota.

Fuente: Yakov Perelman Física Recreativa

Ir al Menú de Cuestiones Físicas

Ver: Descarga de los Libros de Física y Matemática Curiosa de Perelman

Temas Relacionados:

Cuestion 1: Volar Barato Con Solo Elevarse

Cuestion 2: En El Mar Muerto Nadie Se Ahoga ¿Porque?

Cuestion 3: La Presión Atmoferica en el Interior de una Mina

Cuestión 4: La Presión Atmosferica En El Espacio

Cuestión 5: La Fuerza de la Gravedad ¿Es Grande?

Cuestión 6: La Importancia del Rozamiento

Enlace Externo:• Cosas reales que desafían las leyes de la física

Biografía de TESLA Nikola:Vida e Inventos – Resumen

Resumen de la Biografía de TESLA NIKOLA – Vida y Sus Inventos

VIDA E INVENTOS DE TESLA NIKOLA –
CIENTÍFICO YUGOSLAVO
: Nikola Tesla (1856-1943).

En la pequeña ciudad de Smiljan en la provincia servia de Lika, llamada entonces Croacia (Yugoslavia), tuvo lugar un hecho aparentemente sin importancia —la muerte de un caniche francés—, pero éste fue un hecho que desencadenaría una serie de acontecimientos relacionados con el futuro del Mundo.

Veamos antes iniciar la biografia , algunos de sus inventos y aportes mas destacado de Nikola Tesla.

Inventos clave de Nikola

1-Tesla Desarrollo en el electromagnetismo.
2-Trabajo teórico sobre corriente alterna (CA)
3-Tesla Bobina – transmisor de aumento
4-Sistema polifásico de distribución eléctrica.
5-Patente para una forma temprana de radio
6-Transferencia eléctrica inalámbrica
7-Dispositivos para la protección contra rayos.
8-Conceptos para vehículos eléctricos.

Importantes aportes en:

1-Primeros modelos de radar
2-Control remoto
3-Robótica Balística
4-Física nuclear

Nikola Tesla tenía cinco años de edad cuando encontró el pequeño caniche negro de su hermano Dane muerto bajo un matorral al lado de la carretera. Su hermano acusó a Nikki de la muerte del perro.

biografia de nikola tesla

Biografia de Nikola Tesla:Tesla fue en muchos sentidos un excéntrico y genio. Sus descubrimientos e invenciones no tenían precedentes.

Sin embargo, a menudo fue excluido por su comportamiento errático (durante sus últimos años, desarrolló una forma de comportamiento obsesivo-compulsivo).

No le asustaba sugerir ideas poco ortodoxas, como las ondas de radio de seres extraterrestres.

Sus ideas, falta de finanzas personales y comportamiento poco ortodoxo lo ubicaron fuera del establecimiento científico y, debido a esto, sus ideas a veces tardaron en ser aceptadas o utilizadas.Nikola Tesla también mostró lámparas fluorescentes y bombillas de un solo nodo.

————-  00000 ————

Poco después encontraron a Dane inconsciente al pie de la escalera de piedra del sótano.Dane murió a consecuencia de sus heridas.

Al cabo de poco tiempo, Nikki oyó que su madre, cansada de batir huevos, se quejaba de dolor de muñeca.

Deseoso de congraciarse, Nikki se puso inmediatamente en acción con la idea de aprovechar la fuerza de un cercano riachuelo de montaña para hacer girar el batidor. «Voy a capturar la fuerza del agua» anunció Nikki confidencialmente.

Cuando su padre dijo inadvertidamente que Dane era diferente de Nikki, porque «Dane era un genio», Nikki se propuso demostrar que él también lo era. Decidió en aquel momento que inventaría algo que asombraría al mundo.

Nikki emprendió experimentos para aprovechar la fuerza del agua, pero a los nueve años abandonó de momento su trabajo para dedicarse al estudio de la fuerza del viento.

Deseaba desesperadamente inventar algo que impresionara a los mayores, especialmente a sus padres.

Cuando tenía 10 años, Nikki ingresó en el Gimnasio real de Gospic, una institución con cursos de cuatro años equivalente a la escuela secundaria.

Le gustaban especialmente las matemáticas y cuando demostró por primera vez sus dotes en la utilización de fórmulas y la solución de ecuaciones, incluso sus profesores se asombraron.

Fue acusado de «copiar» y tuvo que pasar un «juicio» escolar ante sus padres y profesores.

A pesar de la atmósfera de desconfianza y hostilidad pasó el examen fácilmente, pero con una sensación de desgracia y confusión.

La infancia de Tesla estuvo llena de ideas excéntricas y experimentos con aparatos; continuó su formación en el Instituto politécnico de Graz, donde se especializó en física y matemáticas.

Finalizó sus estudios en la Universidad de Praga, en 1880. Un año después, inventó un amplificador para teléfono que ampliaba el sonido de la voz reduciendo al mismo tiempo los ruidos molestos, es decir, la estática.

El aparato completo, su primer invento, que no patentó nunca, fue llamado «repetidor telefónico». Hoy en día lo llamaríais altavoz.

En un año, Tesla empezó a desarrollar la teoría de la corriente alterna. Tesla explicó a su ayudante: «Voy a producir un campo de fuerza que gire a gran velocidad. Rodeará y abrazará una armadura que no precisará conexiones eléctricas.

El campo rotatorio transferirá su energía, sin cables, a través del espacio dando energía a través de sus líneas de fuerza a las bobinas cortocircuitadas de la armadura que formará su propio campo magnético siguiendo el remolino magnético rotatorio producido por las bobinas del campo. No habrá necesidad de cables, ni de conexiones defectuosas, ni de conmutador».

Tesla fue a Budapest y luego a París para encontrar un patrocinador de su sistema de energía de corriente alterna.

Trabajó una temporada con la compañía Continental Edison, de París.

Le aconsejaron que buscara un empleo en la Compañía Edison de Nueva York, y Tesla, cuatro años después de haber obtenido su título en la Universidad de Praga, partió de París para América.

Tesla dijo a Thomas Edison que había perfeccionado —por lo menos en teoría— un sistema de energía de corriente alterna. Edison trató con desdén las ideas de Tesla y le dijo que «jugar con corrientes alternas era perder el tiempo. Nadie va a utilizarlas jamás, es demasiado peligroso.

Un cable de corriente alterna a alto voltaje puede matar a una persona con la misma rapidez que un rayo.

La corriente continua es segura».

Pero Edison contrató a Tesla y el joven europeo hizo exactamente lo mismo que hacía en la Continental Edison de París: presentó un plan que permitiría ahorrar muchos miles de dólares, tanto en la construcción como en el uso de las dínamos y motores de Edison.

Trabajaba desde las diez de la mañana hasta las cinco de la mañana siguiente, siete días a la semana.

Pero Tesla dejó pronto a Edison y tras unos cuantos empleos misceláneos, encontró a gente dispuesta a invertir en su persona; de este modo se formó la Compañía Eléctrica Tesla.

Tesla Nikola

En 1891, Tesla se convirtió en un ciudadano estadounidense. Fue también un período de grandes avances en el conocimiento eléctrico. Tesla demostró el potencial de transferencia de energía inalámbrica y la capacidad de generación de energía de CA.

La promoción de Tesla de la corriente alterna lo colocó en oposición a Edison, quien buscaba promover su corriente continua DC para energía eléctrica.

Poco antes de su muerte, Edison dijo que su mayor error era pasar tanto tiempo en la corriente continua en vez de la corriente alterna que Tesla había promovido.

————-  00000 ————

La labor de Tesla para desarrollar la corriente alterna en sus aplicaciones prácticas empezó en serio, y logró su objetivo.

Todos los elementos complicados y de difícil ejecución de la Feria Mundial de Chicago de 1893, iban alimentados con la corriente alterna de los motores y dínamos Westinghouse, inventados por Tesla.

Sus equipos se utilizaron después en las instalaciones generadoras de las cataratas  del Niágara.

Tesla, instalado ahora en un laboratorio de Nueva York, dedicó todo su tiempo a investigar.

En 1900, Tesla comenzó a planificar las instalaciones de la Torre Wardenclyffe. Este fue un proyecto ambicioso que costó $ 150,000, una fortuna en ese momento.(foto abajo)

En 1904, la oficina de patentes de EE. UU. Revocó su patente anterior para la radio y se la entregó a G. Marconi.

Tesla nikola Torre

Esto enfureció a Tesla que sintió que él era el inventor legítimo. Comenzó un largo, costoso y finalmente fallido intento de luchar contra la decisión. Marconi ganó el Premio Nobel de física en 1909. Este parecía ser un tema repetitivo en la vida de Tesla: un gran invento del cual él no se benefició personalmente.

El gran científico fue haciéndose más paranoico con la edad, una evolución que podía seguirse desde los traumas de su infancia.

Al informársele, en 1917, que seria invitado de honor en una cena ofrecida por el Instituto americano de Ingenieros eléctricos, donde recibiría la medalla Edison del Mérito, Tesla rechazó la invitación diciendo: «Cada vez que el Instituto concede una medalla Edison, la gloria va más a Edison que al homenajeado. Si tuviese dinero para gastar para estas tonterías, me lo gastaría gustosamente para que se concediera una medalla Tesla al señor Edison».

Le convencieron para que aceptara el honor, pero no se presentó en la cena. Sus amigos lo encontraron dando de comer a las palomas detrás de la Biblioteca pública de Nueva York.

Tesla pasó los últimos años de su vida como un egoísta solitario e incomunicativo, absorbido en pensamientos y sentimientos que le separaban tanto del mundo como de las demás personas.

No quería dar la mano por miedo a los microbios de los demás; las superficies redondas como las bolas de billar o los collares de perlas le asustaban; siguió teniendo celos de Edison y sólo quería a las palomas, que alimentaba diariamente.

Su gran talento se esfumaba intentando inventar rayos de la muerte y aparatos para fotografiar pensamientos en la retina del ojo. Tesla falleció en 1943 de un ataque al corazón.

Las instituciones científicas del mundo conmemoraron el centenario de su nacimiento en 1956. Como un tributo final se dio el nombre de tesla a la unidad electromagnética de densidad de flujo en el sistema MKS.

Tesla Nikola Biografia

Tesla era famoso por trabajar duro y lanzarse a su trabajo. Comía solo y rara vez dormía, durmiendo tan poco como dos horas al día. Permaneció soltero y afirmó que su castidad era útil para sus habilidades científicas.

En los últimos años, se convirtió en vegetariano, viviendo solo de leche, pan, miel y jugos de vegetales.Tesla falleció el 7 de enero de 1943, en una habitación de hotel de Nueva York.

Tenía 86 años.Después de su muerte, en 1960, la Conferencia General sobre Pesos y Medidas nombró a la unidad SI del campo magnético de fuerza Tesla en su honor.

Inventos clave de Nikola Tesla

1-Desarrollo en el electromagnetismo.

2-Trabajo teórico sobre corriente alterna (CA)

3-Tesla Bobina – transmisor de aumento

4-Sistema polifásico de distribución eléctrica.

5-Patente para una forma temprana de radio

6-Transferencia eléctrica inalámbrica

7-Dispositivos para la protección contra rayos.

8-Conceptos para vehículos eléctricos.

Ver: Nikola Tesla Para Niños

Entrada: Biografia de Nikola Tesla

Temas Relacionados:
Vidas de Cientificos y Grandes Hombres de Ciencia
Desarrollo de la Ciencia en Argentina
Los cientificos del siglo XIX:Descubrimientos y Avances de la ciencia
La Gran Ciencia: Los Grandes Proyectos Cientificos del Mundo
Pensamiento Renacentista: La Ciencia en el Renacimiento

Enlace Externo:• Nikola Tesla: biografia, inventos, aportes

El Cuanto de Energia:Fisica Cuantica, La Constante de Planck

El Cuanto de Energía – Fisica Cuántica Constante de Planck

► EXPLICACIÓN CIENTÍFICA DEL CONCEPTO DEL CUANTO DE ENERGÍA:

Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía.

Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias.

Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas.

Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante.

Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Planck Recibió el Premio Nobel Fisica Por El Efecto Fotoeléctrico –  BIOGRAFÍAS e HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA

Todo comenzó con una investigación en un campo más bien marginal.

El Instituto alemán de pesas y medidas deseaba crear un patrón de referencia para las nuevas lámparas eléctricas, y pidió al físico Wilhelm Wien (1864-1928) que estableciera una relación entre la temperatura de un horno (un «cuerpo negro») y la radiación que emitía.

De la misma manera que un pedazo de hierro al calentarse pasa del «rojo» al «blanco» antes de emitir radiación ultravioleta si su temperatura aumenta, Wien observó experimentalmente que el máximo de radiación emitida por el cuerpo negro se desplazaba también hacia el violeta.

Y cuando el profesor Max Planck, de la universidad de Berlín, trató de elaborar una teoría explicativa de la curva de Wien, se encontró con la desagradable sorpresa de que la única forma de hacerlo era imaginar que el horno no emitía esa radiación de manera continua, sino en cantidades discretas, esto es, en cuantos de energía.

Planck avanzó esta hipótesis con reticencia, precisando que se trataba sólo de un artificio de cálculo.

Fue Einstein quien, cinco años después, demostró la realidad física de los cuantos.

1905: Año Maravilloso Trabajos y Descubrimientos de Einstein – BIOGRAFÍAS e  HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA

► EXPLICACIÓN:

Para fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos.

Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien.

La Física clásica había llegado a un límite que no podría superar.

MAX PLANCKUn científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.

Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los

EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potenciaemitida y µ  es la longitud de onda

cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así.

Esta fórmula se resistía a ser deducida de los principios clásicos.

Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba.

Era el siguiente:

Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).

(Nota: la letra v es griega y se la pronuncia nu)

El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.

Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.

En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.

Según la teoría clásica de las ondas electromagnéticas, éstas transportan energía en forma continua y no en paquetes discretos o cuantos.

Vemos que la luz de una vela llena una habitación con un flujo constante de energía.

Sin embargo, la cuantización implicaría una emisión espasmódica de la luz, como si la vela parpadeara, encendiéndose y apagándose intermitentemente (que es en realidad lo que ocurre en el nivel microscópico!).

El mismo Planck no podía creer que esto fuera así.

Pasarían algunos años hasta que el cuanto de energía fuera aceptado como una realidad.

Calculemos el valor del cuanto de energía para una onda electromagnética de la región visible de frecuencia 5. 1O14 Hz (amarillo):

E = h . v 6,63. 1O34 J. s . 5. 1014 Hz = 3,3. 1019 J.

Este valor de energía es diminuto.

La energía que libera una pequeña luciérnaga, por ejemplo, contiene miles de millones de cuantos.

Esto hace que la cuantización de la energía de las ondas electromagnéticas no tenga efectos macroscópicos, pero sí tiene peso cuando se estudian fenómenos a escala atómica.

► HACIA LA MECÁNICA CUÁNTICA

Estas ideas de Planck y Bohr se van a difundir, a ampliar y después a revolucionar con la llegada de una nueva Mecánica, la Mecánica Cuántica, que deriva directamente de ellas.

Gracias a esta revolución conceptual se va a tener que renunciar a cualquier descripción determinista de la realidad para acogerse a una descripción en términos de probabilidad.

Así es como se llegó a la conclusión de que no se puede conocer al mismo tiempo la posición y la velocidad de una partícula.

Se va a demostrar también que cualquier medida perturba el fenómeno que quiere estudiar.

Es el famoso principio de incertidumbre de Heisenberg.

En resumidas cuentas, con la Mecánica cuántica se entra en un nuevo mundo palpitante, misterioso y extraño que se ha explorado sobre bases matemáticas sólidas entre los años 1925-1930, bajo el impulso de sabios cuyos nombres son ya legendarios, como el austríaco Erwin Schródinger, el alemán Werner Heisenberg, el suizoalemán Wolfgang Pauli, el inglés de Cambridge Paul Dirac, todo bajo el impulso constante de Niels Bohr, y a pesar del escepticismo de Albert Einstein. Pero ésa es otra historia, casi una epopeya.

Einstein había visto antes que nadie todas las implicaciones de la Mecánica cuántica. Pero por razones filosóficas, y casi teológicas, no podía aceptarla. Es el famoso ¡«Dios no juega a los dados»!

Sobre lo que nosotros queremos insistir aquí es que muchos fenómenos pueden quedar sencillamente explicados —o al menos claramente expuestos— partiendo del átomo de Bohr ligeramente modificado.

No cabe duda de que se trata de una primera aproximación, que no corresponde a la realidad tal como la concebimos hoy en día, pero tiene la ventaja de evitar el despliegue matemático y la complejidad intelectual inherentes a la Mecánica cuántica (que, si se quiere captar su espíritu, necesita larguísimos cálculos, ya que el mundo de lo infinitamente pequeño obedece a reglas específicas muy diferentes de las que gobiernan nuestra experiencia cotidiana).

► LOS NIVELES DE ENERGÍA

En cada átomo, en cada molécula, existen niveles de energía en los que pueden «situarse» los electrones.

Esos niveles se corresponden con los cuanta y por lo tanto están, como hemos dicho, separados por intervalos vacíos, lo mismo que los peldaños de una escalera.

Los electrones no pueden hallarse más que en esos niveles, lo mismo que nuestros pies no se pueden colocar más que en los peldaños de la escalera.

Naturalmente, esto es la representación del átomo bajo el punto de vista de la energía.

Bajo el punto de vista del espacio, el electrón se mueve sin cesar, gira en torno al núcleo, pero en una órbita impuesta por los niveles de energía autorizados.

Esos niveles de energía no pueden «contener» más que un número finito de electrones.

Por ejemplo, el primer nivel de energía de un átomo, el primer peldaño, no puede llevar más que dos electrones, el segundo es un peldaño doble que, en total, no puede contener más que 8 electrones (2 + 6), etcétera.

¿Cómo puede situarse un electrón en esta escalera?

Se llenan los peldaños comenzando por abajo, según el principio de energía mínima, pasando poco a poco de uno a otro.

Así es como, en cada átomo estable, hay niveles de energía llenos.

El último nivel lo está más o menos completamente.

Pero por encima del último nivel lleno hay otros niveles (otros peldaños de la escalera) totalmente vacíos.

A estos niveles se les llama niveles «excitados».

¿Puede un electrón abandonar un nivel de energía que ocupa normalmente (y que se llama el nivel estable) para pasar a un nivel de energía excitado?.

Pues sí, pero para eso hay que proporcionarle la energía suficiente para que logre saltar de un nivel a otro.

Pero cuidado, es menester que la energía que se le comunica sea exactamente la que corresponde a la diferencia de energía que existe entre los dos peldaños, lo que se llama el «cuantum» justo de energía.

¿Y esos electrones excitados situados en órbitas libres van a permanecer allí?

Respuesta: sí, pero no por mucho tiempo.

Los niveles de excitación no son los niveles de equilibrio para los electrones.

Así pues, éstos van a tener tendencia a caer los niveles de energía habituales (hogar, dulce hogar) y, por lo tanto, a volver a ellos.

Cuando lo hacen, la energía tiene que conservarse.

La caída de un electrón de un nivel elevado hacia uno más bajo va a ir acompañada de una liberación de energía, por ejemplo mediante la emisión de una luz cuya longitud de onda (el color) será exactamente igual a la de la luz que ha excitado el átomo.

Fuente Consultada: Un Poco de Ciencia Para Todos Claude Allégre

Radiacion Cuerpo Negro, Explicación del Fenómeno Físico:Simple y Sencillo

La Radiación Cuerpo Negro
Explicación Sencilla del Fenómeno

RADIACIÓN DE UN CUERPO NEGRO: A medida que se iba develando la compleja estructura del átomo, los investigadores veían que estaba más cerca

Sin embargo, al intentar explicar la radiación térmica emitida por un cuerpo caliente, los físicos se encontraron con un problema que se resistía a encuadrarse dentro de los conocimientos de la Física clásica (la Mecánica de Newton y el electromagnetismo de Maxwell).

Fue el comienzo del fin de una forma de ver el mundo.


Espectro de una lámpara incandescente del Helio

En las cercanías de un objeto muy caliente, como una estufa o un leño encendido nuestra piel percibe el calor que nos llega en forma de ondas infrarrojas.

Pero no sólo los cuerpos muy calientes emiten ondas electromagnéticas: en realidad, todo cuerpo cuya temperatura sea superior al cero absoluto lo hace.

Para las temperaturas que percibimos cotidianamente, la mayor parte de la energía se emite en el rango infrarrojo y un poco en el visible.

En general, un cuerpo sólido emite todo un espectro de ondas.

 

Tengamos en cuenta que lo que se quiere investigar es la radiación que emite un cuerpo y no la que refleja al ser iluminado.

El espectro de dos cuerpos cualesquiera, a la misma temperatura, difiere dependiendo del material y de la forma que tengan.

Para estudiar el problema de la radiación se eligió un cuerpo patrón ideal, que emitía y absorbía energía con eficiencia máxima, llamado cuerpo negro.

Consistía en una cavidad con un pequeño orificio por donde salía la radiación a analizar, cuando las paredes se calentaban hasta una temperatura determinada.

Independientemente del material con que estén fabricados, los espectros de los cuerpos negros a la misma temperatura son idénticos.

Experimentalmente se habían hallado los espectros de emisión de cuerpos negros a diversas temperaturas.

Y se observaron dos características importantes:

E aumenta proporcionalmente con  T4

1. A medida que la temperatura aumenta, la cantidad de energía emitida es mayor. En particular, la energía aumenta proporcionalmente a la cuarta potencia de la temperatura absoluta (ley de Stefan-Boltzmann):

2. Un cuerpo emite mayor cantidad de energía en una longitud de onda determinada. A medida que la temperatura aumenta esta longitud de onda se hace más pequeña, cumpliéndose la ley de Wien:

µmáxima T = constante

Energía radiante por un objeto caliente a distintas longitudes de onda

Ley de Wein: Energía radiante por un objeto caliente a distintas longitudes de onda

Temas Relacionados

Historia de la Fisica Moderna Los Descubrimientos y Evolución
Fisica Cuantica:Teoria del Cuanto de Energia
Teoría del Campo Unificado
Resumen de la Teoria Atomica Historia y Fundamentos
El Conocimiento Científico La Fisica y de la Naturaleza
Biografia de Max Planck

Enlace Externo:• Qué es la radiación del cuerpo negro

Teoría Cinética de los Gases Ideales: Modelo Molecular, Resumen

Teoría Cinética de los Gases Ideales: El Modelo Molecular

El comportamiento análogo de todos los gases sugiere que su estructura debe ser la misma.

Como que los gases son muy compresibles, sus moléculas deben estar muy separadas y como que los gases tienden a expandirse hasta ocupar el máximo volumen posible, sus moléculas deben hallarse en un movimiento incesante.

• ►DESCRIPCIÓN BÁSICA:

La teoría cinética de los gases supone que éstos están constituidos por diminutas partículas (moléculas) en constante movimiento.

A igualdad de condiciones, la velocidad promedio con que se mueven las moléculas varía de gas a gas, siendo la regla que cuanto mayor sean las partículas, tanto menor será su velocidad, pero para un gas determinado, la velocidad promedio con que se mueven sus moléculas depende de su temperatura.

Si el gas es calentado, sus moléculas reciben energía para acelerar su movimiento.

La temperatura no es sino una medida de la energía promedio de las moléculas.

Además, estas moléculas son consideradas perfectamente elásticas.

Como están en continuo movimiento, chocan continuamente entre sí y rebotan.

Ahora bien, si dejamos caer al suelo una pelota de goma, rebotará más de una vez, pero con cada rebote se elevará menos del suelo.

En otras palabras, la pelota pierde energía cada vez que da un bote.

Pero las moléculas no pierden ninguna energía cuando chocan entre sí y rebotan.

El movimiento molecular explica el comportamiento de los gases en relación al aumento de temperatura y cambios de presión.

A una cierta temperatura y presión el mismo número de moléculas de cualquier gas ocupa el mismo volumen.

Pero si aumenta la temperatura del gas sus moléculas habrán adquirido la energía necesaria para moverse más rápido.

Chocan más rápido y rebotan más lejos, en otras palabras, ocupan más espacio, pero si no se les permite ocupar mayor espacio, es decir, si el recipiente es rígido, la presión del gas aumentará.

Esto es comprensible, porque la presión del gas sobre las paredes es simplemente la fuerza ejercida por las moléculas que chocan contra ellas.

Si las moléculas aceleran, golpearán las paredes del recipiente con mayor fuerza.

• ►EXPLICACIÓN FÍSICA CONCEPTUAL

Uno de los fenómenos referentes al comportamiento de los gases que indica el camino más acertado para investigar su naturaleza es el movimiento browniano, observado en 1827 por el escocés Robert Brown y que consiste en una agitación desordenada, en zigzag, ejecutada por las partículas que se hallan en suspensión en los líquidos o en los gases.

Cuanto menor es la partícula observada, más claramente se pone de manifiesto su estado de movimiento desordenado permanente y cuanto mayor es la temperatura tanto mayor es la violencia de dicho movimiento.

El movimiento browniano sugiere un estado de continua agitación de las moléculas que constituyen los cuerpos materiales.

Todo parece indicar que la materia está formada por partículas muy pequeñas en movimiento incesante.

Esta teoría de las moléculas en constante agitación se denomina teoría cinética de la materia y sus dos postulados fundamentales son:

a) Las moléculas están en constante movimiento.

b) El calor es una manifestación del movimiento de las moléculas.

APLICANDO ESTOS POSTULADOS A LOS GASES:

Cuando Boyle descubrió en 1661 su sencilla ley experimental sobre el comportamiento de los gases, trató de idear un modelo que interpretara coherentemente la naturaleza del gas.

Ése fue el comienzo de la teoría cinética, desarrollada por Daniel Bernoulli, James Joule, Rudolph Clausius, Ludwig Boltzmann y Albert Einstein, entre otros científicos.

Esta teoría se propone dar una explicación microscópica de las leyes macroscópicas experimentales.

Las hipótesis de las que parte son simples:

1) Un gas consiste en un conglomerado de partículas

(átomos o moléculas) que responden a las leyes de la Mecánica newtoniana. En un gas perfecto pueden despreciarse las fuerzas atractivas entre las moléculas. Así pues, las moléculas pueden considerarse independientes unas de otras.

2) La enorme cantidad de partículas se mueven caóticamente

y están tan separadas entre sí que su propio volumen es despreciable frente al que ocupa todo el gas.

3) No existen fuerzas apreciables sobre las partículas

salvo las que operan durante los choques elásticos entre sí y contra las paredes.

4) En un conjunto de moléculas dado, en un instante determinado,

las moléculas poseen distintas velocidades y, por tanto, sus energías cinéticas también son distintas. Se admite, sin embargo, que la energía cinética media de todas las moléculas es directamente proporcional a la temperatura absoluta del gas.

RESPECTO A LAS MAGNITUDES FÍSICA ES:

• La presión de un gas: lo que llamamos la presión de un gas no es más que el resultado de todo el conjunto de choques que las moléculas efectúan sobre las paredes de un recipiente.

•  La temperatura, es según lo dijo Boltzmann: «La temperatura es la medida de la agitación de los átomos». A alta temperatura los átomos se hallan muy agitados y a baja temperatura están más calmados.

EXPLICACIÓN DE LA TEORÍA:

Es razonable que, dado que las partículas están tan separadas, las fuerzas intermoleculares sean solamente las de los choques.

Como los choques son elásticos, entonces se conserva la cantidad de movimiento y también la energía cinética.

Entre choque y choque, las moléculas viajan con movimiento rectilíneo y uniforme, de acuerdo con las leyes de Newton.

Las colisiones son de muy corta duración.

Es decir que la energía cinética se conserva constante, ya que el breve tiempo en que ésta se transforma en energía potencial (durante el choque) se puede despreciar.

A partir de estos supuestos, la teoría explica el comportamiento conocido de los gases y hace predicciones que luego son constatadas experimentalmente, lo que le confiere validez científica.

Para describir el comportamiento del gas no es imprescindible la historia individual de cada partícula, sino que se recurre a la estadística para interpretar las variables macroscópicas como cierto promedio de propiedades microscópicas.

Por ejemplo, la presión se interpreta microscópicamente como el efecto resultante de millones de partículas chocando azarosamente y ejerciendo pequeñas fuerzas irregulares contra las paredes del recipiente.

¿Por qué la fuerza que un gas encerrado ejerce sobre la pared del recipiente es perpendicular a su superficie?.

Como todas las posiciones y velocidades son igualmente probables, el bombardeo sobre la pared proviene de todas las direcciones y sentidos.

Las fuerzas ejercidas en dirección paralela a la pared en uno y otro sentido tienden en promedio a anularse.

Pero las fuerzas ejercidas en dirección perpendicular, por el contrario, se sumarán, ya que ninguna partícula colisiona desde el lado exterior de la pared.

La temperatura se interpreta como una medida de la energía cinética media por molécula.

Al calentar un gas, aumentamos la agitación molecular, elevando la velocidad media de las partículas.

Si disminuye la temperatura del gas, se puede licuar.

Es coherente que la energía cinética media de una partícula líquida sea menor que la correspondiente a una partícula gaseosa.

En 1827, el botánico inglés Robert Brown (1773-1858) constató, por primera vez, que partículas pequeñas de materia inerte, suspendidas en un líquido y observadas con un microscopio presentan una agitación azarosa y permanente dependiente de la temperatura.

La explicación de este fenómeno se logró ochenta años después.

El descubrimiento del movimiento browniano permitió un desarrollo posterior más profundo de la teoría cinética.

El movimiento de los gránulos observados a través del microscopio se interpretó como la ampliación del movimiento de las pequeñísimas moléculas invisibles a la lente.

Basándose en un estudio cuantitativo del movimiento browniano, la teoría cinética permite calcular, entre otros múltiples resultados, el número de moléculas contenidas en un volumen dado, a cierta temperatura y presión, para todos y cualquier gas.

DEMOSTRACIÓN DE LA ECUACIÓN DE ESTADO A PARTIR DE LA TEORÍA CINÉTICA DE LOS GASES:

La ecuación de estado de los gases, PV = nRT, puede deducirse de la teoría cinética estudiando el aumento de presión que se produce en un gas a consecuencia de los impactos de las moléculas.

En efecto, consideremos un gas encerrado en una caja.

Su presión es proporcional al número de choques moleculares por segundo sobre cada cm2 de la pared de la caja y proporcional también al impulso mecánico o variación de la cantidad de movimiento de cada impacto.

La presión total será, pues, igual al producto del número de impactos por el impulso mecánico.

El movimiento de cualquier molécula puede ser descompuesto en tres componentes dirigidas según cada una de las tres aristas de la caja, de donde se deduce que el efecto sobre cada una de las paredes es el mismo que si cada tercera parte de las moléculas se moviese perpendicularmente a cada par de caras opuestas.

Así, N/3 moléculas chocarán con una cara determinada de la caja cúbica, siendo N el número total de moléculas contenidas en la caja.

Entre cada dos impactos sucesivos la molécula deberá recorrer en los sentidos de ida y vuelta la longitud de la arista de la caja cúbica, l.

Es decir, la distancia entre dos impactos consecutivos recorrida por la molécula es 2.l.

Como que la velocidad media de las moléculas es V cm/s, el tiempo transcurrido en segundos entre dos choques consecutivos será t = 2.l/V y, por tanto, el número de choques por segundo con la pared del recipiente será V/2.l.

Así pues, podemos concluir que el número de impactos que se producirán sobre una cara de la caja por segundo será de:

 Pero como el área de la cara es l2, el número de impactos por cm2 y por segundo que se producirán será :

Ahora bien, como el volumen V de la caja es l3, tendremos que el número total de impactos por cm2 y por segundo será:

Para obtener el impulso total de cada impacto hay que tener en cuenta que el impulso mecánico es igual a la variación de la cantidad de movimientos.

En toda colisión en la que una molécula de masa m y velocidad v rebote de la pared con igual velocidad absoluta pero en sentido contrario, la cantidad de movimiento variará de un valor inicial mv a un valor final – mv.

Es decir, la variación de la cantidad de movimiento es de 2mv.

Pero tal como se indicó anteriormente, Presión=Fuerza/Área= N° de Impactos/Área . s

Impulso de cada impacto:

Ahora bien, la energía cinética media de las moléculas y la temperatura absoluta del sistema están relacionadas por la expresión:

Donde k=1,3805 . 1016 erg./K. molécula es la constante de Boltzmann. Sustituyendo el valor de:

En la ecuación precedente se obtiene:

Pero como el número N de moléculas es igual a: 6,023 . 1023  . n , siendo n el número de moles , resulta

que es la ecuación de estado de los gases ideales,

Puede comprobarse sin dificultad que la constante universal de los gases, R, es el producto de la constante k de Boltzmann por el número de Avogadro.

Es decir, R = 6,023 • 1023- k.

RESÚMEN DE LOS POSTULADOS DE LA TEORÍA CINÉTICA DE LOS GASES:

postulados de la teoria cinetica de los gases

• UN POCO DE HISTORIA…

Demócrito había dicho que los átomos se hallan en continuo movimiento, agitados de manera desordenada en todos los sentidos.

Unas veces, decía, colisionan unos con otros y se pegan como dos bólidos que se dan de frente y se meten uno en otro; otras veces el encuentro termina en una unión que da origen a «sustancias» líquidas o sólidas.

Hacia finales del siglo XIX se descubrió lo esencial de las leyes sobre el comportamiento de los gases, la manera en que se combinan, se mezclan, qué presión ejercen sobre las paredes del recipiente donde se contienen, etc.

Así pues, es natural que en esta época se haya tratado de conocer todas estas propiedades partiendo de la idea de los átomos y de las moléculas que por aquel entonces salía a la luz, es decir, de profundizar en las ideas de Demócrito, pero de una manera un poco más precisa y un poco más cuantitativa.

Si la materia, en este caso el gas, está formada por miles de millones de partículas o de átomos, ¿cómo se pueden explicar, partiendo de sus supuestas propiedades las observaciones de los químicos?.

Dicho de otro modo, ¿cómo a partir de la descripción microscópica de la materia, de las estructuras elementales de las moléculas, se puede construir una teoría que permita explicar propiedades macroscópicas, que son las propiedades con las que trabajan los químicos, desde Gay-Lussac hasta Avogadro pasando por Dalton, hasta llegar a los químicos actuales?.

¿Cómo se puede pasar de las fórmulas químicas al campo del químico que sintetiza nuevos productos? Era menester volver a las fuentes.

Daniel Bernouilli, un genovés miembro de una prestigiosa dinastía científica, abrió el camino a finales del siglo XVIII.

Especialista de esa nueva rama de las Matemáticas llamada cálculo de las probabilidades, Bernouilli comprendió muy pronto que, para estudiar una población de átomos en número muy elevado, la mejor manera de lograrlo era hacer un modelo de su comportamiento de manera estadística y definir de ese modo el comportamiento de un átomo medio.

Pero si es cierto que se le deben a él las primeras ideas en la materia, también es cierto que su trabajo no llegó a un resultado definitivo.

Hacia finales del siglo XIX es cuando se desarrollará realmente la Física estadística, en medio de debates tumultuosos y bastante violentos desde el punto de vista intelectual.

Y ello es así porque esta Física estadística topaba de lleno con dos prejuicios sólidamente enraizados en los espíritus.

Agarrándose al primero, algunos, como ya hemos dicho, se oponían a la idea de átomos y de moléculas so pretexto de que nadie los había visto.

Y otros, apoyados en el segundo, rechazaban la utilización del cálculo de probabilidades.

¿Cómo la naturaleza, decían, cuyas leyes son perfectamente claras y están perfectamente determinadas, podría obedecer al cálculo de probabilidades, al azar, «esa máscara de nuestra ignorancia», como diría más tarde con humor Emile Borel, gran probabilista francés?

Tres hombres, tan distintos como excepcionales, son los que van a construir esta Física estadística.

James Clark Maxwell

Ludwig Boltzmann

Josiah Willard Gibbs

James Clark Maxwell, el autor de la grandiosa teoría de la unificación electromagnética, el gentleman escocés de Cambridge, una de las leyendas de la Física.

El es quien dará la señal de partida calculando la distribución de las velocidades de las partículas de un gas. Maxwell será un gran matemático, pero un atomista desapasionado.

Desgraciadamente morirá en plena batalla en 1918.

Ludwig Boltzmann es un austríaco más joven que Maxwell, a quien admira y venera.

Es un hombre caprichoso, matemático brillante, intelectual-mente ambicioso, con imaginación y con técnica a la vez, pero también es exageradamente impresionable, con frecuencia indeciso (por tres veces aceptará y rechazará después el puesto de profesor en Berlín, donde enseña el gran físico alemán Helmholtz, todo ello en el plazo de dos años), directo —según algunos, demasiado directo— en sus relaciones sociales.

Sin embargo, él será quien pondrá los cimientos.

Josiah Willard Gibbs. Este es un norteamericano.

Fue profesor en la Universidad de Yale. Aunque era reservado y solitario —se cuenta de él que un día, hablando con un colega, se enteró de que los profesores de Yale estaban remunerados, ¡cosa que él ignoraba!— será él quien instalará la Física estadística y hará la síntesis con la Termodinámica.

Es una verdadera pena que Gibbs y Boltzmann no se encontraran jamás, que por dos veces fallara su encuentro.

Porque parece ser que Gibbs fue uno de los pocos contemporáneos que entendía los artículos de Boltzmann, lo que suponía en él una gran experiencia matemática, además de una lucidez introspectiva considerable, dado lo abigarrados y difíciles que eran los artículos de Boltzmann.

Fuente Consultada:
Un Poco de Ciencia Para Todo el Mundo Claude Allégre
Elementos de Física y Qumica Maiztegui-Sabato
Guía de Apoyo Para El Estudiante Tomo: Física.

Temas Relacionados:

Dilatación de los Gases
Los gases nobles Gases Inertes Argon Neon Helio
Los Gases Nobles: Propiedades ,Aplicaciones y Concepto de Gas
Leyes de los Gases Ideales Ley de Boyle, Lussac y Ecuacion
El Humo: Gases de Combustión, Características y Concepto
Gas Natural Clasificación, Distribución, Transporte

Enlace Externo:• Introducción a la teoría cinetica de los gases

Tecnologia y Sociedad:Los Nuevos Inventos Que Se Vienen

Tecnologia y Sociedad:Los Nuevos Inventos Que Se Vienen

La vida será sofisticada y eficiente. ¿Cuáles serán los chiches de la nueva era? Valerie, el androide doméstico dotado de inteligencia artificial —y buenas piernas—, será uno.

Nos dará una mano con la limpieza y llamará a la policía ante urgencias.

Otra aliada de las tareas será Scooba, la aspiradora de iRobot, que con sólo apretar un botón fregará los pisos hasta los rincones más recónditos.

Asimismo, la Polara de Whirlpool nos facilitará las cosas.

Combina las cualidades de una cocina convencional y una heladera: será posible dejar un pollo en el horno para que se ase en el horario programado.

El gatito Cat de Philips habitará el hogar del mañana. Genera expresiones faciales —felicidad, sorpresa, enojo, tristeza— y será compinche de los chicos.

¿Qué habrá de nuevo a la hora de comer? “Se elegirán alimentos que hagan bien a la piel y al organismo.

De todas formas, no faltará quien ingiera por elección o comodidad, comida chatarra mientras lea una revista de salud y se prometa: «mañana empiezo el régimen”, opina la cocinera Alicia Berger. “Además, la gente se preocupará por el origen y calidad de los alimentos, y se revalorizará lo casero”, revela.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaY al irse a la cama, será posible introducirse en una que soporta ataques terroristas o desastres naturales —de Quantum Sleeper— o portar un reloj pulsera Sleeptracker (foto izquierda) que vía sensores, detecta

nuestro sueño superficial y justo ahí hace sonar la alarma para que el despertar sea lo menos fastidioso posible.

¿Y el sexo para cuándo?.

Mal que nos pese, cada vez tendremos menos ganas, tiempo y pasión.

“Vamos hacia el sexo virtual por sobre el real al menos en las grandes ciudades del mundo”, confirma el doctor Juan Carlos Kusnetzoff, director del programa de Sexología Clínica del Hospital de Clínicas, quien adelanta que para levantar el ánimo —y algo más— se desarrollarán nuevas píldoras.

“La industria farmacéutica desea lograrlo a toda costa”, agrega.

Ocio y tiempo libre para todos los gustos

En el campo de las nuevas tecnologías, la convergencia de la telefonía móvil y el hogar será un hecho.

“El móvil podría permitir el acceso a los diferentes elementos que se quieran controlar, como un control remoto universal. Además se crearían nuevos sensores para avisarnos de situaciones que requieran nuestra atención y cámaras de seguridad para ver desde el teléfono lo que sucede en otro lugar”, cuenta Axel Meyer, argentino que desde el 2000 trabaja en el centro de diseño de Nokia Desing, en Finlandia.

Y agrega “Los teléfonos con doble cámara ya permiten hacer videollamadas.

Y también podremos ver la emoción del otro mientras miramos la misma película o un gol de nuestro equipo”, explica.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaEn robótica, los avances irán a gran velocidad.

Ya se está desarrollando en la Universidad de Tokio la piel de robot que permitirá a estas criaturas adquirir el sentido del tacto. Y eso no es todo.

Se podrá bailar con ellos. El Dance Partner Robot es la compañera de baile ideal.

Predice los movimientos de su coequipper y no le pisa los pies!

Para momentos de ocio, el turismo estará preparado para el disfrute.

Pero, ¿se podría pensar en la pérdida de vigencia del agente de viajes tradicional? “Internet agiliza muchos aspectos de la gestión.

Hay un antes y un después en la forma de hacer turismo, pero, ¿quién se atreve a viajar con su familia a destinos exóticos o países desconocidos sin un asesoramiento de confianza?”, se pregunta Ricardo Sánchez Sañudo, director de la revista Tiempo de Aventura, quien sostiene que ante la coyuntura mundial —terrorismo, inseguridad y desastres climáticos, entre otros—, la Argentina crecerá como destino.

“Cuanto, más expuesto a estas amenazas esté el resto del mundo, tendremos ventajas comparativas que podremos aprovechar al máximo si conseguimos mantener esas amenazas fuera de nuestras fronteras, o al menos, razonablemente controladas”, manifiesta.

Por otra parte, la vida al aire libre será la estrella. “Vida sana, naturaleza viva y desarrollo sustentable son principios insoslayables cuando se mira hacia adelante, y tanto deporte como turismo aventura son dos de sus mejores herramientas”, analiza.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diariaLos amantes del deporte encontrarán aliados perfectos para seguir ganando.

El de los tenistas es la raqueta Magnetic Speed de Fischer, que permite mejores movimientos y mayor velocidad en los tiros.

Los que prefieren la música se sorprenderán con instrumentos como el Hand Roll Piano de Yama-no Music, con teclado de silicona flexible.

Trasladarnos será más simple, cómodo y ecológico. Y ya hay algunos adelantos. Tweel de Michelin es una llanta sin aire.

Así es que… la despedirse de las gomas pinchadas!

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

Por otro lado, acaso debido al tránsito en las ciudades, los transportes individuales serán protagonistas.

Como la bicicleta Shift, ideal para los chicos.

Les permite adquirir estabilidad gradual sin necesidad de las dos rueditas.

Ciencia y tecnologia en la Sociedad Su influencia en la vida diaria

Futuro saludable:

Que la salud avanza a pasos agigantados, no es una novedad.

La noticia es que estará al alcance de todos en los próximos años.

Las cirugías estéticas, se popularizarán y masificarán. La lipoescultura será la más pedida, según el doctor Raúl Banegas, cirujano plástico, miembro titular de la Sociedad de Cirugía Plástica de Buenos Aires, debido a que “La demanda social de ser cada vez más lindos, delgados y jóvenes, se acrecienta”.

Por otro lado, serán comunes las inyecciones de líquidos —fosfatidil colina— tendientes a disolver la grasa corporal, sin cirugía.

En cuanto a rellenos, la toxina botulínica es irremplazable aunque sí se espera que se sintetice de manera tal que dure más tiempo —hoy, de 3 a 6 meses—.

“En cuanto a rellenos definitivos habrá infinidad de sintéticos. Lo que sí parece ser prometedor, aún en fase de investigación, es el cultivo del propio colágeno. En sólo unos meses se podrían obtener en laboratorio, varias jeringas, lo que descartaría toda posibilidad de reacción”, adelanta.

En Neurociencias, será posible el neuromarketing a partir de tomografías PET —por emisión de positrones—, aunque “en lo inmediato son técnicas caras y requieren de un sofisticado análisis de los datos”, anticipa el doctor Facundo Manes, director del Instituto de Neurología Cognitiva —INECO—.

En lo que a neuroplastieidad se refiere, ya no diremos más aquello de que “neurona que se muere, se pierde”, viejo postulado que paralizó casi completamente durante décadas la investigación en esta área, según el especialista.

Y el conocer acerca de qué pasa en la cabeza de un adicto u obeso permitirá complementar con medicamentos aquello que químicamente requiera cada cerebro.

“Conocer las bases cerebrales de un trastorno neuropsiquiátrico ayuda a localizar los neurotransmisores —mensajeros entre las neuronas— involucrados en una enfermedad; de esta manera se podría investigar una posible solución farmacológica a esa determinada condición médica”, comenta.

En el campo de la reproducción asistida, las novedades son infinitas.

“Cada vez se podrán hacer más y mejores cosas en pos de mejorar las chances de tener un chico en brazos y no un embarazo que no pudo ser”, adelanta la doctora Ester Polak de Fried, presidente de CER Instituto Médico, directora del departamento de medicina reproductiva de la institución.

“Los estudios genéticos, tanto de gametas como de óvulos fertilizados —preembriones—, que permiten transferir al útero materno únicamente los sanos, se convertirán en técnicas habituales para aquellas mujeres que sufren abortos a repetición, por ejemplo.

En el área de la biología molecular, será posible encontrar marcadores génicos —detectan chances de reproducción—, tanto en los óvulos como en los espermatozoides para poder elegir los que tienen capacidades evolutivas, y así disminuir la cantidad de óvulos a poner a fertilizar y la problemática de tener gran cantidad de embriones criopreservados”, especifica quien es officer de la International Federation of Fertility Societies —IFFS—, que nuclea a 54 países.

Construcción, arte y moda

Uno de los cambios en lo que respecta a la construcción, al menos en Argentina, será la creciente conciencia ecológica y de cuidado del medio ambiente.

“El futuro de la arquitectura está definido en su responsabilidad ecológica tanto con eL medio ambiente como con el medio social.

No hay que explicar de qué manera el proyecto arquitectónico influye en el medio ambiente.

La decisión de su tecnología y su consecuencia en el futuro mantenimiento conforman una huella ecológica que deberá ser cada vez más analizada y respetada”, analiza el arquitecto Flavio Janches.

En cuanto a los materiales, “al menos en nuestro país, el ladrillo y la piedra, el hormigón y el revoque son materiales que no creo que se dejen de utilizar”, opina.

La moda tendrá sus cambios, aunque más bien tendrán que ver con el cosechar la siembra, al menos para los diseñadores argentinos.

“La gente va a reivindicar el diseño y pagarlo por lo que vale. Hoy por hoy, no existe esa conciencia, como en Estados Unidos, Europa o Japón”, asegura la diseñadora Jessica Trosman.

En cuanto al arte, en el futuro abandonará un poco los museos y las galerías para darse una vuelta por las calles.

Uno de los referentes de este movimiento es Julian Beever, artista inglés conocido por su trabajo en 3D, en veredas y pavimentos de Inglaterra, Francia, Alemania, Australia, Estados Unidos y Bélgica.

Y mientras se espera el futuro que se viene, a brindar por este 2006 que sí es inminente!

Fuente Consultada: Revista NUEVA Por Laura Zavoyovski (31-12-2005)
Ir a su sitio web

Temas Relacionados

Influencia de los Mitos en la Sociedad
El Poder de la Publicidad Sobre la Sociedad
La Psicologia Social Su Influencia de la Sociedad
Competencia de la Mujer Frente al Hombre
La Sociedad Japonesa: Vida, Costumbres y Tradiciones

Enlace Externo:Revista TECNOLOGIA HUMANIZADA sobre el uso responsable de la tecnología.

Pilas y Baterias: Acumuladores de Energía Electrica Funcionamiento

Pilas y Baterias Acumuladores de Energía Eléctrica: Química de su Funcionamiento

Alessandro Giuseppe Antonio Anastasio Volta, físico italiano, hijo de una madre procedente de la nobleza y de un padre de la alta burguesía, recibió una educación básica y media de características humanista, pero al llegar a la enseñanza superior optó por una formación científica.

En el año 1774, es nombrado profesor de física de la Escuela Real de Como.

Justamente, un año después

Volta realiza su primer invento de un aparato relacionado con la electricidad.

Con dos discos metálicos, separados por un conductor húmedo, pero unidos con un circuito exterior logra, por primera vez, producir corriente eléctrica continua, se inventa el electróforo perpetuo, un dispositivo que una vez que se encuentra cargado puede transferir electricidad a otros objetos.

Biografia de Volta Inventor de la Pila Electrica

Entre los años 1776 y 1778 se dedica a la química y descubre y aísla el gas de metano.

Un año más tarde, en 1779, es nombrado profesor titular de la cátedra de física experimental en la Universidad de Pavia.

Voltio, la unidad de potencia eléctrica, se denomina así en honor a este portentoso –en el buen sentido– de las ciencias.

Sus trabajos fueron publicados en cinco volúmenes en el año 1816, en Florencia. Sus últimos años de vida los pasó en su hacienda en Camnago cerca de Como, donde fallece el 5 de marzo de 1827.

El fundamento de las pilas y acumuladores es la transformación de la energía química en eléctrica, mediante reacciones de oxidación-reducción producidas en los electrodos, que generan una corriente de electrones.

Cuando se unen mediante un hilo metálico dos cuerpos entre los cuales existe una diferencia de potencial, se produce un paso de corriente que provoca la disminución gradual de dicha diferencia.

Al final, cuando el potencial se iguala, el paso de corriente eléctrica cesa. Para que la corriente siga circulando debe mantenerse constante la diferencia de potencial.

En 1800, Alejandro Volta inventó un aparato generador de corriente.

La pila de Volta (que él llamó «aparato electromotor de columna»> estaba constituida por un conjunto de pares de discos, unos de cobre y otros de cinc, con un disco de tela impregnada en agua salada —o en cualquier otro líquido conductor— intercalado entre dos pares sucesivos.

Se trataba de un dispositivo muy cómodo y manejable, que funcionaba de modo continuo, y que posibilitó la aparición de nuevos descubrimientos sobre electricidad.

esquema pila de volta

►Funcionamiento de una pila electroquímica

El funcionamiento de una pila es sencillo, consiste básicamente en introducir electrones en uno de los extremos de un alambre y extraerlos por el otro.

La circulación de los electrones a lo largo del alambre constituye la corriente eléctrica.

Para que se produzca, hay que conectar cada extremo del alambre a una placa o varilla metálica sumergida en un electrolito que suele ser una solución química de algún compuesto iónico.

Cuando ese compuesto se disuelve, las moléculas se dividen en iones positivos y negativos, que se mantienen separados entre sí por efecto de las moléculas del líquido.

El electrolito que utilizó Volta era ácido sulfúrico; cada una de sus moléculas, al disolverse en agua, se descompone en dos protones H+ (iones positivos) y un ion sulfatoSO4- (ion negativo).

Las varillas metálicas de cobre y cinc constituyen los electrodos, que deben ser sumergidos en el electrolito sin que lleguen a entrar en contacto.

La placa de cobre es el electrodo positivo o ánodo y la placa de cinc el electrodo negativo o cátodo.

Al reaccionar el electrolito con las varillas se produce una transmisión de electrones, que han sido extraídos de la placa de cinc, hacia la placa de cobre, con lo que los átomos de cinc son oxidados e incorporados a la disolución, según la reacción:

Zn —> Zn2++ 2e-

Esto ocurre así y no al revés, del cobre al cinc, porque los átomos de cinc tienen más tendencia que los de cobre a ceder electrones.

En la varilla de cobre se produce una reducción de los iones hidrógeno H+ de la disolución, ya que los electrones liberados por los átomos de cinc recorren el hilo conductor hacia la placa de cobre y son captados por los H+, que se convierten en átomos de hidrógeno y escapan en forma de gas. Estos electrones en movimiento son los que originan la corriente eléctrica.

Por su parte, los iones SO4- reaccionan con los cationes Zn2+ y se convierten en moléculas de sulfato de cinc.

2 H~+2e —> H2

Zn2+ + SO42- —> ZnSO4

Cuando se corta la conexión exterior entre las placas, los electrones no pueden desplazarse a lo largo del hilo de una placa a la otra, con lo que se interrumpe la reacción.

El dispositivo funciona mientras existan átomos de cinc para formar el sulfato correspondiente.

Cuando la placa de cinc se ha desintegrado por completo ya no puede producirse la reacción, por lo que la pila ya no tiene uso.

Por este motivo, las pilas de este tipo reciben el nombre de pilas primarias.

Baterías

Las pilas secundarias o acumuladores son aquellas que pueden recargarse, es decir pueden reiniciar el proceso mediante el aporte de energía de una fuente exterior normal mente un generador, que hace que los compuestos químicos se transformen en los compuestos de partida, al hacer pasar corriente a través de ellos en sentido opuesto

Un acumulador es, por tanto, un aparato capaz de retener cierta cantidad de energía en su interior, suministrada externamente, para emplearla cuando la necesite.

Así, una batería está formada por varios acumuladores, y puede ser ácida o calina en función’de la naturaleza del electrolito.

Por ejemplo, las baterías de los coches son ácidas, porque contienen un electrolito de ácido sulfúrico en el que se sumergen una placa de plomo metálico y otra de dióxido de plomo.

Las reacciones en este caso son las siguientes:

H2SO4 —> 2H+ + SQ42-

Cátodo:……………   Pb + S042 —->  PbSO4 + 2e-

Ánodo: …….. PbO2 + S042- +4 H30+ +  2 e- —>  PbSO4 + 6 H20

Cuando se agota el plomo o el dióxido de plomo la batería está gastada y para recargarla se hace pasar una corriente eléctrica de la placa positiva a la negativa mediante un alternador o dinamo, de manera que el sulfato de plomo se vuelve a des componer en plomo en la placa negativa, y en la positiva en dióxido de plomo

En las baterías alcalinas el electrolito suele ser hidróxido potásico, y las placas son habitualmente, de níquel y de hierro.

►Pilas de combustible

Para solucionar el problema del agotamiento definitivo de las baterías y acumuladores, Francis Bacon inventó en 1959 la llamada pila de combustible, en la que las sustancias que generan la corriente eléctrica no están contenidas en la propia pila, sino que se van aportando a medida que se necesitan.

La primera pila de combustible, también llamada pila Bacon, era alimentada por hidrógeno y oxígeno gaseosos.

Contiene un electrolito de hidróxido potásico disuelto en agua, entre dos placas metálicas porosas que no permiten el paso del electrolito a través de ellas, pero sí su penetración parcial.

Uno de los electrodos es alimentado con el gas hidrógeno y el otro con el oxígeno, a presiones determinadas para que sólo pueda penetrar una parte de la placa.

Es a través de los poros de los metales de las placas por donde entran en contacto los gases con el electrolito.

En la placa negativa se produce una combinación de las moléculas de hidrógeno con los iones hidroxilo del electrolito, suministrando electrones.

En la placa positiva los átomos de oxígeno capturan los electrones y se combinan con moléculas de agua para formar iones hidroxilo, que se disuelven en el electrolito.

Las reacciones continúan y la corriente eléctrica se mantiene mientras los electrodos estén conectados exteriormente y se produzca el aporte de oxígeno e hidrógeno.

A veces es necesario utilizar un metal que actúe como catalizador de la reacción. El idóneo es el platino, pero debido a su elevado coste suele emplearse níquel.

Este tipo de pilas son ideales para el suministro de energía en estaciones espaciales o submarinas, por ejemplo, donde no es fácil el montaje de equipos generadores de tipo convencional.

Sin embargo, no son válidas para sustituir a la batería de los automóviles, ya que se necesita un equipo auxiliar que caliente la pila y elimine el exceso de agua —en el caso de la pila Bacon— o de dióxido de carbono —en otros tipos similares que emplean carbonatos como electrolitos.

ALGO MAS..

►LA CORRIENTE ELÉCTRICA NO ES ALMACENABLE

La electricidad usual nos llega por cables desde la central eléctrica.

Pero la corriente no puede almacenarse en «tanques» del mismo modo que el agua, pues no es más que el movimiento de los electrones bajo la influencia de una «presión» o diferencia de tensión, o «voltaje», o «fuerza electromotriz».

Por eso, cuando necesitamos accionar pequeños aparatos, como linternas o radiorreceptores no conectados con la central eléctrica, empleamos pilas secas y acumuladores.

En éstos la electricidad se produce químicamente.

►LA PILA DE VOLTA

Si colocamos dos placas de metales diferentes en un recipiente con agua acidulada (puede ser una placa metálica y otra de carbono), el ácido ataca al metal y se produce una serie de complicadas reacciones químicas.

El ácido toma átomos de una de las placas metálicas y en cambio libera ios átomos de hidrógeno que ¡o constituían., pero los electrones del hidrógeno quedan en la placa, que por eso se sobrecarga negativamente.

Los átomos de hidrógeno sin electrón (iones hidrógeno) recuperan sus electrones a costa de la segunda placa, que entonces queda cargada positivamente.

En conjunto sucede como si los electrones de la segunda placa pasaran a la primera. Si están unidas a un circuito exterior, circulará una corriente eléctrica de la primera a la segunda.

Hay un inconveniente en este fenómeno.

Los átomos de hidrógeno (ya completos) se adhieren a la segunda placa formando una capa aislante y en cuestión de segundos impiden el acercamiento de nuevos iones, deteniéndose completamente la reacción.

Para evitarlo, en la práctica se agrega una sustancia química que se combina fácilmente con el hidrógeno y lo elimina dé la placa.

También se suele reemplazar el ácido sulfúrico por cloruro de amonio, sustancia de manipulación mucho menos peligrosa.

Existen otras pilas húmedas: la de Weston, de cadmio y mercurio, muy constante y estable a temperatura fija: suele ser de vidrio y se la emplea para comparar voltajes.

La pila de Lalande no usa ácido, sino sosa cáustica, zinc y óxido de cobre.   Trabaja bien en frío.   Su densidad es baja.

►LA PILA SECA

La pila seca consiste en un receptáculo de zinc («placa» negativa de la pila) en cuyo interior hay una varilla de carbón rodeada de una mezcla de polvo de carbón, bióxido de manganeso (MnOa), cloruro de amonio y cloruro de zinc en agua.

La reacción química entre el cloruro de amonio (CINHJ y el zinc deja a éste con un exceso de electrones mientras la varilla de carbón, que actúa como segunda «placa», queda con escasez de electrones, es decir, cargada positivamente.

El bióxido de manganeso actúa como despolarizador: elimina el hidrógeno adherido al carbón.

La diferencia entre la pila seca y la húmeda consiste en que en la primera el electrólito, absorbido por un medio poroso, no fluye, no se escurre.

El uso ha reservado este nombre a las pilas Leclanché, pero existen otras.

La varilla de carbón no suele ser de grafito, sino de negro de humo proveniente de la combustión de acetileno.

La pasta gelatinosa que contiene el electrólito puede ser de almidón y harina, o una bobina de papel: las pilas modernas usan metilcelulosa  con  mejores resultados.

El  voltaje  obtenido es 1,6; por cada amperio se consume  1,2 gramos de zinc.

►ACUMULADORES

La pila voltaica y la pila seca se llaman primarias o irreversibles porque las reacciones químicas no pueden invertirse, ni volver a emplearse los materiales gastados.

Una pila secundaria o reversible (por ejemplo, una batería de automóvil) puede cargarse nuevamente y emplearse otra vez haciendo pasar en sentido opuesto una corriente continua.

Así se invierten las reacciones químicas que tuvieron lugar durante la generación de electricidad y los materiales vuelven a su estado original.

El acumulador de plomo es un ejemplo de pila secundaria.

En lugar de placas se compone de rejillas para aumentar la superficie de contacto con la solución de ácido sulfúrico en agua destilada.

Los huecos de una placa están llenas de plomo esponjoso y ios de la otra de bióxido de plomo (PbCW.

La placa de plomo metálico (negativa) corresponde al  zinc y  la  de  bióxido de plomo equivale  al carbón de la pila seca (positiva).

Ambas placas reaccionan con el ácido sulfúrico y se forma sulfato de plomo. El acumulador se agota cuando ambas placas quedan recubiertas con un depósito blanco de sulfato de plomo y paralelamente disminuye la concentración del ácido sulfúrico.

La corriente eléctrica de recarga regenera en una placa el plomo esponjoso, en la otra el bióxido de plomo, y restituye el ácido sulfúrico al agua.

La «batería» completa consta de varios acumuladores conectados  entre  sí  para  aumentar  la  tensión  eléctrica   o voltaje del conjunto.

Los acumuladores convienen para descargas breves de alto nivel (estaciones telefónicas, locomotoras, automóviles).

Los nuevos plásticos les confieren menor peso.

En autos y aviones las placas delgadas permiten reducir peso y espacio y proporcionar mejor rendimiento a bajas temperaturas.

Pero las placas gruesas son sinónimo de larga vida, más o menos 1.000.000 de ciclos cortos.

Enlace Externo: Historia de la Pila

Historia del Lanzamiento Bomba Atomica en Hiroshima

Historia del Lanzamiento Bomba Atómica en Hiroshima

El 16 de julio de 1945, una gran bola de fuego se elevó en el cielo sobre el campo de pruebas de Alamogordo, en el desierto de Nuevo México (EE UU),

Con la prueba «Trinity» culminaban décadas de estudio de la estructura atómica y la naturaleza de la radiactividad.

Con una energía equivalente a 16.000 toneladas de TNT, fue la primera explosión nuclear artificial, anuncio de una tecnología que cambiaría el mundo, para bien o para mal.

La era nuclear pudo haber nacido en Alemania nazi si Hitler hubiera prestado mas atención al trabajo de sus científicos.

En diciembre de 1938, en el Instituto de Química Kaiser Guillermo , de Berlín, Otto Hahn y Fritz Strassman , despues de seis años  de experimentos, lograban escindir el átomo de uranio, proceso hasta entonces considerado contrario a la ley natural.

Su trabajo implicaba la posibilidad de una reacción en cadena controlada y la liberación de inmensas cantidades de energía.

El Fatal Hongo Nuclear

bomba de hiroshima

Por el mundo científico se extendió rápidamente la noticia de este hallazgo: el gran físico danés Niels Bohr se enteró por dos colegas que habían huído de los nazis.

A principios de 1939, Bohr marchó a los Estados Unidos y comunicó sus conocimientos a los científicos americanos.

Los más notables eran dos físicos refugiados, el italiano Enrico Fermi y el húngaro Leo Szilard.

Pero los esfuerzos para convencer al gobierno estadounidense de las posibilidades militares del átomo rindieron escaso fruto, hasta que Szilard logró persuadir a Albert Einstein, el científico más famoso de América y también judío alemán refugiado, para que firmara una carta dirigida al presidente Franklin D. Roosevelt en el mes de octubre de 1939.

El Poder del Atomo

Aunque Roosevelt estaba en teoría convencido, durante los dos años siguientes el avance de la investigación atómica patrocinada por el gobierno fue lenta e irregular.

Aun así, el proceso había comenzado y en 1939 la cuestión a la que se enfrentaban los científicos no era la de construir armas atómicas, sino cómo conseguirlas antes de los nazis.

Por fin, el 6 de diciembre de 1941 —un día antes del ataque japonés a Pearl Harbor—, Vannevar Bush, jefe del Departamento de Investigación y Desarrollo Científico de los EE. UU., lograba la aprobación presidencial de un plan de acción total en el ámbito de la investigación atómica.

El programa científico-militar-industrial que siguió fue característico de Estados Unidos, con su relativa invulnerabilidad ante un ataque, su enorme capacidad industrial y su fe en la ciencia y la tecnología.

Los físicos nucleares sabían, al menos en teoría, que podían someterse a una rápida fisión, o reacción en cadena, cantidades suficientes de dos derivados del uranio, el U-235 y el elemento plutonio, fabricado por el hombre.

• ► Proyecto Manhattan

El 17 de septiembre de 1942, el general Groves fue nombrado jefe del supersecreto y superprioritario Proyecto Manhattan,para iniciar la construcción de una bomba atómica.

Groves reclutó a dirigentes industriales y a científicos galardonados con el premio Nobel, obtuvo del Tesoro 2.000 millones de dólares en fondos secretos, impuso secreto total a los miles de operarios empleados en el proyecto y seleccionó los parajes aislados donde se realizaría el trabajo.

En la primavera de 1943, en Los Alamos (Nuevo México), donde el trabajo era más peligroso y las medidas de seguridad más estrictas, un equipo dirigido por Oppenheimer emprendió el diseño de una bomba viable que cupiese en el nuevo bombardero de largo alcance B-29, al poco tiempo y bajo un hermetismo total la bomba estaba lista para ser probada.

El 16 de julio de 1945, en un escondido paraje de la base aérea de Alamogordo, en Nuevo México —lugar al que Oppenheimer hacía llamar «Trinity»—, se probó la primera bomba de plutonio.

Conocida en clave como «Fat Man» (Gordo) porque su perfil rechoncho recordaba al de Churchill, la bomba superó todas las previsiones.

(La bomba de U-235 no se probó nunca porque los científicos confiaban que funcionaría bien.)

La última etapa de la Segunda Guerra Mundial, conocida como guerra  en el Pacífico, fue encarnizada y la reconquista de las islas y posiciones continentales en poder de los japoneses costó miles de víctimas.

Aunque en retroceso, las tropas japonesas se defendían con furor suicida y ello llevó a suponer que la conquista del archipiélago nipón tendría un alto coste en vidas de soldados norteamericanos.

Esta fue una de las razones que adujo el presidente norteamericano, Harry S. Traman para ordenar el lanzamiento de dos bombas atómicas sobre las ciudades japonesas de Hiroshima, el 6 de agosto de 1945, y Nagasaki, tres días después; el tremendo poder destructivo de aquellos ingenios nucleares produjo en cada una de estas dos ciudades cerca de 250.000 muertos, aunque propició que el 14 de agosto cesaran las hostilidades y a que, el 2 de septiembre, a bordo del acorazado norteamericano Missouri, surto en la rada de Tokio, los emisarios del emperador Hiro-Hito firmaran la capitulación «sin condiciones» de Japón.

Símbolo de la Destrucción Nuclear

https://historiaybiografias.com/archivos_varios5/bomba-hirosima.jpg

Convencidos los Estados Unidos de que la lucha con el Japón podría prolongarse demasiado, se decidió probar la fuerza disuasoria de las bombas atómicas, y primero Hiroshima y después Nagasaki sufrieron las consecuencias de la explosión nuclear, lo que provocó la inmediata rendición de los japoneses.

En la fotografía, la llamada «cúpula atómica «, que se conserva en Hiroshima como recuerdo de la tragedia.

HISTORIA DEL  LANZAMIENTO DE LA BOMBA

El Plan Secreto

La Bomba de Hiroshima Lazamiento Bomba Atomica Bomba Nuclear Carta HistóricaH I R O S H I  M A: El día 5 de agosto de 1945, en la base de Tiniaii, una isla de las Marianas a 200 km. de Guam, una tripulación de B-29 –la famosa superfortaleza volante– integrante del  509.

Grupo Mixto y preparada desde muchos meses antes en la base secreta de Wendover, en Utah, para una misión espacialísima, esperaba llena de ansiedad la llegada de una orden. 

El entrenamiento había sido durísimo y realizado en el más absoluto aislamiento. 

La tripulación la encabezaba el coronel Paul Tibbets, veterano jefe de grupo de B-17 con múltiples misiones en Europa y el norte de África y que había sido elegido por sus excepcionales cualidades técnicas y personales.

Él había escogido como hombre de la más absoluta confianza, para acompañarle en la misión, al oficial bombardero Tom Ferebee, experto en el bombardeo por medios visuales, y al oficial de derrota Ted van Kirk, llamado «Dutch», navegante peritísimo.

Durante meses habían hecho prácticas de lanzamiento de una rara bomba a la que se llamaba familiarmente «La Cosa«, un enorme cilindro dotado de cola, cuyo contenido explosivo era un arcano para casi todos.

Sólo Tibbets estaba en el secreto de su carga nuclear y, llegado el momento del lanzamiento, la pregunta que le obsesionaba era: ¿la deflagración alcanzaría a volatilizar el avión portador de la bomba? «No obstante confesaría después el propio Tibbets yo confiaba plenamente en los científicos y sabía que sus cálculos eran de una precisión total. 

Ellos me habían explicado que, en el instante de la explosión, mi avión se habría alejado 17 kilómetros del punto cero en relación con la trayectoria de la bomba. 

Por otra parte, en cuanto al problema de la onda provocada por la bomba, los ingenieros aeronáuticas me aseguraron que mi superfortaleza soportaría un choque de 2 g, es decir, el doble de su propio peso.»

Aquel día 5 se llegaba a la fecha de la gran decisión, porque los meteorológicos habían pronosticado que el período entre el 6 y el 9 de agosto ,cría el más favorable para realizar el bombardeo desde el cielo japonés. 

Un Brillante Científico

Robert J. Oppenheimer Robert J. Oppenheimernació en  1904, en Nueva York, siendo hijo de un emigrante alemán llegado a América a los 14 años y que posteriormente haría fortuna en negocios textiles.

Desde su más temprana infancia, Oppenheimer demostró poseer una inteligencia privilegiada. 

Sus estudios superiores los cursó en Harvard, simultaneando las humanidades con la física y la química. 

Dotado de una gran ansia de saber, y con una extraordinaria capacidad para asimilar conocimientos, se interesó por el  pensamiento oriental, estudió el hinduismo y llegó a dominar el sánscrito, aparte de numerosas lenguas vivas. 

En 1925 se diplomó cum laude en Harvard.  Posteriormente, amplió estudios de física en Cambridge con Rutherford, en Gotinga con Born y Dirac y más, en Zurich Leyde.

Su brillantez intelectual y la profundidad de sus estudios le hicieron perfilarse como un científico de gran porvenir, que había encontrado su camino en la más fascinante empresa que en la década de 1930 se le podía proponer a un físico: la investigación atómica. 

En 1929 empezó a dar clases de física en la Universidad de Berkeley, donde dispuso de un importante laboratorio de investigación.

Alineado entre los intelectuales americanos de ideas socialmente progresivas, Oppenheimer no hizo un secreto de su antifascismo ni de su filomarxismo, aunque no llegara a militar en el partido comunista. 

En el período anterior a la Segunda Guerra Mundial, mantuvo una relación íntima con una doctora, conocida militante del comunismo.

En 1942 -a los 38 años- le ofrecieron la supervisión y el control global del proyecto Manhattan y la dirección del super laboratorio de Los Alamos.

 La oportunidad de tener a su alcance la construcción del ingenio más poderoso de todos los tiempos fue tentación que venció todos los escrúpulos morales de Oppenheimer. 

Durante el proceso de fabricación de la bomba volvió a tener contacto con su antigua amiga, la militante comunista, hecho que no escapó al conocimiento del general Groves, responsable máximo de la seguridad. 

El general, tras una conversación afondo con Oppenheimer, se aseguró de que éste había roto sus relaciones con la extrema izquierda y, valorando la importancia proyecto lo confirmó en el cargo. 

El éxito alcanzado con la fabricación de bomba y sus efectos sobre Japón hicieron que Oppenheimer fuera exalta do por la prensa y la opinión pública americana como el hombre que había hecho posible el victorioso final de guerra.

Ante el problema moral suscitad por la carrera atómica, Oppenheime descubrió el personaje hamletiano qu llevaba dentro, manifestándose pes a sus reparos íntimos en pro de continuidad de las investigaciones.

Por eso constituyó una gran sorpresa el saberse, en octubre de 1945, que abandonaba la dirección de Los Alamos y volvía a la enseñanza.  

En 1947 fue designado director del Instituto Estudios Superiores de Princeton y entró a formar parte de la Comisión de Energía Atómica.

Cuando en 1950 el presidente Truman ordenó la construcción de la bomba de hidrógeno, Oppenheimer, una vez más, se mantuvo en una duda atormentada por el alcance de la carrera nuclear, pero sin alinearse entre los opositores.

En 1954, al llegar el período de la «caza de brujas», Oppenheimer fue acusado de «actividades antiamericanas» por haber mantenido relaciones con elementos comunistas. 

Con arreglo a las prácticas utilizadas por la Comisión de Encuesta, se le declaró «indeseable para toda función que supusiese un acceso a secretos militares». 

Pese a la protesta de gran número de científicos, Oppenheimer hubo de sufrir años de ostracismo oficial.

Durante ellos, no obstante, continuó trabajando en la Universidad y dando conferencias. 

En 1958 viajó a París, fue recibido en la Sorbona y el Gobierno francés le otorgó la Legión de Honor, todo lo cual e una especie de desagravio al que se asociaron los científicos europeos.

Fermi científico que realizó las primeras experiencias atómicas

En 1963 fue rehabilitado y se le otorgó el premio Fermi, el más alto galardón que se concede a los destacados en la investigación nuclear.

Falleció en 1967, en Princeton.

Su vida fue una demostración del enfrentamiento del hombre de ciencia con unos problemas éticos y morales que le desbordan. 

El mito del «aprendiz de brujo» tuvo en el patético destino de Oppenheimer su más patente manifestación.

En el verano de 1939, la energía nuclear había desvelado ya sus inmensas posibilidades destructivas. 

La fisión del uranio, llevada a cabo por primera vez por Enrico Fermi, iba acompañada por un desprendimiento enorme de energía. 

Pero esto no era todo: si la fisión del primer núcleo podía emitir varios neutrones, cada uno de éstos podía provocar la fisión de otro núcleo, que a su vez al fisionarse emitía…

Era la reacción en cadena prevista por Joliot y Szilard.

La idea de estar ante una fuente de energía inimaginable, la posibilidad de tener al alcance la preparación de una mítica fuerza explosiva, sobrecogió a los físicos que habían llegado a abarcar teóricamente los efectos de la fisión en cadena. 

Pero se estaba en 1939.  Muchos físicos, investigadores del átomo, habían abandonado Alemania por su condición de judíos.

Otros, como el italiano Fermi, habían emigrado en desacuerdo con el fascismo que imperaba en su país.  Y todos ellos se habían refugiado en Estados Unidos. 

La idea de que los sabios alemanes que habían quedado en su tierra pudieran preparar el arma atómica era una suposición que podía hacer de Hitler el amo del mundo.

EINSTEIN AlbertAnte esta temible eventualidad, Leo Szilard, un científico atómico húngaro refugiado en Norteamérica, pidió a Albert Einstein que llamase la atención del Gobierno americano sobre el peligro que amenazaba, si los nazis conseguían preparar una bomba atómica. 

Entre dudas y reticencias, el tiempo pasó. 

Entre tanto, los ensayos y las investigaciones nucleares habían proseguido en Princeton, en Berkeley, en Columbia…

En 1941, los japoneses atacaron Pearl Harbor. 

Estados Unidos era ya un país beligerante.

Ello precipitó la decisión. 

En agosto de 1942 se llegó a un acuerdo para unir esfuerzos entre el Gobierno americano y el británico a fin de comunicarse sus investigaciones, y el Ejército americano recibió el encargo de dar prioridad absoluta, acelerando, coordinando y recabando cuantos recursos fueran necesarios para realizar un proyecto al que se le puso el nombre clave de « Manhattan». 

Su objetivo era fabricar la primera bomba atómica.

En el otoño de 1942, el general Leslie Groves, que había sido designado responsable del proyecto, se entrevistó secretamente con el físico Robert J. Oppenheimer, un brillante investigador cuyas cualidades personales de animador, capacidades de coordinador y poder de captación le hacían especialmente idóneo para dirigir en lo técnico la suma de esfuerzos que iba a representar el proyecto.

El lugar elegido para situar la planta de acabado fue Los Alamos, en Nuevo México, lejos de cualquier centro habitado. 

En la bomba se puso a trabajar un ejército de científicos, de técnicos, de militares: directa o indirectamente, más de cien mil personas, la mayoría ignorantes de la finalidad real de su trabajo.

La movilización fue total.  Todos los recursos disponibles se pusieron al servicio de la gigantesca empresa. 

Cientos de millones de dólares se gastaron en un esfuerzo tecnológico que abarcó una colosal Planta construida en Tennessee, un grandioso laboratorio en la Universidad de Columbia, una enorme instalación en Oak Ridge, otra en Hanford. 

La Planta Atómica de Los Alamos

Y en Los Alamos, junto a la planta atómica, surgió una ciudad habitada por los científicos y sus familias.

Era difícil que aquella dispersión no traicionara el secreto exigido.  P

ero los severísimos controles y la más estricta vigilancia evitaron cualquier filtración.

Al principio se creyó que la bomba estaría lista en un año, pero se llegó a 1944, con el proceso muy avanzado.

La evidencia de que Alemania no podría ya obtener la bomba y el sesgo favorable de la guerra contra Japón decidieron al científico danés Niels Bohr, premio Nobel de Física, a dirigir un memorándum al presidente Roosevelt previniéndole contra «la terrorífica perspectiva de una competencia futura entre las naciones por un arma tan formidable». 

Pero el mecanismo infernal no podía ya detenerse.

La posesión de la bomba era un objetivo demasiado codiciado.

En julio de 1945, todo estaba listo para la gran prueba. 

En Los Alamos se hallaban Oppenheimer, Bohr, Fermi, Bethe, Lawrence, Frisch… toda la plana mayor de los sabios nucleares.

El día 16, a las dos de la madrugada, las personas que debían intervenir en la primera prueba estaban en sus puestos a varios kilómetros del punto cero.  Se fijó la hora H para las 5 de la madrugada. 

A las 5.30, una luz blanca, radiante, mucho más brillante que el sol del mediodía, iluminó el desierto, las montañas en la lejanía…

Adaptar la superfortaleza volante B-29

La superfortaleza volante B-29, fabricado por Boeing, fue el mayor avión construido durante la  Guerra Mundial.

Proyectado en 1939 y tras un período de prueba en el que tuvieron que superarse múltiples deficiencias técnicas, las primeras entregas a ultramar se hicieron en marzo de 1944. 

Intervino, decisivamente en las operaciones aéreas contra Japón y Alemania. 

Fue el primer gran bombardero construido en serie dotado de compartimentos presurizados. 

También fue el primero que dispuso de un sistema centralizado y sincronizado de tiro de las ametralladoras. 

Sus dimensiones eran gigantescas: longitud, 30 metros; envergadura, 43 metros. 

Iba equipado con cuatro motores Wright de 2.200 HP de potencia, que le daban una velocidad máxima de 585 kilómetros por hora a 7.600 metros de altitud. 

La velocidad de crucero de gran alcance era de 350 kilómetros a la hora, siendo su radio de acción de más de 8. 000 kilómetros y su techo de servicio de 9.700 metros. Su tripulación estaba integrada por 11  hombres.

Su armamento constaba de 10 ó 12 ametralladoras y un cañón de 20 Mm. y su carga explosiva podía ser de cuatro bombas de 1.800 kilos u ocho de 900 kilos. 

Para cargar la bomba de uranio, el Enola Gay hubo de acomodar su bodega, dado que las dimensiones del ingenio superaban los 70 cm. y ,de diámetro los 3 m de longitud.

La acción más espectacular y destructiva en la que participaron los B-29 fue el bombardeo realizado en la noche del 9 al 10 de marzo de 1945, Por 279 aparatos de este tipo sobre: Tokio. 

En una sola noche, las superfortalezas destruyeron casi 25 kilómetros cuadrados del centro de la capital japonesas arrasaron el 25 % de los edificios de la ciudad. 

Cerca de 85.000 personas perdieron la vida y otras tantas ,resultaron heridas, mientras que un millón de habitantes ,de Tokio quedaron sin hogar.

El día de la rendición de Japón, las fuerzas aéreas norteamericanas tenían en servicio 3.700 bombarderos del tipo B-29.

Las superfortalezas todavía tuvieron una importante participación en la guerra de  Corea; pero en 1955, con la puesta en servicio de los grandes bombarderos a reacción B-47 y B-52 y la del B-36 mixto, los B-29  fueron retirados definitivamente.

En esencia, la bomba atómica es un reactor o pila nuclear que no utiliza moderador (es decir, ninguna sustancia que frene las partículas emitidas por el elemento radiactivo) y en la que se origina una reacción en cadena.

Dos trozos de material radiactivo (uranio 235 en la Little Boy que se lanzó sobre Hiroshima y que aparece en la fotografía inferior,- plutonio 239 en la Fat Man que se lanzó sobre Nagasaki), de masa inferior a la crítica (es decir, a la masa a la que la reacción en cadena se produce de forma espontánea) y separados por un espacio vacío, son impelidos a chocar entre sí mediante la explosión de dos cargas convencionales, de forma que la nueva masa resultante es superior a la crítica, produciéndose la reacción nuclear.

Efectos a partir del centro:

Dependiendo de su tamaño, los efectos de una deflagración nuclear, se expanden en círculos concéntricos a partir del punto de impacto, que normalmente se encuentra situado a cierta altura sobre el terreno.

El círculo más exterior es, lógicamente, el de menor destrucción y la causa principal de ésta es la radiación térmica, que produce una «tempestad de fuego», quemaduras e incendio.

En el círculo intermedio, donde la causa principal de destrucción es la onda de la explosión (expansión y choque), se producen derrumbamientos, roturas de conducciones de gas y agua, proyección de cascotes y cristales, etc.

Finalmente, en el círculo interior, la destrucción es total a calísa de las enormes temperaturas (en Hiroshima, 17.000 personas «desaparecieron» carbonizadas y pulverizadas) y la radiación mortal.

Los diámetros de estos círculos varían; por el . ejemplo, en una bomba de cien kilotones (unas siete-cinco veces la de Hiroshima) son de dentro a fuera:2,5 km., 8 km. y 16 km. 

Plan de vuelo

El vuelo tenía prevista la hora de despegue para las 2.45 de la madrugada del día 6, esperándose alcanzar el objetivo -que podía ser Hiroshima, objetivo prioritario, o bien Kokura o Nagasaki- seis horas después, es decir a las 8.15, hora exacta que se había precisado en función de las previsiones de la meteorología.

  Tres superfortalezas acompañarían en el despegue al Enola Gay. 

Una de ellas tendría como misión el dar los datos meteorológicos en el último momento y ya sobre el espacio aéreo japonés, designando en función de este factor la ciudad que quedaría marcada por el fatal destino de sufrir el comienzo de la era atómica. 

En los otros dos aviones viajarían los científicos encargados de observar y registrar los efectos de la bomba.

ENOLA GAY

Al término de la exposición del plan de vuelo, Tibbets anunció con voz grave que le era necesario dar una información adicional del más alto interés. 

Y habló de que se trataba de lanzar una bomba cuyos efectos significarían muy probablemente la derrota de Japón y el fin de la guerra. 

Tibbets, sin embargo, se abstuvo de mencionar el calificativo de «atómica» aplicado ala bomba, pero precisó que la potencia del infernal ingenio equivaldría a la de 20.000 toneladas de trilita. 

Sus palabras causaron una impresión profunda en la tripulación, a la que se había incorporado el copiloto Bob Lewis, el ametrallador de cola Bob Caron y de la que formarían parte tres personas más: el capitán Parsons -ya citado- y su ayudante el teniente Morris Jeppson, quienes tendrían a su cargo el activado de la bomba una vez en vuelo; y a ellos se añadiría el teniente Beser, especialista en electrónica.

 El despegue hacia un objetivo desconocido

Y llegó el momento decisivo.  A la 1.45 de la madrugada despegó el B-29 destinado a la misión meteorológica.  Los otros despegarían después. 

A las 2.15, el B-29 modificado para que en su bodega cupiera la bomba de uranio 235, a la que se había bautizado con el nombre de Little Boy («Muchachito»)

Entre una hilera de cámaras , iluminado por potentes  estaba en la cabecera de la pista probando a plena potencia sus cuatro motores Wright de 2.200 caballos de por que querían registrar el histórico acon proyectores, el Enola Gay arrancó de la pista con los cuatro mil kilos de la bomba en sus entrañas. 

Eran las 2.45 de la madrugada del 6 de agosto de 1945.

Alcanzada la cota de vuelo y con el rumbo puesto hacia el archipiélago japonés, Parsons y su ayudante pusieron manos a la obra en la bodega del bombardero para activar el arma nuclear. 

Veinte minutos después, habían dado fin a su tarea. 

Fue entonces cuando el coronel Tibbets, tras conectar el piloto automático, reunió a la tripulación y les explicó la naturaleza exacta del explosivo que llevaba a bordo. 

Para aquellos hombres, hechos al cumplimiento de unas misiones bélicas destructivas, cualquier reparo moral estaba en aquel momento fuera de lugar. 

Aún más, la idea de que con aquel explosivo podían acortar la guerra y ahorrar millares de vidas norteamericanas ahuyentaba cualquier escrúpulo de conciencia.

Entre tanto, el Enola Gay proseguía su vuelo sin novedad sobre la capa de nubes por encima de la zona de turbulencia.  Poco a poco se iban percibiendo las tenues luces del amanecer.  Se acercaba la hora del alba. 

Al llegar el avión a la altura de lwo Jima, según el horario previsto, dos aparatos de escolta esperaban describiendo círculos la llegada del bombardero para, una vez avistado, ponerse a la altura del Enola Gay y seguir el vuelo juntos, hacia el objetivo.

El nuevo día empezaba a despuntar. 

Un nuevo día que millares de seres humanos de una ciudad todavía ignorada no verían llegar a su crepúsculo, víctimas de una horrible muerte.

La meteorología sella el destino de Hiroshima

A las 7.09 se recibió en el Enola Gay el esperado mensaje. 

Era del comandante EatherIy del Straight Flush, el avión meteorológico que les había precedido en el despegue y que en aquellos momentos volaba a 10.000 metros sobre Hiroshima. 

En él se confirmaba el objetivo principal como destino de la bomba. 

La ciudad, en medio de un anillo de nubes, aparecía a través de un hueco de 15 kilómetros en el que la visibilidad era perfecta.

  El mensaje del Straight Flush selló el destino de la ciudad. 

El navegante Van Kirk marcó el rumbo preciso para situarse en la vertical del objetivo.

Sobre Hiroshima se había despertado también el sol de la mañana de un nuevo día que -fatalmente- se anunciaba magnífico, sin nubes. 

Era una ciudad con más de 300.000 habitantes, famosa por sus bellísimos sauces y que hasta aquel día, pese al sesgo desfavorable que la guerra había tomado para el Japón, no había experimentado más conmoción que el estallido de 12 bombas enemigas.

  Aquella mañana despejada, sus habitantes se disponían a hacer su vida habitual. 

El puerto, antes animado por los embarques de tropas, aparecía desierto, porque la siembra de minas realizada por los aviones americanos hacía que casi ningún barco fondease ahora en Hiroshima. 

Fábricas, almacenes y enlaces ferroviarios trabajaban a pleno rendimiento para aprovisionar y equipar a un ejército que, muy pronto, tendría que afrontar el desembarco de los americanos en sus propias islas.

Afanada en sus quehaceres diarios, la gente prestó escasa atención a las sirenas que sonaron anunciando la presencia de un avión enemigo, un B-29 que volaba a gran altura y que, después de cruzar por dos veces el cielo de la ciudad, desapareció. 

El fin de la alarma sonó a las 7.30.

Era el B-29 del comandante Eatherly, que había cumplido su misión de guía del Enola Gay. 

Al cese de la alarma, la gente dio un suspiro de alivio. 

Los hombres inútiles para el servicio y los estudiantes que trabajaban en la defensa pasiva creyeron que, una vez más, el azote de las bombas iba a pasar sobre Hiroshima sin dejar rastro.

 Las gentes procedentes de zonas bombardeadas celebraron una vez más su buena fortuna en la elección de la ciudad que les había dado acogida.

De los hombres que participaron en los bombardeos de Hiroshima y Nagasaki, no todos salieron incólumes de esa siembra de destrucción.  Veinte años después, el mayor Claude Eatherly era víctima de fuertes trastornos emocionales. 

Era el hombre que, desde el avión meteorológico Straight Flush, había marcado el destino de Hiroshima señalándola como el objetivo del Enola Gay.

Eatherly, el servicio durante un   de finalizada la guerra, una vez desmovilizado empezó a experimentar  trastornos psiconerviosos influido por un claro complejo , de culpabilidad.

Su atormentado estado de ánimo se hizo público cuando fue detenido por provocar un gran alboroto y producir destrozos en un lugar público.

  Tratado como héroe de guerra en el juicio que se le siguió, rechazó toda consideración y , pidió ser condenado, ya que se: sentía profundamente culpable. 

Aquel fue el inicio de todo un proceso de autopunición, que le llevó de los tratamientos psiquiátricos a sucesivas detenciones cada vez que su conducta buscaba un motivo para ser castigado.

Su plan, como él mismo confesó, era acumular actos.

La protesta contra la sociedad que, según él, le había convertido en un asesino. 

Su calvario se prolongó durante años y su figura fue esgrimida por grupos pacifistas y contrarios al uso de la energía atómica, mientras que la sociedad contra la que él se alzaba le tildaba de «loco».

Para otro aviador, la contemplación de la explosión? nuclear y la idea de las muertes producidas significó también un profundo cambio en su destino. 

Fue el coronel inglés Leonard Cheshire, el piloto de bombardero más condecorado de la RAF, invitado a volar como observador en el avión meteorológico que escoltó al que bombardeó Nagasaki. 

Cheshire, superviviente de más de cien misiones sobre Alemania y los países ocupados, curtido en la destrucción por las «bombas terremoto» usadas por la RAF, quedó traumatizado por los efectos de la bomba nuclear.

 Y de su mente no pudo apartarse la imagen de hasta dónde puede llegar el poder destructivo que el hombre, movido por el odio de la guerra, es capaz de el ejercer contra la propia humanidad.

Terminada la guerra, pidió el retiro de la aviación, se convirtió al cristianismo y creó una fundación destinada a atender enfermos.

La hora H: 8h 15’17» del día 6

A las 7.50 hora de Tokio, el Enola Gay volaba sobre las inmediaciones de la isla de Shikoku. 

A las 8.09 se divisó desde el avión el contorno de Hiroshima. Tibbets ordenó a los dos aviones de escolta que se retirasen y, por el interfono, indicó a su tripulación que se pusiera los anteojos que habían de protegerles contra el resplandor de la explosión. 

A las 8.1 1, Tibbets accionó el mecanismo preparatorio para soltar a Little Boy.  Faltaban menos de cinco minutos. 

Debajo del Enola Gay, la ciudad de Hiroshima se veía cada vez más cerca.  El apuntador Ferebee se sabía de memoria la planimetría de la ciudad. 

Rápidamente encuadró su punto de mira en el lugar elegido: un gran puente sobre el río Ota. 

Cuando tuvo, puso en marcha la sincronización automática para el minuto final del lanzamiento. 

El plan preestablecido era lanzar la bomba a las 8.15, hora local. 

Las favorables condiciones atmosféricas y la pericia de Tibbets permitieron que el avión coincidiera con el objetivo exactamente a las 8 horas, 15 minutos y 17 segundos. 

En aquella hora fatídica se abrieron las compuertas del pañol y, desde una altura de 10.000 metros, el ingenio atómico inició su trayectoria genocida.

Aligerado de un peso de más de 4.000 kilos, el bombardero dio un gran brinco hacia arriba.

 Tibbets marcó un picado hacia estribor y a continuación hizo un viraje cerrado de 158′, a fin de alejarse al máximo del punto de explosión. 

Al mismo tiempo, desde el instante del lanzamiento, Tibbets se puso a contar mentalmente los segundos calculados hasta que la bomba estallara. 

Transcurridos 43 segundos, cuando el avión se encontraba a 15 kilómetros del punto del impacto, la bomba hizo explosión, accionada por una espoleta automática a unos 550 metros por encima del punto de caída y a 200 metros escasos del blanco elegido. 

Una enorme bola de fuego se iba transformando en nubes purpúreas…

Repentinamente, el espacio se había convertido en una bola de fuego cuya temperatura interior era de decenas de miles de grados. 

Una luz, como desprendida por mil soles, deslumbró a pesar de los lentes a Bob Caron, el ametrallador de cola, que, por su posición en el aparato, quedó encarado al punto de explosión. 

Una doble onda de choque sacudió fuertemente al avión, mientras abajo la inmensa bola de fuego se iba transformando en una masa de nubes purpúreas que empezó a elevarse hacia las alturas, coronándose en una nube de humo blanco densísimo que llegó a alcanzar 12 kilómetros de altura y que adoptó la forma de un gigantesco hongo.

«Entonces nos dimos cuenta -explicaría Tibbets- de que la explosión había liberado una asombrosa cantidad de energía.»

El Enola Gay, superada la prueba de la onda de choque, viró hacia el sur y voló sobre las afueras de Hiroshima, a fin de fotografiar los resultados del histórico bombardeo. 

Y entonces fue cuando la tripulación pudo comprobar la espantosa destrucción que habían sembrado. 

Iniciado el vuelo de regreso, a 600 km de distancia todavía era visible el hongo que daba fe de la aparición del arma que abría una nueva y dramática era en la historia de la humanidad.

Una sensación impresionante dominaba a toda la tripulación, como si la tensión nerviosa liberada hubiera dado paso a la obsesionante idea de haber provocado una destrucción sin precedentes. 

Parsons y Tibbets lanzaron entonces el mensaje que iba a conmover al mundo: «Resultados obtenidos superan todas las previsiones.»

El fin de la Segunda Guerra Mundial A las 2 de la tarde, el Enola Gay tomaba tierra en Tinian. 

La noticia del éxito de la operación «Bandeja de Plata» había circulado ya por el Pacífico. 

En el aeródromo estaban esperando los generales Le May y Arnold, venidos especialmente de Guam. 

El presidente Truman recibió el mensaje a bordo del crucero Augusta. 

En su entorno, todo era exaltación y entusiasmo. 

Sólo el general Eisenhower condenó espontáneamente el uso de la terrible bomba contra un núcleo habitado, considerando que tal demostración no era necesaria para derrotar a Japón. 

Pero la inmensa mayoría -como dijo Raymond Cartier- «no vio en la aparición del arma nuclear otra cosa que el fin rápido de la guerra y la economía de sangre americana que ello reportaba. »

No obstante, había algo más: ante la configuración del mundo de la posguerra y la emergencia de la Unión Soviética como gran potencia, la horrible demostración de Hiroshima perseguía el evidente fin de intimidar a Stalin y hacerle más razonable. 

Yalta y Potsdarn estaban perfilando una posguerra en la que los ocasionales aliados de ayer iban a dividir el mundo en dos bloques antagónicos.

Sin embargo, como era de esperar, las previsiones en cuanto a lo resolutivo de la bomba se cumplieron: el día 7, Japón se dirigió a la Unión Soviética para que mediara ante Estados Unidos en busca de un armisticio. 

Los rusos contestaron declarando la guerra a Japón y desencadenando de inmediato una gran ofensiva en Manchuria. 

El día 9, otro B-2 l Bockscar, pilotado por el mayor Sweeney, lanza otra bomba nuclear -ésta de plutonio- sobre Nagasaki.  La «implosión» – pues éste fue el sistema practicado para provocar la reacción en cadena del plutonio activado- estuvo a punto de desintegrar la superfortaleza que efectuó el lanzamiento. 

Los efectos, debido a la topografía de Nagasaki, no fueron tan espantosos como los del ataque precedente. 

Pero fueron suficientes para que, a las 2 de la madrugada del día 10, el Consejo Supremo de Guerra japonés, presidido insólitamente por el emperador Hiro Hito -que, ante lo gravísimo de los momentos, había decidido descender de sus divinas alturas -, se dirigiera a Estados Unidos pidiéndole el cese de las hostilidades y aceptando la rendición incondicional exigida por los aliados.

La capitulación se firmaría el 2 de septiembre de aquel mismo año: la Segunda Guerra Mundial había terminado, tras 6 años y 1 día de duración.  Pero queda por reseñar lo sucedido en la ciudad mártir, tras de recibir su bautismo de fuego atómico.

Una explosión de 20 kilotones

La bomba lanzada en Hiroshima tenía una potencia equivalente a 20 kilotones, es decir, a veinte veces la explosión de mil toneladas de TNT. 

Los efectos mortales de esta bomba podían proceder de tres causas distintas: la acción mecánica de la onda expansivo, la temperatura desencadenada y la radiactividad.

El calor generado por la energía liberada se elevó a temperaturas capaces de fundir la arcilla, alcanzando decenas de miles de grados. 

Este colosal desprendimiento provocó una columna de aire huracanado y a continuación, para llenar el descomunal vacío, se produjo otra onda en sentido contrario cuya velocidad superó los 1.500 kilómetros por hora.

  El terrible soplo produjo presiones de hasta 10 toneladas por metro cuadrado.

El detalle de estos efectos sobre la ciudad llega a lo indescriptible: trenes que vuelcan como golpeados por un gigante, tranvías que vuelan con una carga de cadáveres hechos pavesas, automóviles que se derriten, edificios que se desintegran y se convierten en polvo incandescente, manzanas de viviendas que desaparecen por un ciclón de fuego.

Toda una zona de 2 km. de radio se transformó en un crisol, que la dejó arrasada como si un fuego infernal y un viento cósmico se hubieran asociado apocalípticamente. 

Y en kilómetros a la redonda, incendios y más incendios atizados dramáticamente por un vendaval de muerte.  Por los restos de lo que fueron calles, empezaron a verse supervivientes desollados, con la piel a tiras, unos desnudos, otros con la ropa hecha jirones. 

Los que murieron en el acto, sorprendidos en el punto de la explosión, se volatilizaron sin dejar rastro. 

Tan sólo alguno, situado junto a un muro que resistió la onda expansiva, dejó una huella en la pared, una silueta difuminada de apariencia humana, como una sombra fantasmagórica, que fue en lo que vino a quedar el inmolado. 

Otros se vieron lanzados, arrastrados por un rebufo arrollador, y se encontraron volando por el aire, como peleles de una falla sacudida por un vendaval. 

Alguno fue a parar milagrosamente a la copa de un árbol, a muchos metros de distancia de su lugar de arranque.

En los alrededores del punto cero, todo quedó carbonizado. 

A 800 metros, ardían las ropas.

  A dos kilómetros, ardían también los árboles, los matorrales, los postes del tendido eléctrico, cualquier objeto combustible. 

Tal era la fuerza del contagio ígneo.

La bomba sobre Hiroshima

bomba en hiroshima

En la mañana del 6 de agosto de
1945 el mundo entró en la era «atómica». Un avión bombardero norteamericano —el «Enola Gay»- dejó caer sobre la ciudad japonesa de Hiroshima una bomba de alto poder destructivo que dejó un saldo de 99 mil muertos y un número similar de heridos.

Tres días después Nagasaki corrió igual suerte, aunque el saldo trágico fue levemente menor: 70 mil muertos y 40 mil heridos. Ambas ciudades fueron un horno; cerca del núcleo de la explosión se registraron temperaturas que treparon hasta los 10 mil grados centígrados y vientos que avanzaban a más de 500 kilómetros por hora y que arrasaron todo a su paso.

La explicación oficial de los Aliados fue que con el lanzamiento de las bombas se anticipó la rendición de Japón en la Segunda Guerra Mundial y se evitó, así, la muerte de un número superior a los dos millones de personas entre norteamericanos y japoneses.

De todas formas las secuelas fueron horrendas: durante los meses siguientes morirían otras 20 mil personas por las radiaciones y miles más nacerían con malformaciones.

 El sol de la muerte

Pero quedaba el tercer y más traicionero efecto: el «sol de la muerte», como llamaron los japoneses al efecto radiactivo que provocó la acción de los rayos gamma, delta y alfa. 

Las personas, según su cercanía al punto de caída de la bomba atómica, aparecían llagados, llenos de terribles ampollas.  Todos los supervivientes, en un radio de 1 km a partir del epicentro, murieron posteriormente de resultas de las radiaciones. 

Los muertos por estos insidiosos efectos lo fueron a millares y se fueron escalonando a lo largo del tiempo, según el grado de su contaminación.  Veinte años después de la explosión, seguían muriendo personas a consecuencia de los efectos radiactivos.

Junto a los millares de muertos instantáneamente y de los que con posterioridad fallecieron de resultas de las quemaduras o de la radiación, se registraron hechos singulares.

  Por ejemplo, algunos habitantes se salvaron por haberles sorprendido los efectos de la explosión con vestimenta clara; en cambio, los que vestían de oscuro murieron rápidamente, por la capacidad del color negro de absorber el calor. 

Esta misma capacidad de absorción de las ondas calóricas por los cuerpos opacos ocasionó otro sorprendente fenómeno: la fotografía atómica. 

Hombres desintegrados, así como objetos diversos, dejaron su sombra grabada sobre los muros de las paredes en cuya cercanía se encontraban en el momento de la explosión, como hemos mencionado antes. 

La onda calórica siguió exactamente los contornos de una silueta y la grabó, para siempre, sobre la piedra.

 El holocausto

Y cuando los supervivientes se recuperaron del horror y los servicios de socorro empezaron a prodigar sus cuidados a los heridos y a los quemados, se produjo la caída de una lluvia viscosa, menuda y pertinaz, que hizo a todos volver los ojos al cielo: el aire devolvía a la tierra, hecho toneladas de polvo y ceniza, todo lo que había ardido en aquel horno personas y cosas – y que las corrientes ascendentes habían succionado hasta las nubes.

Al día siguiente del bombardeo, un testigo presencial que recorrió la ciudad explicó el espeluznante panorama de desolación que constituía la visión de una población arrasada, sembrada de restos humanos que estaban en espantosa fase de descomposición, entre un olor nauseabundo a carne quemada. 

Una zona de 12 kilómetros cuadrados, en los que la densidad de población era de 13.500 habitantes por kilómetro cuadrado, había sido devastada. 

La llegada de un grupo de científicos confirmó que el explosivo lanzado era una bomba de uranio.  La energía atómica había entrado en la historia por la puerta del holocausto.

Según los datos más fiables, el número de víctimas sacrificadas en Hiroshima fue de 130.000, de las que 80.000 murieron.  Unos 48.000 edificios fueron destruidos completamente y 176.000 personas quedaron sin hogar


Oppenheimer Robert
La Bomba «Litle Boy»

masacres humanas