Física: El Cuanto Energía

El Cuanto de Energia – Fisica Cuantica Constante de Planck

El Cuanto de Energía – Fisica Cuántica Constante de Planck

EXPLICACIÓN CIENTÍFICA DEL CONCEPTO DEL CUANTO DE ENERGÍA: Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía. Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias. Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas.

Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Todo comenzó con una investigación en un campo más bien marginal. El Instituto alemán de pesas y medidas deseaba crear un patrón de referencia para las nuevas lámparas eléctricas, y pidió al físico Wilhelm Wien (1864-1928) que estableciera una relación entre la temperatura de un horno (un «cuerpo negro») y la radiación que emitía.

De la misma manera que un pedazo de hierro al calentarse pasa del «rojo» al «blanco» antes de emitir radiación ultravioleta si su temperatura aumenta, Wien observó experimentalmente que el máximo de radiación emitida por el cuerpo negro se desplazaba también hacia el violeta.

Y cuando el profesor Max Planck, de la universidad de Berlín, trató de elaborar una teoría explicativa de la curva de Wien, se encontró con la desagradable sorpresa de que la única forma de hacerlo era imaginar que el horno no emitía esa radiación de manera continua, sino en cantidades discretas, esto es, en cuantos de energía. Planck avanzó esta hipótesis con reticencia, precisando que se trataba sólo de un artificio de cálculo. Fue Einstein quien, cinco años después, demostró la realidad física de los cuantos.

MAX PLANCKEXPLICACIÓN: Para fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos. Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien. La Física clásica había llegado a un límite que no podría superar.

Un científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.

Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los

EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potencia
emitida y µ  es la longitud de onda

cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así. Esta fórmula se resistía a ser deducida de los principios clásicos. Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba. Era el siguiente:

Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).

(Nota: la letra v es griega y se la pronuncia nu)

El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.

Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.

En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.

Según la teoría clásica de las ondas electromagnéticas, éstas transportan energía en forma continua y no en paquetes discretos o cuantos. Vemos que la luz de una vela llena una habitación con un flujo constante de energía. Sin embargo, la cuantización implicaría una emisión espasmódica de la luz, como si la vela parpadeara, encendiéndose y apagándose intermitentemente (que es en realidad lo que ocurre en el nivel microscópico!). El mismo Planck no podía creer que esto fuera así. Pasarían algunos años hasta que el cuanto de energía fuera aceptado como una realidad.

Calculemos el valor del cuanto de energía para una onda electromagnética de la región visible de frecuencia 5. 1O14 Hz (amarillo):

E = h . v 6,63. 1O34 J. s . 5. 1014 Hz = 3,3. 1019 J.

Este valor de energía es diminuto. La energía que libera una pequeña luciérnaga, por ejemplo, contiene miles de millones de cuantos. Esto hace que la cuantización de la energía de las ondas electromagnéticas no tenga efectos macroscópicos, pero sí tiene peso cuando se estudian fenómenos a escala atómica.

HACIA LA MECÁNICA CUÁNTICA
Estas ideas de Planck y Bohr se van a difundir, a ampliar y después a revolucionar con la llegada de una nueva Mecánica, la Mecánica Cuántica, que deriva directamente de ellas. Gracias a esta revolución conceptual se va a tener que renunciar a cualquier descripción determinista de la realidad para acogerse a una descripción en términos de probabilidad.

Así es como se llegó a la conclusión de que no se puede conocer al mismo tiempo la posición y la velocidad de una partícula. Se va a demostrar también que cualquier medida perturba el fenómeno que quiere estudiar. Es el famoso principio de incertidumbre de Heisenberg.

En resumidas cuentas, con la Mecánica cuántica se entra en un nuevo mundo palpitante, misterioso y extraño que se ha explorado sobre bases matemáticas sólidas entre los años 1925-1930, bajo el impulso de sabios cuyos nombres son ya legendarios, como el austríaco Erwin Schródinger, el alemán Werner Heisenberg, el suizoalemán Wolfgang Pauli, el inglés de Cambridge Paul Dirac, todo bajo el impulso constante de Niels Bohr, y a pesar del escepticismo de Albert Einstein. Pero ésa es otra historia, casi una epopeya.

Einstein había visto antes que nadie todas las implicaciones de la Mecánica cuántica. Pero por razones filosóficas, y casi teológicas, no podía aceptarla. Es el famoso ¡«Dios no juega a los dados»!

Sobre lo que nosotros queremos insistir aquí es que muchos fenómenos pueden quedar sencillamente explicados —o al menos claramente expuestos— partiendo del átomo de Bohr ligeramente modificado. No cabe duda de que se trata de una primera aproximación, que no corresponde a la realidad tal como la concebimos hoy en día, pero tiene la ventaja de evitar el despliegue matemático y la complejidad intelectual inherentes a la Mecánica cuántica (que, si se quiere captar su espíritu, necesita larguísimos cálculos, ya que el mundo de lo infinitamente pequeño obedece a reglas específicas muy diferentes de las que gobiernan nuestra experiencia cotidiana).

LOS NIVELES DE ENERGÍA
En cada átomo, en cada molécula, existen niveles de energía en los que pueden «situarse» los electrones. Esos niveles se corresponden con los cuanta y por lo tanto están, como hemos dicho, separados por intervalos vacíos, lo mismo que los peldaños de una escalera. Los electrones no pueden hallarse más que en esos niveles, lo mismo que nuestros pies no se pueden colocar más que en los peldaños de la escalera.

Naturalmente, esto es la representación del átomo bajo el punto de vista de la energía. Bajo el punto de vista del espacio, el electrón se mueve sin cesar, gira en torno al núcleo, pero en una órbita impuesta por los niveles de energía autorizados.

Esos niveles de energía no pueden «contener» más que un número finito de electrones. Por ejemplo, el primer nivel de energía de un átomo, el primer peldaño, no puede llevar más que dos electrones, el segundo es un peldaño doble que, en total, no puede contener más que 8 electrones (2 + 6), etcétera.

¿Cómo puede situarse un electrón en esta escalera?
Se llenan los peldaños comenzando por abajo, según el principio de energía mínima, pasando poco a poco de uno a otro. Así es como, en cada átomo estable, hay niveles de energía llenos. El último nivel lo está más o menos completamente.

Pero por encima del último nivel lleno hay otros niveles (otros peldaños de la escalera) totalmente vacíos. A estos niveles se les llama niveles «excitados».

¿Puede un electrón abandonar un nivel de energía que ocupa normalmente (y que se llama el nivel estable) para pasar a un nivel de energía excitado? Pues sí, pero para eso hay que proporcionarle la energía suficiente para que logre saltar de un nivel a otro. Pero cuidado, es menester que la energía que se le comunica sea exactamente la que corresponde a la diferencia de energía que existe entre los dos peldaños, lo que se llama el «cuantum» justo de energía.

¿Y esos electrones excitados situados en órbitas libres van a permanecer allí?
Respuesta: sí, pero no por mucho tiempo. Los niveles de excitación no son los niveles de equilibrio para los electrones. Así pues, éstos van a tener tendencia a caer los niveles de energía habituales (hogar, dulce hogar) y, por lo tanto, a volver a ellos.

Cuando lo hacen, la energía tiene que conservarse. La caída de un electrón de un nivel elevado hacia uno más bajo va a ir acompañada de una liberación de energía, por ejemplo mediante la emisión de una luz cuya longitud de onda (el color) será exactamente igual a la de la luz que ha excitado el átomo.

Fuente Consultada: Un Poco de Ciencia Para Todos Claude Allégre

Radiacion Cuerpo Negro, Explicación del Fenómeno Físico Simple y Sencillo

La Radiación Cuerpo Negro
Explicación Sencilla del Fenómeno

RADIACIÓN DE UN CUERPO NEGRO: A medida que se iba develando la compleja estructura del átomo, los investigadores veían que estaba más cerca

Sin embargo, al intentar explicar la radiación térmica emitida por un cuerpo caliente, los físicos se encontraron con un problema que se resistía a encuadrarse dentro de los conocimientos de la Física clásica (la Mecánica de Newton y el electromagnetismo de Maxwell). Fue el comienzo del fin de una forma de ver el mundo.


Espectro de una lámpara incandescente del Helio

En las cercanías de un objeto muy caliente, como una estufa o un leño encendido nuestra piel percibe el calor que nos llega en forma de ondas infrarrojas. Pero no sólo los cuerpos muy calientes emiten ondas electromagnéticas: en realidad, todo cuerpo cuya temperatura sea superior al cero absoluto lo hace.

Para las temperaturas que percibimos cotidianamente, la mayor parte de la energía se emite en el rango infrarrojo y un poco en el visible. En general, un cuerpo sólido emite todo un espectro de ondas

Tengamos en cuenta que lo que se quiere investigar es la radiación que emite un cuerpo y no la que refleja al ser iluminado.

El espectro de dos cuerpos cualesquiera, a la misma temperatura, difiere dependiendo del material y de la forma que tengan. Para estudiar el problema de la radiación se eligió un cuerpo patrón ideal, que emitía y absorbía energía con eficiencia máxima, llamado cuerpo negro.

Consistía en una cavidad con un pequeño orificio por donde salía la radiación a analizar, cuando las paredes se calentaban hasta una temperatura determinada. Independientemente del material con que estén fabricados, los espectros de los cuerpos negros a la misma temperatura son idénticos.

Experimentalmente se habían hallado los espectros de emisión de cuerpos negros a diversas temperaturas. Y se observaron dos características importantes:

E aumenta proporcionalmente con  T4

1. A medida que la temperatura aumenta, la cantidad de energía emitida es mayor. En particular, la energía aumenta proporcionalmente a la cuarta potencia de la temperatura absoluta (ley de Stefan-Boltzmann):

2. Un cuerpo emite mayor cantidad de energía en una longitud de onda determinada. A medida que la temperatura aumenta esta longitud de onda se hace más pequeña, cumpliéndose la ley de Wien:

µmáxima T = constante

Ley de Wein: Energía radiante por un objeto caliente a distintas longitudes de onda

Teoría Cinética de los Gases Ideales Modelo Molecular Resúmen

Teoría Cinética de los Gases Ideales
Modelo Molecular

El comportamiento análogo de todos los gases sugiere que su estructura debe ser la misma.

Como que los gases son muy compresibles, sus moléculas deben estar muy separadas y como que los gases tienden a expandirse hasta ocupar el máximo volumen posible, sus moléculas deben hallarse en un movimiento incesante.

DESCRIPCIÓN BÁSICA: La teoría cinética de los gases supone que éstos están constituidos por diminutas partículas (moléculas) en constante movimiento.

A igualdad de condiciones, la velocidad promedio con que se mueven las moléculas varía de gas a gas, siendo la regla que cuanto mayor sean las partículas, tanto menor será su velocidad, pero para un gas determinado, la velocidad promedio con que se mueven sus moléculas depende de su temperatura.

Si el gas es calentado, sus moléculas reciben energía para acelerar su movimiento.

La temperatura no es sino una medida de la energía promedio de las moléculas. Además, estas moléculas son consideradas perfectamente elásticas.

Como están en continuo movimiento, chocan continuamente entre sí y rebotan. Ahora bien, si dejamos caer al suelo una pelota de goma, rebotará más de una vez, pero con cada rebote se elevará menos del suelo.

En otras palabras, la pelota pierde energía cada vez que da un bote, Pero las moléculas no pierden ninguna energía cuando chocan entre sí y rebotan.

El movimiento molecular explica el comportamiento de los gases en relación al aumento de temperatura y cambios de presión.

A una cierta temperatura y presión el mismo número de moléculas de cualquier gas ocupa el mismo volumen. Pero si aumenta la temperatura del gas sus moléculas habrán adquirido la energía necesaria para moverse más rápido.

Chocan más rápido y rebotan más lejos, en otras palabras, ocupan más espacio, pero si no se les permite ocupar mayor espacio, es decir, si el recipiente es rígido, la presión del gas aumentará.

Esto es comprensible, porque la presión del gas sobre las paredes es simplemente la fuerza ejercida por las moléculas que chocan contra ellas.

Si las moléculas aceleran, golpearán las paredes del recipiente con mayor fuerza.

EXPLICACIÓN FÍSICA CONCEPTUAL

Uno de los fenómenos referentes al comportamiento de los gases que indica el camino más acertado para investigar su naturaleza es el movimiento browniano, observado en 1827 por el escocés Robert Brown y que consiste en una agitación desordenada, en zigzag, ejecutada por las partículas que se hallan en suspensión en los líquidos o en los gases.

Cuanto menor es la partícula observada, más claramente se pone de manifiesto su estado de movimiento desordenado permanente y cuanto mayor es la temperatura tanto mayor es la violencia de dicho movimiento.

El movimiento browniano sugiere un estado de continua agitación de las moléculas que constituyen los cuerpos materiales.

Todo parece indicar que la materia está formada por partículas muy pequeñas en movimiento incesante.

Esta teoría de las moléculas en constante agitación se denomina teoría cinética de la materia y sus dos postulados fundamentales son:

a) Las moléculas están en constante movimiento.
b) El calor es una manifestación del movimiento de las moléculas.

APLICANDO ESTOS POSTULADOS A LOS GASES: Cuando Boyle descubrió en 1661 su sencilla ley experimental sobre el comportamiento de los gases, trató de idear un modelo que interpretara coherentemente la naturaleza del gas.

Ése fue el comienzo de la teoría cinética, desarrollada por Daniel Bernoulli, James Joule, Rudolph Clausius, Ludwig Boltzmann y Albert Einstein, entre otros científicos. Esta teoría se propone dar una explicación microscópica de las leyes macroscópicas experimentales.

Las hipótesis de las que parte son simples:

1) Un gas consiste en un conglomerado de partículas (átomos o moléculas) que responden a las leyes de la Mecánica newtoniana. En un gas perfecto pueden despreciarse las fuerzas atractivas entre las moléculas. Así pues, las moléculas pueden considerarse independientes unas de otras.

2) La enorme cantidad de partículas se mueven caóticamente y están tan separadas entre sí que su propio volumen es despreciable frente al que ocupa todo el gas.

3) No existen fuerzas apreciables sobre las partículas salvo las que operan durante los choques elásticos entre sí y contra las paredes.

4) En un conjunto de moléculas dado, en un instante determinado, las moléculas poseen distintas velocidades y, por tanto, sus energías cinéticas también son distintas. Se admite, sin embargo, que la energía cinética media de todas las moléculas es directamente proporcional a la temperatura absoluta del gas.

RESPECTO A LAS MAGNITUDES FÍSICA ES:

• La presión de un gas: lo que llamamos la presión de un gas no es más que el resultado de todo el conjunto de choques que las moléculas efectúan sobre las paredes de un recipiente.

•  La temperatura, es según lo dijo Boltzmann: «La temperatura es la medida de la agitación de los átomos». A alta temperatura los átomos se hallan muy agitados y a baja temperatura están más calmados.

EXPLICACIÓN DE LA TEORÍA: Es razonable que, dado que las partículas están tan separadas, las fuerzas intermoleculares sean solamente las de los choques. Como los choques son elásticos, entonces se conserva la cantidad de movimiento y también la energía cinética.

Entre choque y choque, las moléculas viajan con movimiento rectilíneo y uniforme, de acuerdo con las leyes de Newton.

Las colisiones son de muy corta duración. Es decir que la energía cinética se conserva constante, ya que el breve tiempo en que ésta se transforma en energía potencial (durante el choque) se puede despreciar.

A partir de estos supuestos, la teoría explica el comportamiento conocido de los gases y hace predicciones que luego son constatadas experimentalmente, lo que le confiere validez científica.

Para describir el comportamiento del gas no es imprescindible la historia individual de cada partícula, sino que se recurre a la estadística para interpretar las variables macroscópicas como cierto promedio de propiedades microscópicas.

Por ejemplo, la presión se interpreta microscópicamente como el efecto resultante de millones de partículas chocando azarosamente y ejerciendo pequeñas fuerzas irregulares contra las paredes del recipiente.

¿Por qué la fuerza que un gas encerrado ejerce sobre la pared del recipiente es perpendicular a su superficie?.

 Como todas las posiciones y velocidades son igualmente probables, el bombardeo sobre la pared proviene de todas las direcciones y sentidos.

Las fuerzas ejercidas en dirección paralela a la pared en uno y otro sentido tienden en promedio a anularse. Pero las fuerzas ejercidas en dirección perpendicular, por el contrario, se sumarán, ya que ninguna partícula colisiona desde el lado exterior de la pared.

La temperatura se interpreta como una medida de la energía cinética media por molécula. Al calentar un gas, aumentamos la agitación molecular, elevando la velocidad media de las partículas.

Si disminuye la temperatura del gas, se puede licuar. Es coherente que la energía cinética media de una partícula líquida sea menor que la correspondiente a una partícula gaseosa.

En 1827, el botánico inglés Robert Brown (1773-1858) constató, por primera vez, que partículas pequeñas de materia inerte, suspendidas en un líquido y observadas con un microscopio presentan una agitación azarosa y permanente dependiente de la temperatura.

La explicación de este fenómeno se logró ochenta años después.

El descubrimiento del movimiento browniano permitió un desarrollo posterior más profundo de la teoría cinética.

El movimiento de los gránulos observados a través del microscopio se interpretó como la ampliación del movimiento de las pequeñísimas moléculas invisibles a la lente.

Basándose en un estudio cuantitativo del movimiento browniano, la teoría cinética permite calcular, entre otros múltiples resultados, el número de moléculas contenidas en un volumen dado, a cierta temperatura y presión, para todos y cualquier gas.

DEMOSTRACIÓN DE LA ECUACIÓN DE ESTADO A PARTIR DE LA TEORÍA CINÉTICA DE LOS GASES:

La ecuación de estado de los gases, PV = nRT, puede deducirse de la teoría cinética estudiando el aumento de presión que se produce en un gas a consecuencia de los impactos de las moléculas.

En efecto, consideremos un gas encerrado en una caja. Su presión es proporcional al número de choques moleculares por segundo sobre cada cm2 de la pared de la caja y proporcional también al impulso mecánico o variación de la cantidad de movimiento de cada impacto.

La presión total será, pues, igual al producto del número de impactos por el impulso mecánico.

El movimiento de cualquier molécula puede ser descompuesto en tres componentes dirigidas según cada una de las tres aristas de la caja, de donde se deduce que el efecto sobre cada una de las paredes es el mismo que si cada tercera parte de las moléculas se moviese perpendicularmente a cada par de caras opuestas.

Así, N/3 moléculas chocarán con una cara determinada de la caja cúbica, siendo N el número total de moléculas contenidas en la caja.

Entre cada dos impactos sucesivos la molécula deberá recorrer en los sentidos de ida y vuelta la longitud de la arista de la caja cúbica, l.

Es decir, la distancia entre dos impactos consecutivos recorrida por la molécula es 2.l. Como que la velocidad media de las moléculas es V cm/s, el tiempo transcurrido en segundos entre dos choques consecutivos será t = 2.l/V y, por tanto, el número de choques por segundo con la pared del recipiente será V/2.l.

Así pues, podemos concluir que el número de impactos que se producirán sobre una cara de la caja por segundo será de:

 Pero como el área de la cara es l2, el número de impactos por cm2 y por segundo que se producirán será :



Ahora bien, como el volumen V de la caja es l3, tendremos que el número total de impactos por cm2 y por segundo será:


Para obtener el impulso total de cada impacto hay que tener en cuenta que el impulso mecánico es igual a la variación de la cantidad de movimientos.

En toda colisión en la que una molécula de masa m y velocidad v rebote de la pared con igual velocidad absoluta pero en sentido contrario, la cantidad de movimiento variará de un valor inicial mv a un valor final – mv.

Es decir, la variación de la cantidad de movimiento es de 2mv.

Pero tal como se indicó anteriormente, Presión=Fuerza/Área= N° de Impactos/Área . s

Impulso de cada impacto:


Ahora bien, la energía cinética media de las moléculas y la temperatura absoluta del sistema están relacionadas por la expresión:

Donde k=1,3805 . 1016 erg./K. molécula es la constante de Boltzmann. Sustituyendo el valor de:

En la ecuación precedente se obtiene:

Pero como el número N de moléculas es igual a: 6,023 . 1023  . n , siendo n el número de moles , resulta

que es la ecuación de estado de los gases ideales,

Puede comprobarse sin dificultad que la constante universal de los gases, R, es el producto de la constante k de Boltzmann por el número de Avogadro. Es decir, R = 6,023 • 1023- k.

RESÚMEN DE LOS POSTULADOS DE LA TEORÍA CINÉTICA DE LOS GASES:

UN POCO DE HISTORIA…

Demócrito había dicho que los átomos se hallan en continuo movimiento, agitados de manera desordenada en todos los sentidos.

Unas veces, decía, colisionan unos con otros y se pegan como dos bólidos que se dan de frente y se meten uno en otro; otras veces el encuentro termina en una unión que da origen a «sustancias» líquidas o sólidas.

Hacia finales del siglo XIX se descubrió lo esencial de las leyes sobre el comportamiento de los gases, la manera en que se combinan, se mezclan, qué presión ejercen sobre las paredes del recipiente donde se contienen, etc.

Así pues, es natural que en esta época se haya tratado de conocer todas estas propiedades partiendo de la idea de los átomos y de las moléculas que por aquel entonces salía a la luz, es decir, de profundizar en las ideas de Demócrito, pero de una manera un poco más precisa y un poco más cuantitativa.

Si la materia, en este caso el gas, está formada por miles de millones de partículas o de átomos, ¿cómo se pueden explicar, partiendo de sus supuestas propiedades las observaciones de los químicos?.

Dicho de otro modo, ¿cómo a partir de la descripción microscópica de la materia, de las estructuras elementales de las moléculas, se puede construir una teoría que permita explicar propiedades macroscópicas, que son las propiedades con las que trabajan los químicos, desde Gay-Lussac hasta Avogadro pasando por Dalton, hasta llegar a los químicos actuales?. ¿Cómo se puede pasar de las fórmulas químicas al campo del químico que sintetiza nuevos productos? Era menester volver a las fuentes.

Daniel Bernouilli, un genovés miembro de una prestigiosa dinastía científica, abrió el camino a finales del siglo XVIII.

Especialista de esa nueva rama de las Matemáticas llamada cálculo de las probabilidades, Bernouilli comprendió muy pronto que, para estudiar una población de átomos en número muy elevado, la mejor manera de lograrlo era hacer un modelo de su comportamiento de manera estadística y definir de ese modo el comportamiento de un átomo medio.

Pero si es cierto que se le deben a él las primeras ideas en la materia, también es cierto que su trabajo no llegó a un resultado definitivo.

Hacia finales del siglo XIX es cuando se desarrollará realmente la Física estadística, en medio de debates tumultuosos y bastante violentos desde el punto de vista intelectual. Y ello es así porque esta Física estadística topaba de lleno con dos prejuicios sólidamente enraizados en los espíritus.

Agarrándose al primero, algunos, como ya hemos dicho, se oponían a la idea de átomos y de moléculas so pretexto de que nadie los había visto. Y otros, apoyados en el segundo, rechazaban la utilización del cálculo de probabilidades.

¿Cómo la naturaleza, decían, cuyas leyes son perfectamente claras y están perfectamente determinadas, podría obedecer al cálculo de probabilidades, al azar, «esa máscara de nuestra ignorancia», como diría más tarde con humor Emile Borel, gran probabilista francés?

Tres hombres, tan distintos como excepcionales, son los que van a construir esta Física estadística.

James Clark Maxwell

Ludwig Boltzmann

Josiah Willard Gibbs

James Clark Maxwell, el autor de la grandiosa teoría de la unificación electromagnética, el gentleman escocés de Cambridge, una de las leyendas de la Física.

El es quien dará la señal de partida calculando la distribución de las velocidades de las partículas de un gas. Maxwell será un gran matemático, pero un atomista desapasionado. Desgraciadamente morirá en plena batalla en 1918.

Ludwig Boltzmann es un austríaco más joven que Maxwell, a quien admira y venera.

Es un hombre caprichoso, matemático brillante, intelectual-mente ambicioso, con imaginación y con técnica a la vez, pero también es exageradamente impresionable, con frecuencia indeciso (por tres veces aceptará y rechazará después el puesto de profesor en Berlín, donde enseña el gran físico alemán Helmholtz, todo ello en el plazo de dos años), directo —según algunos, demasiado directo— en sus relaciones sociales. Sin embargo, él será quien pondrá los cimientos.

Josiah Willard Gibbs. Este es un norteamericano. Fue profesor en la Universidad de Yale. Aunque era reservado y solitario —se cuenta de él que un día, hablando con un colega, se enteró de que los profesores de Yale estaban remunerados, ¡cosa que él ignoraba!— será él quien instalará la Física estadística y hará la síntesis con la Termodinámica.

Es una verdadera pena que Gibbs y Boltzmann no se encontraran jamás, que por dos veces fallara su encuentro. Porque parece ser que Gibbs fue uno de los pocos contemporáneos que entendía los artículos de Boltzmann, lo que suponía en él una gran experiencia matemática, además de una lucidez introspectiva considerable, dado lo abigarrados y difíciles que eran los artículos de Boltzmann.

Fuente Consultada:
Un Poco de Ciencia Para Todo el Mundo Claude Allégre
Elementos de Física y Qumica Maiztegui-Sabato
Guía de Apoyo Para El Estudiante Tomo: Física.

Ver: Dilatación de los Gases

Biografia de John Nash Matematico Premio Nobel Teoría de Juegos

Biografia de John Nash Matemático Premio Nobel

John Forbes Nash: Matemático, Premio NobelLa verdadera vida de John Forbes Nash, Jr.: John Forbes Nash (Virginia Occidental, 13 de junio de 1928 – Monroe, Nueva Jersey, 23 de mayo de 2015)​ fue un matemático estadounidense, especialista en teoría de juegos,​ geometría diferencial​ y ecuaciones en derivadas parciales,​ que recibió el Premio Nobel de Economía en 19945​ por sus aportes a la teoría de juegos y los procesos de negociación, junto a Reinhard Selten y John Harsanyi,6​ y el Premio Abel en 2015.

 «Una mente maravillosa», «A beautiful Mind» es un magnífico producto de Hollywood inspirado en la vida de John Nash pero que no pretende ser su biografía. En realidad son muy pocos los hechos o situaciones de la vida real de Nash que son contados en la película.

El padre se llamaba también John Forbes Nash por lo que distinguiremos al padre del hijo al estilo americano, añadiéndoles el calificativo «Senior» o «Junior» (Jr.).

Nash Senior nació en Texas en 1892 y estudió ingeniería eléctrica. Después de luchar en Francia en la primera guerra mundial, fue durante un año profesor de ingeniería eléctrica en la Universidad de Texas tras lo que se incorporó a la empresa Appalachian Power Company en Bluefield, West Virginia.

La madre de Nash Jr., Margaret Virginia Martin, estudió idiomas en las universidades Martha Washington College y West Virginia University.

Fue profesora durante diez años antes de casarse con Nash Senior, el 6 de septiembre de 1924.

Johnny Nash, así le llamaba su familia, nació en Bluefield Sanatorium el 13 de junio de 1928 y fue bautizado en la iglesia Episcopaliana. Sus biógrafos dicen que fue un niño solitario e introvertido aunque estaba rodeado de una familia cariñosa y atenta.

Parece que le gustaban mucho los libros y muy poco jugar con otros niños. Su madre le estimuló en los estudios enseñándole directamente y  llevándole a buenos colegios.

Sin embargo, no destacó por su brillantez en el colegio. Por el contrario, debido a su torpeza en las relaciones sociales, era considerado como un poco atrasado. Sin embargo, a los doce años dedicaba mucho tiempo en su casa a hacer experimentos científicos en su habitación.

Su hermana Martha, dos años más joven que él, era una chica muy normal. Dice de su hermano:

«Johnny era siempre diferente. Mis padres sabían que era diferente y también sabían que era brillante. Él siempre quería hacer las cosas a su manera. Mamá insistía en que yo le ayudase, que lo introdujera entre mis amistades… pero a mí no me entusiasmaba lucir a un hermano tan raro».

A los catorce años Nash empezó a mostrar interés por las matemáticas. Parece ser que influyó la lectura del libro de Eric Temple Bell,  «Men of Mathematics» (1937). Entró en el Bluefield College en 1941. Comenzó a mostrarse hábil en matemáticas, pero su interés principal era la química. Se suponía que iba a seguir la misma carrera de su padre,  ingeniería eléctrica, pero continuaba con sus experimentos químicos. Parece ser que tuvo alguna relación con la fabricación de unos explosivos que produjeron la muerte a uno de sus compañeros de colegio.

Nash ganó una beca en el concurso George Westinghouse y entró en junio de 1945 en el Carnegie Institute of Technology (hoy llamado Carnegie-Mellon University) para estudiar ingeniería química. Sin embargo empezó a destacar en matemáticas cuyo departamento estaba dirigido entonces por John Synge, que reconoció el especial talento de Nash y le convenció para que se especializara en matemáticas.

Se licenció en matemáticas en 1948. Lo aceptaron para estudios de postgrado en las universidades de Harvard, Princeton, Chicago y Michigan. Nash consideraba que la mejor era Harvard, pero Princeton le ofreció una beca mejor por lo que decidió estudiar allí, donde entró en septiembre de 1948.

En 1949, mientras se preparaba para el doctorado, escribió el artículo por el que sería premiado cinco décadas después con el Premio Nobel. En 1950 obtiene el grado de doctor con una tesis llamada «Juegos No-Cooperativos«. Obsérvese que el libro inicial de la teoría de juegos, «Theory of Games and Economic Behavior» de von Neumann y Oskar Morgenstern,  había sido publicado muy poco antes, en 1944.

En 1950 empieza a trabajar para la RAND Corporation, una institución que canalizaba fondos del gobierno de los Estados Unidos para estudios científicos relacionados con la guerra fría y en la que se estaba intentando aplicar los recientes avances en la teoría de juegos para el análisis de estrategias diplomáticas y militares. Simultáneamente seguía trabajando en Princeton.

En 1952 entró como profesor en el Massachusetts Institute of Technology. Parece que sus clases eran muy poco ortodoxas y no fue un profesor popular entre los alumnos, que también se quejaban de sus métodos de examen.

En este tiempo empezó a tener problemas personales graves que añadidos a las dificultades que seguía experimentando en sus relaciones sociales. Conoció a Eleanor Stier con la que tuvo un hijo, John David Stier, nacido el 19 de junio de 1953. A pesar de que ella trató de convencerlo, Nash no quiso casarse con ella. Sus padres solo se enteraron de este asunto en 1956. Nash Senior murió poco después de enterarse del escándalo y parece que John Nash, Jr. se sintió culpable de ello.

En el verano de 1954, John Nash fue arrestado en una redada de  la policía para cazar homosexuales. Como consecuencia de ello fue expulsado de la RAND Corporation.

Una de las alumnas de Nash en el MIT, Alicia Larde, entabló una fuerte amistad con él. Había nacido en El Salvador, pero su familia había emigrado a USA cuando ella era pequeña y habían obtenido la nacionalidad hacía tiempo. El padre de Alicia era médico en un hopital federal en Maryland. En el verano de 1955 John Nash y Alicia salían juntos. En febrero de 1957 se casaron.

En el otoño de 1958 Alicia quedó embarazada, pero antes de que naciera su hijo, la grave enfermedad de Nash ya era muy manifiesta y había sido detectada. Alicia se divorció de él más adelante, pero siempre le ayudó mucho. En el discurso de aceptación del Nobel, en 1994, John Nash tuvo palabras de agradecimiento para ella.

En 1959, tras estar internado durante 50 días en el McLean Hospital, viaja a Europa donde intentó conseguir el estatus de refugiado político. Creía que era perseguido por criptocomunistas. En los años siguientes estaría hospitalizado en varias ocasiones por períodos de cinco a ocho meses en centros psiquiátricos de New Jersey. Unos años después, Nash escribió un artículo para una revista de psiquiatría en el que describió sus pensamientos de aquella época:

«.. el personal de mi universidad, el Massachusetts Institute of Technology, y más tarde todo Boston, se comportaba conmigo de una forma muy extraña.  (…) Empecé a ver criptocomunistas por todas partes (…) Empecé a pensar que yo era una persona de gran importancia religiosa y a oir voces continuamente. Empecé a oir algo así como llamadas telefónicas que sonaban en mi cerebro, de gente opuesta a mis ideas.  (…) El delirio era como un sueño del que parecía que no me despertaba.»

A finales de los sesenta tuvo una nueva recaída, de la que finalmente comenzó a recuperarse. En su discurso de aceptación del Premio Nobel describe su recuperación así:

«Pasó más tiempo. Después, gradualmente, comencé a rechazar intelectualmente algunas de las delirantes líneas de pensamiento que habían sido características de mi orientación. Esto comenzó, de forma más clara, con el rechazo del pensamiento orientado políticamente como una pérdida inútil de esfuerzo intelectual».

En la actualidad sigue trabajando en el Departamento de Matemáticas de la Universidad de Princeton.

Su página web oficial es: http://www.math.princeton.edu/jfnj/

Su dirección electrónica: [email protected]  (hasta el 05-10-2002)

La Bomba de Hiroshima Historia del Lanzamiento Bomba Atomica

Historia De La Bomba de Hiroshima
Consecuencias del Lanzamiento Bomba Atómica

El 16 de julio de 1945, una gran bola de fuego se elevó en el cielo sobre el campo de pruebas de Alamogordo, en el desierto de Nuevo México (EE UU), Con la prueba «Trinity» culminaban décadas de estudio de la estructura atómica y la naturaleza de la radiactividad. Con una energía equivalente a 16.000 toneladas de TNT, fue la primera explosión nuclear artificial, anuncio de una tecnología que cambiaría el mundo, para bien o para mal.

La era nuclear pudo haber nacido en Alemania nazi si Hitler hubiera prestado mas atención al trabajo de sus científicos. En diciembre de 1938, en el Instituto de Química Kaiser Guillermo , de Berlín, Otto Hahn y Fritz Strassman , despues de seis años  de experimentos, lograban escindir el átomo de uranio, proceso hasta entonces considerado contrario a la ley natural. Su trabajo implicaba la posibilidad de una reacción en cadena controlada y la liberación de inmensas cantidades de energía.

bomba de hiroshima

Por el mundo científico se extendió rápidamente la noticia de este hallazgo: el gran físico danés Niels Bohr se enteró por dos colegas que habían huído de los nazis. A principios de 1939, Bohr marchó a los Estados Unidos y comunicó sus conocimientos a los científicos americanos. Los más notables eran dos físicos refugiados, el italiano Enrico Fermi y el húngaro Leo Szilard.

Pero los esfuerzos para convencer al gobierno estadounidense de las posibilidades militares del átomo rindieron escaso fruto, hasta que Szilard logró persuadir a Albert Einstein, el científico más famoso de América y también judío alemán refugiado, para que firmara una carta dirigida al presidente Franklin D. Roosevelt en el mes de octubre de 1939.

Aunque Roosevelt estaba en teoría convencido, durante los dos años siguientes el avance de la investigación atómica patrocinada por el gobierno fue lenta e irregular. Aun así, el proceso había comenzado y en 1939 la cuestión a la que se enfrentaban los científicos no era la de construir armas atómicas, sino cómo conseguirlas antes de los nazis.

Por fin, el 6 de diciembre de 1941 —un día antes del ataque japonés a Pearl Harbor—, Vannevar Bush, jefe del Departamento de Investigación y Desarrollo Científico de los EE. UU., lograba la aprobación presidencial de un plan de acción total en el ámbito de la investigación atómica.

El programa científico-militar-industrial que siguió fue característico de Estados Unidos, con su relativa invulnerabilidad ante un ataque, su enorme capacidad industrial y su fe en la ciencia y la tecnología.

Los físicos nucleares sabían, al menos en teoría, que podían someterse a una rápida fisión, o reacción en cadena, cantidades suficientes de dos derivados del uranio, el U-235 y el elemento plutonio, fabricado por el hombre.

El 17 de septiembre de 1942, el general Groves fue nombrado jefe del supersecreto y superprioritario Proyecto Manhattan,para iniciar la construcción de una bomba atómica.

Groves reclutó a dirigentes industriales y a científicos galardonados con el premio Nobel, obtuvo del Tesoro 2.000 millones de dólares en fondos secretos, impuso secreto total a los miles de operarios empleados en el proyecto y seleccionó los parajes aislados donde se realizaría el trabajo.

En la primavera de 1943, en Los Alamos (Nuevo México), donde el trabajo era más peligroso y las medidas de seguridad más estrictas, un equipo dirigido por Oppenheimer emprendió el diseño de una bomba viable que cupiese en el nuevo bombardero de largo alcance B-29, al poco tiempo y bajo un hermetismo total la bomba estaba lista para ser probada.

El 16 de julio de 1945, en un escondido paraje de la base aérea de Alamogordo, en Nuevo México —lugar al que Oppenheimer hacía llamar «Trinity»—, se probó la primera bomba de plutonio.

Conocida en clave como «Fat Man» (Gordo) porque su perfil rechoncho recordaba al de Churchill, la bomba superó todas las previsiones. (La bomba de U-235 no se probó nunca porque los científicos confiaban que funcionaría bien.)

La última etapa de la Segunda Guerra Mundial, conocida como guerra  en el Pacífico, fue encarnizada y la reconquista de las islas y posiciones continentales en poder de los japoneses costó miles de víctimas.

Aunque en retroceso, las tropas japonesas se defendían con furor suicida y ello llevó a suponer que la conquista del archipiélago nipón tendría un alto coste en vidas de soldados norteamericanos.

Esta fue una de las razones que adujo el presidente norteamericano, Harry S. Traman para ordenar el lanzamiento de dos bombas atómicas sobre las ciudades japonesas de Hiroshima, el 6 de agosto de 1945, y Nagasaki, tres días después; el tremendo poder destructivo de aquellos ingenios nucleares produjo en cada una de estas dos ciudades cerca de 250.000 muertos, aunque propició que el 14 de agosto cesaran las hostilidades y a que, el 2 de septiembre, a bordo del acorazado norteamericano Missouri, surto en la rada de Tokio, los emisarios del emperador Hiro-Hito firmaran la capitulación «sin condiciones» de Japón.

https://historiaybiografias.com/archivos_varios5/bomba-hirosima.jpg

Convencidos los Estados Unidos de que la lucha con el Japón podría prolongarse demasiado, se decidió probar la fuerza disuasoria de las bombas atómicas, y primero Hiroshima y después Nagasaki sufrieron las consecuencias de la explosión nuclear, lo que provocó la inmediata rendición de los japoneses. En la fotografía, la llamada «cúpula atómica «, que se conserva en Hiroshima como recuerdo de la tragedia.

HISTORIA DEL  LANZAMIENTO DE LA BOMBA

La Bomba de Hiroshima Lazamiento Bomba Atomica Bomba Nuclear Carta HistóricaH I R O S H I  M A: El día 5 de agosto de 1945, en la base de Tiniaii, una isla de las Marianas a 200 km. de Guam, una tripulación de B-29 –la famosa superfortaleza volante– integrante del  509. Grupo Mixto y preparada desde muchos meses antes en la base secreta de Wendover, en Utah, para una misión espacialísima, esperaba llena de ansiedad la llegada de una orden. 

El entrenamiento había sido durísimo y realizado en el más absoluto aislamiento. 

La tripulación la encabezaba el coronel Paul Tibbets, veterano jefe de grupo de B-17 con múltiples misiones en Europa y el norte de África y que había sido elegido por sus excepcionales cualidades técnicas y personales.

Él había escogido como hombre de la más absoluta confianza, para acompañarle en la misión, al oficial bombardero Tom Ferebee, experto en el bombardeo por medios visuales, y al oficial de derrota Ted van Kirk, llamado «Dutch», navegante peritísimo.

Durante meses habían hecho prácticas de lanzamiento de una rara bomba a la que se llamaba familiarmente «La Cosa«, un enorme cilindro dotado de cola, cuyo contenido explosivo era un arcano para casi todos.

Sólo Tibbets estaba en el secreto de su carga nuclear y, llegado el momento del lanzamiento, la pregunta que le obsesionaba era: ¿la deflagración alcanzaría a volatilizar el avión portador de la bomba? «No obstante confesaría después el propio Tibbets yo confiaba plenamente en los científicos y sabía que sus cálculos eran de una precisión total. 

Ellos me habían explicado que, en el instante de la explosión, mi avión se habría alejado 17 kilómetros del punto cero en relación con la trayectoria de la bomba. 

Por otra parte, en cuanto al problema de la onda provocada por la bomba, los ingenieros aeronáuticas me aseguraron que mi superfortaleza soportaría un choque de 2 g, es decir, el doble de su propio peso.»

Aquel día 5 se llegaba a la fecha de la gran decisión, porque los meteorológicos habían pronosticado que el período entre el 6 y el 9 de agosto ,cría el más favorable para realizar el bombardeo desde el cielo japonés. 

Robert J. Oppenheimer Robert J. Oppenheimernació en  1904, en Nueva York, siendo hijo de un emigrante alemán llegado a América a los 14 años y que posteriormente haría fortuna en negocios textiles.

Desde su más temprana infancia, Oppenheimer demostró poseer una inteligencia privilegiada. 

Sus estudios superiores los cursó en Harvard, simultaneando las humanidades con la física y la química.  Dotado de una gran ansia de saber, y con una extraordinaria capacidad para asimilar conocimientos, se interesó por el  pensamiento oriental, estudió el hinduismo y llegó a dominar el sánscrito, aparte de numerosas lenguas vivas. 

En 1925 se diplomó cum laude en Harvard.  Posteriormente, amplió estudios de física en Cambridge con Rutherford, en Gotinga con Born y Dirac y más, en Zurich Leyde.

Su brillantez intelectual y la profundidad de sus estudios le hicieron perfilarse como un científico de gran porvenir, que había encontrado su camino en la más fascinante empresa que en la década de 1930 se le podía proponer a un físico: la investigación atómica. 

En 1929 empezó a dar clases de física en la Universidad de Berkeley, donde dispuso de un importante laboratorio de investigación.

Alineado entre los intelectuales americanos de ideas socialmente progresivas, Oppenheimer no hizo un secreto de su antifascismo ni de su filomarxismo, aunque no llegara a militar en el partido comunista. 

En el período anterior a la Segunda Guerra Mundial, mantuvo una relación íntima con una doctora, conocida militante del comunismo.

En 1942 -a los 38 años- le ofrecieron la supervisión y el control global del proyecto Manhattan y la dirección del super laboratorio de Los Alamos.

  La oportunidad de tener a su alcance la construcción del ingenio más poderoso de todos los tiempos fue tentación que venció todos los escrúpulos morales de Oppenheimer. 

Durante el proceso de fabricación de la bomba volvió a tener contacto con su antigua amiga, la militante comunista, hecho que no escapó al conocimiento del general Groves, responsable máximo de la seguridad. 

El general, tras una conversación afondo con Oppenheimer, se aseguró de que éste había roto sus relaciones con la extrema izquierda y, valorando la importancia proyecto lo confirmó en el cargo. 

El éxito alcanzado con la fabricación de bomba y sus efectos sobre Japón hicieron que Oppenheimer fuera exalta do por la prensa y la opinión pública americana como el hombre que había hecho posible el victorioso final de guerra.

Ante el problema moral suscitad por la carrera atómica, Oppenheime descubrió el personaje hamletiano qu llevaba dentro, manifestándose pes a sus reparos íntimos en pro de continuidad de las investigaciones Por eso constituyó una gran sorpresa el saberse, en octubre de 1945, que abandonaba la dirección de Los Alamos y volvía a la enseñanza.  

En 1947 fue designado director del Instituto Estudios Superiores de Princeton y entró a formar parte de la Comisión de Energía Atómica.

Cuando en 1950 el presidente Truman ordenó la construcción de la bomba de hidrógeno, Oppenheimer, una vez más, se mantuvo en una duda atormentada por el alcance de la carrera nuclear, pero sin alinearse entre los opositores.

En 1954, al llegar el período de la «caza de brujas», Oppenheimer fue acusado de «actividades antiamericanas» por haber mantenido relaciones con elementos comunistas.  Con arreglo a las prácticas utilizadas por la Comisión de Encuesta, se le declaró «indeseable para toda función que supusiese un acceso a secretos militares». 

Pese a la protesta de gran número de científicos, Oppenheimer hubo de sufrir años de ostracismo oficial Durante ellos, no obstante, continuó trabajando en la Universidad y dando conferencias.  En 1958 viajó a París, fue recibido en la Sorbona y el Gobierno francés le otorgó la Legión de Honor, todo lo cual e una especie de desagravio al que se asociaron los científicos europeos.

En 1963 fue rehabilitado y se le otorgó el premio Fermi, el más alto galardón que se concede a los destacados en la investigación nuclear.Falleció en 1967, en Princeton.

Su vida fue una demostración del enfrentamiento del hombre de ciencia con unos problemas éticos y morales que le desbordan.  El mito del «aprendiz de brujo» tuvo en el patético destino de Oppenheimer su más patente manifestación.

En el verano de 1939, la energía nuclear había desvelado ya sus inmensas posibilidades destructivas.  La fisión del uranio, llevada a cabo por primera vez por Enrico Fermi, iba acompañada por un desprendimiento enorme de energía. 

Pero esto no era todo: si la fisión del primer núcleo podía emitir varios neutrones, cada uno de éstos podía provocar la fisión de otro núcleo, que a su vez al fisionarse emitía… Era la reacción en cadena prevista por Joliot y Szilard.

La idea de estar ante una fuente de energía inimaginable, la posibilidad de tener al alcance la preparación de una mítica fuerza explosiva, sobrecogió a los físicos que habían llegado a abarcar teóricamente los efectos de la fisión en cadena. 

Pero se estaba en 1939.  Muchos físicos, investigadores del átomo, habían abandonado Alemania por su condición de judíos. Otros, como el italiano Fermi, habían emigrado en desacuerdo con el fascismo que imperaba en su país.  Y todos ellos se habían refugiado en Estados Unidos. 

La idea de que los sabios alemanes que habían quedado en su tierra pudieran preparar el arma atómica era una suposición que podía hacer de Hitler el amo del mundo.

EINSTEIN AlbertAnte esta temible eventualidad, Leo Szilard, un científico atómico húngaro refugiado en Norteamérica, pidió a Albert Einstein que llamase la atención del Gobierno americano sobre el peligro que amenazaba, si los nazis conseguían preparar una bomba atómica.  Entre dudas y reticencias, el tiempo pasó. 

Entre tanto, los ensayos y las investigaciones nucleares habían proseguido en Princeton, en Berkeley, en Columbia… En 1941, los japoneses atacaron Pearl Harbor. 

Estados Unidos era ya un país beligerante. Ello precipitó la decisión. 

En agosto de 1942 se llegó a un acuerdo para unir esfuerzos entre el Gobierno americano y el británico a fin de comunicarse sus investigaciones, y el Ejército americano recibió el encargo de dar prioridad absoluta, acelerando, coordinando y recabando cuantos recursos fueran necesarios para realizar un proyecto al que se le puso el nombre clave de « Manhattan».  Su objetivo era fabricar la primera bomba atómica.

En el otoño de 1942, el general Leslie Groves, que había sido designado responsable del proyecto, se entrevistó secretamente con el físico Robert J. Oppenheimer, un brillante investigador cuyas cualidades personales de animador, capacidades de coordinador y poder de captación le hacían especialmente idóneo para dirigir en lo técnico la suma de esfuerzos que iba a representar el proyecto.

El lugar elegido para situar la planta de acabado fue Los Alamos, en Nuevo México, lejos de cualquier centro habitado. 

En la bomba se puso a trabajar un ejército de científicos, de técnicos, de militares: directa o indirectamente, más de cien mil personas, la mayoría ignorantes de la finalidad real de su trabajo. La movilización fue total.  Todos los recursos disponibles se pusieron al servicio de la gigantesca empresa. 

Cientos de millones de dólares se gastaron en un esfuerzo tecnológico que abarcó una colosal Planta construida en Tennessee, un grandioso laboratorio en la Universidad de Columbia, una enorme instalación en Oak Ridge, otra en Hanford. 

Y en Los Alamos, junto a la planta atómica, surgió una ciudad habitada por los científicos y sus familias. Era difícil que aquella dispersión no traicionara el secreto exigido.  Pero los severísimos controles y la más estricta vigilancia evitaron cualquier filtración.

Al principio se creyó que la bomba estaría lista en un año, pero se llegó a 1944, con el proceso muy avanzado. La evidencia de que Alemania no podría ya obtener la bomba y el sesgo favorable de la guerra contra Japón decidieron al científico danés Niels Bohr, premio Nobel de Física, a dirigir un memorándum al presidente Roosevelt previniéndole contra «la terrorífica perspectiva de una competencia futura entre las naciones por un arma tan formidable». 

Pero el mecanismo infernal no podía ya detenerse. La posesión de la bomba era un objetivo demasiado codiciado.

En julio de 1945, todo estaba listo para la gran prueba.  En Los Alamos se hallaban Oppenheimer, Bohr, Fermi, Bethe, Lawrence, Frisch… toda la plana mayor de los sabios nucleares.

El día 16, a las dos de la madrugada, las personas que debían intervenir en la primera prueba estaban en sus puestos a varios kilómetros del punto cero.  Se fijó la hora H para las 5 de la madrugada. 

A las 5.30, una luz blanca, radiante, mucho más brillante que el sol del mediodía, iluminó el desierto, las montañas en la lejanía…

La superfortaleza volante B-29, fabricado por Boeing, fue el mayor avión construido durante la  Guerra Mundial. Proyectado en 1939 y tras un período de prueba en el que tuvieron que superarse múltiples deficiencias técnicas, las primeras entregas a ultramar se hicieron en marzo de 1944.  Intervino, decisivamente en las operaciones aéreas contra Japón y Alemania. 

Fue el primer gran bombardero construido en serie dotado de compartimentos presurizados.  También fue el primero que dispuso de un sistema centralizado y sincronizado de tiro de las ametralladoras. 

Sus dimensiones eran gigantescas: longitud, 30 metros; envergadura, 43 metros.  Iba equipado :con cuatro motores Wright de 2.200 HP de potencia, que le daban una velocidad máxima de 585 kilómetros por hora a 7.600 metros de altitud.  La ,velocidad de crucero de gran alcance era de 350 kilómetros a la hora, siendo su radio de acción de más de 8. 000 kilómetros y su techo de servicio de 9.700 metros. Su tripulación estaba integrada por 11  hombres.

Su armamento constaba de 10 ó 12 ametralladoras y un cañón de 20 Mm. y su carga explosiva podía ser de cuatro bombas de 1.800 kilos u ocho de 900 kilos.  Para cargar la bomba de uranio, el Enola Gay hubo de acomodar su bodega, dado que las dimensiones del ingenio superaban los 70 cm. y ,de diámetro los 3 m de longitud.

La acción más espectacular y destructiva en la que participaron los B-29 fue el bombardeo realizado en la ,noche del 9 al 10 de marzo de 1945, Por 279 aparatos de este tipo sobre: Tokio. 

En una sola noche, las superfortalezas destruyeron casi 25 kilómetros cuadrados del centro de la capital japonesas arrasaron el 25 % de los edificios de la: ciudad.  Cerca de 85.000 personas perdieron la vida y otras tantas ,resultaron heridas, mientras que un millón de habitantes ,de Tokio quedaron sin hogar.

El día de la rendición de Japón, las fuerzas aéreas norteamericanas tenían en servicio 3.700 bombarderos del tipo B-29.Las superfortalezas todavía tuvieron una importante participación en la guerra de Corea; pero en 1955, con la puesta en servicio de los grandes bombarderos a reacción B-47 y B-52 y la del B-36 mixto, los B-29  fueron retirados definitivamente.

En esencia, la bomba atómica es un reactor o pila nuclear que no utiliza moderador (es decir, ninguna sustancia que frene las partículas emitidas por el elemento radiactivo) y en la que se origina una reacción en cadena.

Dos trozos de material radiactivo (uranio 235 en la Little Boy que se lanzó sobre Hiroshima y que aparece en la fotografía inferior,- plutonio 239 en la Fat Man que se lanzó sobre Nagasaki), de masa inferior a la crítica (es decir, a la masa a la que la reacción en cadena se produce de forma espontánea) y separados por un espacio vacío, son impelidos a chocar entre sí mediante la explosión de dos cargas convencionales, de forma que la nueva masa resultante es superior a la crítica, produciéndose la reacción nuclear.

Efectos a partir del centro: Dependiendo de su tamaño, los efectos de una deflagración nuclear, se expanden en círculos concéntricos a partir del punto de impacto, que normalmente se encuentra situado a cierta altura sobre el terreno.

El círculo más exterior es, lógicamente, el de menor destrucción y la causa principal de ésta es la radiación térmica, que produce una «tempestad de fuego», quemaduras e incendio.

En el círculo intermedio, donde la causa principal de destrucción es la onda de la explosión (expansión y choque), se producen derrumbamientos, roturas de conducciones de gas y agua, proyección de cascotes y cristales, etc.

Finalmente, en el círculo interior, la destrucción es total a calísa de las enormes temperaturas (en Hiroshima, 17.000 personas «desaparecieron» carbonizadas y pulverizadas) y la radiación mortal.

Los diámetros de estos círculos varían; por el . ejemplo, en una bomba de cien kilotones (unas siete-cinco veces la de Hiroshima) son de dentro a fuera:2,5 km., 8 km. y 16 km. 

Plan de vuelo

El vuelo tenía prevista la hora de despegue para las 2.45 de la madrugada del día 6, esperándose alcanzar el objetivo -que podía ser Hiroshima, objetivo prioritario, o bien Kokura o Nagasaki- seis horas después, es decir a las 8.15, hora exacta que se había precisado en función de las previsiones de la meteorología.  Tres superfortalezas acompañarían en el despegue al Enola Gay. 

Una de ellas tendría como misión el dar los datos meteorológicos en el último momento y ya sobre el espacio aéreo japonés, designando en función de este factor la ciudad que quedaría marcada por el fatal destino de sufrir el comienzo de la era atómica.  En los otros dos aviones viajarían los científicos encargados de observar y registrar los efectos de la bomba.

ENOLA GAY

Al término de la exposición del plan de vuelo, Tibbets anunció con voz grave que le era necesario dar una información adicional del más alto interés.  Y habló de que se trataba de lanzar una bomba cuyos efectos significarían muy probablemente la derrota de Japón y el fin de la guerra. 

Tibbets, sin embargo, se abstuvo de mencionar el calificativo de «atómica» aplicado ala bomba, pero precisó que la potencia del infernal ingenio equivaldría a la de 20.000 toneladas de trilita. 

Sus palabras causaron una impresión profunda en la tripulación, a la que se había incorporado el copiloto Bob Lewis, el ametrallador de cola Bob Caron y de la que formarían parte tres personas más: el capitán Parsons -ya citado- y su ayudante el teniente Morris Jeppson, quienes tendrían a su cargo el activado de la bomba una vez en vuelo; y a ellos se añadiría el teniente Beser, especialista en electrónica.

 El despegue hacia un objetivo desconocido

Y llegó el momento decisivo.  A la 1.45 de la madrugada despegó el B-29 destinado a la misión meteorológica.  Los otros despegarían después. 

A las 2.15, el B-29 modificado para que en su bodega cupiera la bomba de uranio 235, a la que se había bautizado con el nombre de Little Boy («Muchachito»)

Entre una hilera de cámaras , iluminado por potentes  estaba en la cabecera de la pista probando a plena potencia sus cuatro motores Wright de 2.200 caballos de por que querían registrar el histórico acon proyectores, el Enola Gay arrancó de la pista con los cuatro mil kilos de la bomba en sus entrañas. 

Eran las 2.45 de la madrugada del 6 de agosto de 1945.

Alcanzada la cota de vuelo y con el rumbo puesto hacia el archipiélago japonés, Parsons y su ayudante pusieron manos a la obra en la bodega del bombardero para activar el arma nuclear. 

Veinte minutos después, habían dado fin a su tarea.  Fue entonces cuando el coronel Tibbets, tras conectar el piloto automático, reunió a la tripulación y les explicó la naturaleza exacta del explosivo que llevaba a bordo. 

Para aquellos hombres, hechos al cumplimiento de unas misiones bélicas destructivas, cualquier reparo moral estaba en aquel momento fuera de lugar.  Aún más, la idea de que con aquel explosivo podían acortar la guerra y ahorrar millares de vidas norteamericanas ahuyentaba cualquier escrúpulo de conciencia.

Entre tanto, el Enola Gay proseguía su vuelo sin novedad sobre la capa de nubes por encima de la zona de turbulencia.  Poco a poco se iban percibiendo las tenues luces del amanecer.  Se acercaba la hora del alba. 

Al llegar el avión a la altura de lwo Jima, según el horario previsto, dos aparatos de escolta esperaban describiendo círculos la llegada del bombardero para, una vez avistado, ponerse a la altura de] Enola Gay y seguir el vuelo juntos, hacia el objetivo.

El nuevo día empezaba a despuntar.  Un nuevo día que millares de seres humanos de una ciudad todavía ignorada no verían llegar a su crepúsculo, víctimas de una horrible muerte.

 La meteorología sella el destino de Hiroshima

A las 7.09 se recibió en el Enola Gay el esperado mensaje.  Era del comandante EatherIy del Straight Flush, el avión meteorológico que les había precedido en el despegue y que en aquellos momentos volaba a 10.000 metros sobre Hiroshima. 

En él se confirmaba el objetivo principal como destino de la bomba.  La ciudad, en medio de un anillo de nubes, aparecía a través de un hueco de 15 kilómetros en el que la visibilidad era perfecta.

  El mensaje del Straight Flush selló el destino de la ciudad.  El navegante Van Kirk marcó el rumbo preciso para situarse en la vertical del objetivo.

Sobre Hiroshima se había despertado también el sol de la mañana de un nuevo día que -fatalmente- se anunciaba magnífico, sin nubes. 

Era una ciudad con más de 300.000 habitantes, famosa por sus bellísimos sauces y que hasta aquel día, pese al sesgo desfavorable que la guerra había tomado para el Japón, no había experimentado más conmoción que el estallido de 12 bombas enemigas.

  Aquella mañana despejada, sus habitantes se disponían a hacer su vida habitual. 

El puerto, antes animado por los embarques de tropas, aparecía desierto, porque la siembra de minas realizada por los aviones americanos hacía que casi ningún barco fondease ahora en Hiroshima. 

Fábricas, almacenes y enlaces ferroviarios trabajaban a pleno rendimiento para aprovisionar y equipar a un ejército que, muy pronto, tendría que afrontar el desembarco de los americanos en sus propias islas.

Afanada en sus quehaceres diarios, la gente prestó escasa atención a las sirenas que sonaron anunciando la presencia de un avión enemigo, un B-29 que volaba a gran altura y que, después de cruzar por dos veces el cielo de la ciudad, desapareció. 

El fin de la alarma sonó a las 7.30. Era el B-29 del comandante Eatherly, que había cumplido su misión de guía del Enola Gay. 

Al cese de la alarma, la gente dio un suspiro de alivio.  Los hombres inútiles para el servicio y los estudiantes que trabajaban en la defensa pasiva creyeron que, una vez más, el azote de las bombas iba a pasar sobre Hiroshima sin dejar rastro.

  Las gentes procedentes de zonas bombardeadas celebraron una vez más su buena fortuna en la elección de la ciudad que les había dado acogida.

De los hombres que participaron en los bombardeos de Hiroshima y Nagasaki, no todos salieron incólumes de esa siembra de destrucción.  Veinte años después, el mayor Claude Eatherly era víctima de fuertes trastornos emocionales. 

Era el hombre que, desde el avión meteorológico Straight Flush, había marcado el destino de Hiroshima señalándola como el objetivo del Enola Gay.

Eatherly, el servicio durante un   de finalizada la guerra, una vez desmovilizado empezó a experimentar  trastornos psiconerviosos influido por un claro complejo , de culpabilidad.

Su atormentado estado de ánimo se hizo público cuando fue detenido por provocar un gran alboroto y producir destrozos en un lugar público.  Tratado como héroe de guerra en el juicio que se le siguió, rechazó toda consideración y , pidió ser condenado, ya que se: sentía profundamente culpable. 

Aquel fue el inicio de todo un proceso de autopunición, que le llevó de los tratamientos psiquiátricos a sucesivas detenciones cada vez que su conducta buscaba un motivo para ser castigado. Su plan, como él mismo confesó, era acumular actos.

La protesta contra la sociedad que, según él, le había convertido en un asesino.  Su calvario se prolongó durante años y su figura fue esgrimida por grupos pacifistas y contrarios al uso de la energía atómica, mientras que la sociedad contra la que él se alzaba le tildaba de «loco».

Para otro aviador, la contemplación de la explosión? nuclear y la idea de las muertes producidas significó también un profundo cambio en su destino.  Fue el coronel inglés Leonard Cheshire, el piloto de bombardero más condecorado de la RAF, invitado a volar como observador en el avión meteorológico que escoltó al que bombardeó Nagasaki. 

Cheshire, superviviente de más de cien misiones sobre Alemania y los países ocupados, curtido en la destrucción por las «bombas terremoto» usadas por la RAF, quedó traumatizado por los efectos de la bomba nuclear.

 Y de su mente no pudo apartarse la imagen de hasta dónde puede llegar el poder destructivo que el hombre, movido por el odio de la guerra, es capaz de el ejercer contra la propia humanidad.

Terminada la guerra, pidió el retiro de la aviación, se convirtió al cristianismo y creó una fundación destinada a atender enfermos.

La hora H: 8h 15’17» del día 6

A las 7.50 hora de Tokio, el Enola Gay volaba sobre las inmediaciones de la isla de Shikoku.  A las 8.09 se divisó desde el avión el contorno de Hiroshima. Tibbets ordenó a los dos aviones de escolta que se retirasen y, por el interfono, indicó a su tripulación que se pusiera los anteojos que habían de protegerles contra el resplandor de la explosión. 

A las 8.1 1, Tibbets accionó el mecanismo preparatorio para soltar a Little Boy.  Faltaban menos de cinco minutos.  Debajo del Enola Gay, la ciudad de Hiroshima se veía cada vez más cerca.  El apuntador Ferebee se sabía de memoria la planimetría de la ciudad. 

Rápidamente encuadró su punto de mira en el lugar elegido: un gran puente sobre el río Ota.  Cuando tuvo, puso en marcha la sincronización automática para el minuto final del lanzamiento. 

El plan preestablecido era lanzar la bomba a las 8.15, hora local.  Las favorables condiciones atmosféricas y la pericia de Tibbets permitieron que el avión coincidiera con el objetivo exactamente a las 8 horas, 15 minutos y 17 segundos. 

En aquella hora fatídica se abrieron las compuertas del pañol y, desde una altura de 10.000 metros, el ingenio atómico inició su trayectoria genocida.

Aligerado de un peso de más de 4.000 kilos, el bombardero dio un gran brinco hacia arriba.

  Tibbets marcó un picado hacia estribor y a continuación hizo un viraje cerrado de 158′, a fin de alejarse al máximo del punto de explosión.  Al mismo tiempo, desde el instante del lanzamiento, Tibbets se puso a contar mentalmente los segundos calculados hasta que la bomba estallara. 

Transcurridos 43 segundos, cuando el avión se encontraba a 15 kilómetros del punto del impacto, la bomba hizo explosión, accionada por una espoleta automática a unos 550 metros por encima del punto de caída y a 200 metros escasos del blanco elegido. 

Una enorme bola de fuego se iba transformando en nubes purpúreas…

Repentinamente, el espacio se había convertido en una bola de fuego cuya temperatura interior era de decenas de miles de grados. 

Una luz, como desprendida por mil soles, deslumbró a pesar de los lentes a Bob Caron, el ametrallador de cola, que, por su posición en el aparato, quedó encarado al punto de explosión. 

Una doble onda de choque sacudió fuertemente al avión, mientras abajo la inmensa bola de fuego se iba transformando en una masa de nubes purpúreas que empezó a elevarse hacia las alturas, coronándose en una nube de humo blanco densísimo que llegó a alcanzar 12 kilómetros de altura y que adoptó la forma de un gigantesco hongo. «Entonces nos dimos cuenta -explicaría Tibbets- de que la explosión había liberado una asombrosa cantidad de energía.»

El Enola Gay, superada la prueba de la onda de choque, viró hacia el sur y voló sobre las afueras de Hiroshima, a fin de fotografiar los resultados del histórico bombardeo.  Y entonces fue cuando la tripulación pudo comprobar la espantosa destrucción que habían sembrado. 

Iniciado el vuelo de regreso, a 600 km de distancia todavía era visible el hongo que daba fe de la aparición del arma que abría una nueva y dramática era en la historia de la humanidad.

Una sensación impresionante dominaba a toda la tripulación, como si la tensión nerviosa liberada hubiera dado paso a la obsesionante idea de haber provocado una destrucción sin precedentes. 

Parsons y Tibbets lanzaron entonces el mensaje que iba a conmover al mundo: «Resultados obtenidos superan todas las previsiones.»

El fin de la Segunda Guerra Mundial A las 2 de la tarde, el Enola Gay tomaba tierra en Tinian.  La noticia del éxito de la operación «Bandeja de Plata» había circulado ya por el Pacífico.  En el aeródromo estaban esperando los generales Le May y Arnold, venidos especialmente de Guam.  El presidente Truman recibió el mensaje a bordo del crucero Augusta.  En su entorno, todo era exaltación y entusiasmo. 

Sólo el general Eisenhower condenó espontáneamente el uso de la terrible bomba contra un núcleo habitado, considerando que tal demostración no era necesaria para derrotar a Japón.  Pero la inmensa mayoría -como dijo Raymond Cartier- «no vio en la aparición del arma nuclear otra cosa que el fin rápido de la guerra y la economía de sangre americana que ello reportaba. »

No obstante, había algo más: ante la configuración del mundo de la posguerra y la emergencia de la Unión Soviética como gran potencia, la horrible demostración de Hiroshima perseguía el evidente fin de intimidar a Stalin y hacerle más razonable. 

Yalta y Potsdarn estaban perfilando una posguerra en la que los ocasionales aliados de ayer iban a dividir el mundo en dos bloques antagónicos.

Sin embargo, como era de esperar, las previsiones en cuanto a lo resolutivo de la bomba se cumplieron: el día 7, Japón se dirigió a la Unión Soviética para que mediara ante Estados Unidos en busca de un armisticio. 

Los rusos contestaron declarando la guerra a Japón y desencadenando de inmediato una gran ofensiva en Manchuria.  El día 9, otro B-2 l Bockscar, pilotado por el mayor Sweeney, lanza otra bomba nuclear -ésta de plutonio- sobre Nagasaki.  La «implosión» – pues éste fue el sistema practicado para provocar la reacción en cadena del plutonio activado- estuvo a punto de desintegrar la superfortaleza que efectuó el lanzamiento.  Los efectos, debido a la topografía de Nagasaki, no fueron tan espantosos como los del ataque precedente. 

Pero fueron suficientes para que, a las 2 de la madrugada del día 10, el Consejo Supremo de Guerra japonés, presidido insólitamente por el emperador Hiro Hito -que, ante lo gravísimo de los momentos, había decidido descender de sus divinas alturas -, se dirigiera a Estados Unidos pidiéndole el cese de las hostilidades y aceptando la rendición incondicional exigida por los aliados.

La capitulación se firmaría el 2 de septiembre de aquel mismo año: la Segunda Guerra Mundial había terminado, tras 6 años y 1 día de duración.  Pero queda por reseñar lo sucedido en la ciudad mártir, tras de recibir su bautismo de fuego atómico.

 Una explosión de 20 kilotones

La bomba lanzada en Hiroshima tenía una potencia equivalente a 20 kilotones, es decir, a veinte veces la explosión de mil toneladas de TNT.  Los efectos mortales de esta bomba podían proceder de tres causas distintas: la acción mecánica de la onda expansivo, la temperatura desencadenada y la radiactividad.

El calor generado por la energía liberada se elevó a temperaturas capaces de fundir la arcilla, alcanzando decenas de miles de grados.  Este colosal desprendimiento provocó una columna de aire huracanado y a continuación, para llenar el descomunal vacío, se produjo otra onda en sentido contrario cuya velocidad superó los 1.500 kilómetros por hora.  El terrible soplo produjo presiones de hasta 10 toneladas por metro cuadrado.

El detalle de estos efectos sobre la ciudad llega a lo indescriptible: trenes que vuelcan como golpeados por un gigante, tranvías que vuelan con una carga de cadáveres hechos pavesas, automóviles que se derriten, edificios que se desintegran y se convierten en polvo incandescente, manzanas de viviendas que desaparecen por un ciclón de fuego.

Toda una zona de 2 km. de radio se transformó en un crisol, que la dejó arrasada como si un fuego infernal y un viento cósmico se hubieran asociado apocalípticamente.  Y en kilómetros a la redonda, incendios y más incendios atizados dramáticamente por un vendaval de muerte.  Por los restos de lo que fueron calles, empezaron a verse supervivientes desollados, con la piel a tiras, unos desnudos, otros con la ropa hecha jirones.  Los que murieron en el acto, sorprendidos en el punto de la explosión, se volatilizaron sin dejar rastro. 

Tan sólo alguno, situado junto a un muro que resistió la onda expansiva, dejó una huella en la pared, una silueta difuminada de apariencia humana, como una sombra fantasmagórica, que fue en lo que vino a quedar el inmolado. 

Otros se vieron lanzados, arrastrados por un rebufo arrollador, y se encontraron volando por el aire, como peleles de una falla sacudida por un vendaval.  Alguno fue a parar milagrosamente a la copa de un árbol, a muchos metros de distancia de su lugar de arranque.

En los alrededores de] punto cero, todo quedó carbonizado. 

A 800 metros, ardían las ropas.  A dos kilómetros, ardían también los árboles, los matorrales, los postes del tendido eléctrico, cualquier objeto combustible.  Tal era la fuerza del contagio ígneo.

bomba en hiroshima

La bomba sobre Hiroshima. En la mañana del 6 de agosto de
1945 el mundo entró en la era «atómica». Un avión bombardero norteamericano —el «Enola Gay»- dejó caer sobre la ciudad japonesa de Hiroshima una bomba de alto poder destructivo que dejó un saldo de 99 mil muertos y un número similar de heridos. Tres días después Nagasaki corrió igual suerte, aunque el saldo trágico fue levemente menor: 70 mil muertos y 40 mil heridos. Ambas ciudades fueron un horno; cerca del núcleo de la explosión se registraron temperaturas que treparon hasta los 10 mil grados centígrados y vientos que avanzaban a más de 500 kilómetros por hora y que arrasaron todo a su paso.

La explicación oficial de los Aliados fue que con el lanzamiento de las bombas se anticipó la rendición de Japón en la Segunda Guerra Mundial y se evitó, así, la muerte de un número superior a los dos millones de personas entre norteamericanos y japoneses. De todas formas las secuelas fueron horrendas: durante los meses siguientes morirían otras 20 mil personas por las radiaciones y miles más nacerían con malformaciones.

 El sol de la muerte

Pero quedaba el tercer y más traicionero efecto: el «sol de la muerte», como llamaron los japoneses al efecto radiactivo que provocó la acción de los rayos gamma, delta y alfa.  Las personas, según su cercanía al punto de caída de la bomba atómica, aparecían llagados, llenos de terribles ampollas.  Todos los supervivientes, en un radio de 1 km a partir del epicentro, murieron posteriormente de resultas de las radiaciones. 

Los muertos por estos insidiosos efectos lo fueron a millares y se fueron escalonando a lo largo del tiempo, según el grado de su contaminación.  Veinte años después de la explosión, seguían muriendo personas a consecuencia de los efectos radiactivos.

Junto a los millares de muertos instantáneamente y de los que con posterioridad fallecieron de resultas de las quemaduras o de la radiación, se registraron hechos singulares.

  Por ejemplo, algunos habitantes se salvaron por haberles sorprendido los efectos de la explosión con vestimenta clara; en cambio, los que vestían de oscuro murieron rápidamente, por la capacidad del color negro de absorber el calor. 

Esta misma capacidad de absorción de las ondas calóricas por los cuerpos opacos ocasionó otro sorprendente fenómeno: la fotografía atómica.  Hombres desintegrados, así como objetos diversos, dejaron su sombra grabada sobre los muros de las paredes en cuya cercanía se encontraban en el momento de la explosión, como hemos mencionado antes. 

La onda calórica siguió exactamente los contornos de una silueta y la grabó, para siempre, sobre la piedra.

 El holocausto

Y cuando los supervivientes se recuperaron del horror y los servicios de socorro empezaron a prodigar sus cuidados a los heridos y a los quemados, se produjo la caída de una lluvia viscosa, menuda y pertinaz, que hizo a todos volver los ojos al cielo: el aire devolvía a la tierra, hecho toneladas de polvo y ceniza, todo lo que había ardido en aquel horno personas y cosas – y que las corrientes ascendentes habían succionado hasta las nubes.

Al día siguiente del bombardeo, un testigo presencial que recorrió la ciudad explicó el espeluznante panorama de desolación que constituía la visión de una población arrasada, sembrada de restos humanos que estaban en espantosa fase de descomposición, entre un olor nauseabundo a carne quemada. 

Una zona de 12 kilómetros cuadrados, en los que la densidad de población era de 13.500 habitantes por kilómetro cuadrado, había sido devastada. 

La llegada de un grupo de científicos confirmó que el explosivo lanzado era una bomba de uranio.  La energía atómica había entrado en la historia por la puerta del holocausto.

Según los datos más fiables, el número de víctimas sacrificadas en Hiroshima fue de 130.000, de las que 80.000 murieron.  Unos 48.000 edificios fueron destruidos completamente y 176.000 personas quedaron sin hogar


Oppenheimer Robert
La Bomba «Litle Boy»

masacres humanas

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

La Gran Ciencia – Grandes Proyectos Científicos del Mundo

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos.

Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías). Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro.

Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia.

Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas.

En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea.

La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político.

En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil.

En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

Luminiscencia: fenomeno de iluminacion en la oscuridad Fenomeno Fisico

El Fenómeno de la Luminiscencia

La luminiscencia es la propiedad que presentan algunos materiales y seres vivos de emitir luz cuando son sometidos a determinada temperatura. Esta luz es visible solamente en la oscuridad.

Poseen esta capacidad las luciérnagas o los peces de los abismos marinos; también el pescado putrefacto, algunas clases de madera y ciertos minerales y sulfuros metálicos.

luminiscencia

La luminiscencia comprende las emisiones de luz visible producidas tanto por la acción de ciertos rayos como por la existencia de reacciones físicas o químicas.

Se excluye la radiación originada exclusivamente como consecuencia del calor.

Dependiendo de la energía que la origina, es posible hablar de varias clases de luminiscencia: fotoluminiscencia,  fluorescencia,  fosforescencia, termoluminiscencia, quimiolumíniscencia, triboluminiscencia, electroluminiscencia y radioluminiscencia. 

Fotoluminiscencia

Cuando la energía activadora es de origen electromagnético (rayos X, ultravioleta, catódicos) se habla de fotoluminiscencia. Los rayos X, en particular, producen una intensa luminiscencia.

En el caso de los minerales fotoluminiscentes, la luz es absorbida durante un determinado periodo de tiempo y, al ser emitida, lo hace con una longitud de onda menor que la incidente.

Es decir, no se trata de un fenómeno óptico de difracción o reflexión.

La luminiscencia por rayos X permite, por ejemplo, diferenciar las perlas cultivadas de las naturales, ya que las primeras presentan esa capacidad, en tanto que las segundas, excepto las de agua dulce, carecen de ella. Se trata de una propiedad particularmente útil en el reconocimiento de piedras sintéticas. 

Fluorescencia

Es la luminiscencia causada única y exclusivamente por rayos ultravioleta. El término fluorescencia proviene del mineral que presenta este fenómeno por naturaleza, la fluorita.

No todos los minerales absorben luz U.V. de igual longitud de onda. Por ejemplo, algunos sólo son capaces de hacerlo para rayos U.V. de longitud de onda corta (254 nm); otros, para longitudes largas (350-370 nm), mientras que hay minerales que presentan este fenómeno indistintamente para unas y otras longitudes.

Tampoco todos los minerales, aunque tengan el mismo origen o la misma apariencia, poseen por sistema la propiedad de la fluorescencia. En este sentido, no todas las fluoritas son fluorescentes, tan sólo aquellas en las que existe presencia de materia orgánica o de tierras raras. 

Fosforescencia

Cuando la luminiscencia continúa un cierto tiempo aunque se elimine la fuente de excitación, se había de fosforescencia. Existen minerales que, a pesar de haberles retirado la fuente energética que incide sobre ellos, continúan emitiendo luz durante una fracción de segundo, por lo que es difícil a veces diferencia los fenómenos de fotolurniniscencia y fluorescencia. 

Termoluminiscencia

La presentan ciertos materiales únicamente cuando son calentados a temperaturas por debajo del rojo, siendo el calor el desencadenante de la reacción. La luz visible es inicialmente débil, acentuándose entre los 50 y 100 0C y cesando su emisión partir de los 475 °C La calcita, el apatito, la escapolita, la lepidolita y ciertos feldespatos son minerales termoluminiscentes. La clorofana (variedad de la fluorita), por ejemplo, emite una radiación verde muy característica. 

Quimioluminiscencia

Esta particularidad está originada por reacciones químicas. Un ejemplo es la bioluminiscencia, producida por reacciones químicas de origen biológico; uno de los casos más conocidos es el de la luz emitida por las luciérnagas o por los peces de ambientes hipoabisales. 

Triboluminiscencia

Ciertos minerales no metálicos y fácilmente exfoliables poseen la propiedad de emitir luz cuando son sometidos a acciones mecánicas, por ejemplo, al ser molidos o rayados. Es el fenómeno de la triboluminiscencia. La fluorita, la esfalerita, la lepidolita y, en menor medida, la pectolita, la ambligonita, los feldespatos y la calcita presentan esta característica.

Electroluminiscencia y radioluminiscencia

Si el efecto as provocado por la acción de corrientes eléctricas, el fenómeno se denomina electroluminiscencia. La radioluminiscencia, por su parte, está motivada por reacciones nucleares. Fue observada por vez primera en el radio, gracias a las investigaciones de Marie y Pierre Curie

El fenómeno de la luminiscencia en los análisis de toxicidad

Si se realizan ciertos análisis de toxicidad en los efluentes industriales que se vierten a plantas de tratamiento de aguas, se puede determinar que, en ocasiones, llegan a ser considerablemente más tóxicos que la totalidad del agua residual que accede a la planta antes de ser tratada.

Mediante un análisis químico tradicional es posible identificar los contaminantes presentes y se pueden cuantificar sus niveles; es necesaria la realización de un análisis de toxicidad para determinar los efectos tóxicos de estos vertidos.

Para ello se emplean métodos biológicos, mediante la acción de bacterias luminiscentes, de forma que cuando los niveles de sustancias tóxicas superan determinados valores, la luminiscencia se inhibe. Esta disminución de la luminiscencia se produce de forma directamente proporcional a la presencia de contaminantes tóxicos.

Esto ocurre porque los compuestos tóxicos actúan sobre las estructuras celulares y sus funciones biológicas, básicas para cualquier organismo vivo.

Efecto de la Radiación Ultravioleta Sobre la Piel

El fin del eter de Aristoteles Quintaesencia llena el espacio Quinto

El fin del eter de Aristóteles
La Quintaesencia llena el espacio Quinto

Durante el siglo XIX la idea de que la luz era un fenómeno ondulatorio estaba bastante afirmada. Las ondas que pueden observarse habitualmente a nivel macroscópico siempre son perturbaciones de algún medio material: las ondas de sonido son oscilaciones de las moléculas de aire, las ondas en un estanque son oscilaciones de las moléculas de agua, las ondas en una soga son oscilaciones de las moléculas que componen la soga, etc.

Por ese motivo resultó natural suponer que existía un medio material necesario para la propagación de las ondas luminosas. A este medio se lo llamó éter. Esta palabra ha tenido muchos usos a través del tiempo en explicaciones sobre la naturaleza, cuando se necesitaba postular la existencia de algún fluido que hiciera posible algún proceso (se ha hablado alguna vez de cierto éter que conduciría las sensaciones de una parte a otra del cuerpo humano).

El éter lumínico, de existir, debía tener propiedades muy particulares: ser lo suficientemente tenue como para llenar todos los espacios, incluso el interior de los cuernos transparentes o traslúcidos, y ser lo suficientemente rígido como para poder transmitir ondas de altísima frecuencia como las que conforman la luz. Los años pasaban y nadie podía diseñar una experiencia en la que se manifestara claramente la presencia del éter.

Si el éter llenaba también el espacio interestelar a lo largo de todo el Universo, esto hacía surgir una pregunta: ¿El mar de éter estaba fijo en el espacio y a través de éste se movían los astros sin perturbarlo, o cada planeta arrastraba el éter como si friera una atmósfera? La sistema de referencia absoluto respecto del cual se moverían todos los otros cuerpos. Y como la luz se propagaría a velocidad c en el éter estacionario, desde un cuerpo en movimiento, como la Tierra, se vería que la luz se mueve a distintas velocidades según lo haga en la misma dirección del movimiento terrestre, en sentido contrario o perpendicularmente.

Cuando el haz de luz viaja en la misma dirección y sentido que la Tierra, su velocidad relativa a ésta es c — y. Cuando viaja en una sentido contrario, su velocidad vista desde la Tierra es c + y.

En 1887, el físico Albert A. Michelson (1852-1931) diseíió un interferómetro y, junto con el químico Edward W Morley (1838-1923), realizó un experimento que debía mostrar la diferencia en las velocidades, vistas desde la Tierra, de dos rayos que se mueven en direcciones diferentes. Se usaban dos rayos provenientes de la misma fuente (para asegurar la coherencia), y luego de desplazarse en direcciones perpendiculares, se los hacia interferir.

La clave del experimento residía en que el patrón de interferencia debía cambiar si se rotaba el aparato con respecto a la dirección del movimiento de la Tierra.

El aparato original tenía muchos espejos para aumentar el camino recorrido por los rayos hasta unos 10 m, y así aumentar el efecto de interferencia. El dispositivo descansaba sobre una gran piedra que flotaba en mercurio.

El experimentador iba observando el patrón de franjas mientras hacía rotar lentamente la piedra. Hicieron miles de mediciones en diferentes puntos de la órbita terrestre y nunca notaron ni siquiera el mínimo corrimiento en el patrón de franjas. La orientación de los rayos de luz con respecto al movimiento de la Tierra no parecía afectar el movimiento de aquéllos. Algunos años más tarde, Michelson también investigó interferométricamente la posibilidad de que la Tierra arrastrara con ella al éter y demostró que esto tampoco era posible. La teoría del éter fue abandonada.

Dilatacion de un Gas a Presion Constante Leyes y Ejemplos

DILATACION DE UN GAS A PRESIÓN CONSTANTE – LEYES FÍSICAS

La temperatura es la expresión, para nuestros sentidos, del estado de agitación de las moléculas. Por esta razón, existe un cero absoluto, que corresponde a las moléculas inmóviles, y más abajo del cual no se puede descender.

Con la elevación de temperatura las moléculas se mueven con mayor vigor y tienden a liberarse de las fuerzas que las unen: los solides funden y los líquidos hierven, Al enfriar se repiten los mismos procesos en orden inverso, y desde el gas se llega hasta el sólido.

Con el incremento de temperatura todos los cuerpos se dilatan debido a que el mayor sacudimiento de sus moléculas los obliga a ocupar más espacio.

En los sólidos y los líquidos, que son prácticamente incompresibles, las variaciones de volumen son evidentes . Pero los gases son muy elásticos; si el recipiente que los contiene es rígido, sólo se aprecia un aumento de presión, puesto que el gas no tiene posibilidad de dilatarse.

En notas ulteriores veremos la equivalencia entre temperatura y presión en los gases perfectos. Un gas perfecto se distingue de un vapor en que sólo el segundo puede ser licuado, merced a un simple aumento de presión. El gas perfecto necesita, además, ser enfriado hasta una temperatura llamada crítica para convertirse en vapor.

 EJEMPLO PRÁCTICO DE DILATACIÓN

Los gasómetros clásicos reciben en forma continua el gas producido por la fábrica, y lo distribuyen de acuerdo con el consumo. Se componen de un cilindro inferior fijo que recibe el gas y contiene cierta cantidad de agua; dentro de esta vaina se desliza, subiendo o bajando, un recipiente cilíndrico invertido, cuyo peso suministra la presión para las tuberías que distribuyen el fluido. Cuando se acumula mucho gas, el recipiente está alto; cuando la reserva declina, el recipiente desciende y la altura del gasómetro disminuye.

En un gasómetro reina pues una presión constante, la que engendra el peso de su recipiente superior. Se observa que si la temperatura se eleva en sólo dos grados, un gasómetro de 18 metros de altura crece en casi 13 cm. Este fenómeno se debe a la dilatación del gas, y es fácil de calcular a base de las explicaciones impresas sobre fondo rosado: por cada grado que se suma el volumen aumenta en 1/273 del que ocupaba a 0°. Basta multiplicar 18 metros por 2 grados y dividir por 273; para un cálculo más exacto se tendrá en cuenta las temperaturas ambientes, inicial y final. Recuérdese que el gasómetro se dilata sólo en altura, y no en las otras dos dimensiones.

En ciertos globos de juguete se enciende luego en la parte inferior para calentar el aire que contienen. El gas caldeado y dilatado es menos denso que la atmósfera que lo rodea, y entonces el artefacto asciende. La primera aeronave, la de los hermanos Montgolfier en 1783, se basaba en este principio. La separación de las moléculas en el gas caliente y la consiguiente disminución de densidad, explica el ascenso del humo por las chimeneas.

Globo aerostático

Cuando un gas se calienta, sus moléculas se agitan y tienden a separarse. Entonces, la masa gaseosa ocupa un volumen mayor, y, por ende, su peso específico (peso por unidad de volumen) disminuye. De aqui que el aire caliente sea más liviano que el frío y ascienda, hecho fundamental en meteorología. El primer viaje aéreo, el de los hermanos Montgolfier hace casi dos siglos, se basaba en este fenómeno.

Experimento con gases

Figura Arriba: Experimento para medir la dilatación de un gas cuando la presión que soporta no se modifica. Se sabe que dicha presión invariable se ha mantenido cuando las dos columnas de mercurio llegan a la misma altura, equilibrándose (si la presión del gas contenido en el matraz hubiera aumentado, empujaría al mercurio, en contacto con él). Se logra igualar las columnas de mercurio mediante el tubo inferior, de caucho. A la izquierda, el baño de agua es frió; a la derecha es caliente y el gas se dilata. Se restablece la presión anterior bajando la salida del tubo. Las mediciones de temperatura y dilatación se llevan a cabo con un termómetro y una regla.

Gráfica de gases

Figura 2. Hace un siglo y medio se midió empíricamente la dilatación de los gases a presión constante en la forma descrita en la figura 1. La experiencia, que consiste esencialmente en calentar un .matraz de gas seco dentro de un baño e igualar las presiones inicial y final, muestra que el volumen de un gas a 0°C se duplica cuando llega a los 273 °C, se triplica a los 564°C (2 x 273), y así sucesivamente. En suma, el coeficiente de dilatación de los gases es constante.

Los científicos de entonces dedujeron que si se enfriara un gas a 273°C bajo cero su volumen se anularía. Denominaron a dicha temperatura «cero absoluto»; el gráfico muestra, hacia la izquierda, esta prolongación teórica de los resultados experimentales (técnicamente, la extensión gráfica se llama «extrapolación» de los resultados).

La ciencia moderna confirma casi exactamente el valor del cero o fría absoluto. Los especialistas suelen emplear la llamada «escala absoluta», que comienza en dicho punto, y entonces se habla de «grados Kelvin»: por ejemplo 0°C es igual a 273°K, y así sucesivamente (basta sumar 273 a la temperatura ordinaria).

Pero es evidente que el volumen de un gas nunca puede reducirse a nada y, por añadidura, los gases se licuan antes de alcanzar el cero absoluto. Si tomamos un gas sometido a presión constante en los instantes 1 y 2, y llamamos V1, V2, T1 y T2 los respectivos volúmenes y temperaturas, podemos expresar matemáticamente la ley que establece que el volumen de un gas varía en relación directa con la temperatura absoluta, con

la fórmula siguiente: V1/T1=V2/T2.

Esta ecuación, que traduce la proporcionalidad entre volúmenes y temperaturas., se utiliza con frecuencia.

Fuente Consultada:

Revista TECNIRAMA N°17.

FÍSICA II Polimodal.

CONSULTORA Enciclopedia Temática Ilustrada Tomo 10 El Mundo Físico.

El desarrollo cientifico y grandes inventos en el siglo XX

El Desarrollo Científico y Grandes Inventos en el Siglo XX

Los inventos en el siglo XX:  Desde el siglo XVII, momento en que se sitúa el nacimiento de la ciencia moderna, el progreso científico ha sido continuo. Pero es a lo largo del siglo XX cuando la investigación y la aplicación técnica de los conocimientos científicos se han desarrollado a un ritmo tan acelerado que ha transformado radicalmente la vida de los seres humanos.

En los últimos 20 años se han realizado más descubrimientos que en el resto de la historia de la Humanidad y la incorporación de principios científicos a tecnologías aplicables a la vida cotidiana se está produciendo a una velocidad incomparable con la del pasado.

La primera mitad del siglo veinte se caracterizó por el empleo de las mismas fuentes energéticas que en el siglo anterior, con el desarrollo adicional de la electricidad industrial y la búsqueda del dominio de la energía atómica.

TEMAS CIENTÍFICOS TRATADOS EN ESTE SITIO

 

En este periodo, las principales innovaciones tecnológicas fueron: en la industria, la invención creciente de aparatos domésticos, la obtención de nuevos materiales de construcción como el hormigón armado y el cristal, de fibras sintéticas para la producción textil, y de accesorios plásticos; en medicina, el hallazgo de sustancias contra las infecciones, como la penicilina y otros antibióticos; la mejora de los conocimientos en agricultura, alimentación y técnicas de conservación de alimentos; en el transporte la producción en serie del automóvil, que se convirtió en el medio predominante de locomoción, la invención del aeroplano; en los medios de comunicación el desarrollo de la cinematografía así como de la televisión creada a partir del invento del cinescopio en los años veinte.

En su segunda mitad, se ha roto con la división entre la ciencia abstracta y la aplicación técnica, con lo que la investigación científica deriva rápidamente en aplicaciones prácticas, primero en campos reducidos y, posteriormente, en la producción industrial de bienes de consumo. Así, los progresos científicos están cada vez más en el origen de los progresos técnicos, que constituyen uno de los principales motores del crecimiento económico. Además, la ciencia ha ampliado sus campos de investigación. El desarrollo, por ejemplo, de la estadística y de la informática, ha permitido transformar los métodos de cálculo y de análisis, que cada vez son menos lineales, con mayor atención a la multiplicidad de variables, con intervención de lo aleatorio y con análisis complejos. Todo ello permite aplicar métodos científicos también en las ciencias humanas (demografía, lingüística, estadística aplicada al análisis sociológico, etc.).

Desde finales de la Segunda Guerra Mundial los estudios sobre energía atómica procedente del uranio y el plutonio, desencadenaron una acelerada carrera armamentista protagonizada principalmente por Estados Unidos y la Unión Soviética, con la consecuente amenaza para la vida en el planeta que inauguró una época de temores ante una posible destrucción masiva, pero también amplió las posibilidades de desarrollo para la ciencia, con proyectos tecnológicos a gran escala. La Guerra Fría impulsó la carrera espacial y con ella la colocación de satélites artificiales que, aparte de su función militar, revolucionaron la tecnología de telecomunicaciones y prepararon el camino para la exploración del espacio donde se ha producido un logro tecnológico espectacular, al permitir que por primera vez los hombres pudieran abandonar la biosfera terrestre y regresar a ella.

Microelectrónica. En los primeros años de la década de 1950 comenzó a desarrollarse la microelectrónica como efecto de la aparición del transistor en 1948. Sin embargo, la microelectrónica sólo fue utilizada por el público en general hasta los años setenta, cuando los progresos en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la exploración del espacio, llevó al desarrollo del circuito integrado. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque más tarde la microelectrónica se desarrolló con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.

Tecnología computacional. En relación con la microelectrónica fue de gran importancia el surgimiento de la industria computacional; con la caída de los precios y el perfeccionamiento del chip de silicio producido en serie, surgieron las computadoras personales que, al poder colocarse sobre un escritorio sin necesidad de estar vinculadas a una unidad de procesamiento mayor, pudieron realizar muchas de las tareas de las computadoras centrales que eran mucho más caras.

Al contrario del impacto social negativo que algunos temían sobre el empleo laboral, las computadoras personales exigieron una capacidad de producción totalmente nueva y crearon nuevas fuentes de trabajo, en las ventas al menudeo, en la formación y apoyo técnico, en programación de sistemas tanto para el mercado de consumo como para las tareas especializadas para servicio a clientes individuales.

Durante la cuarta generación de computadoras (1982-1989), la medicina y la comunicación lograron un avance significativo. El hardware mejoró sustancialmente con los llamados sistemas circuitales distribuidos, las memorias de burbujas y los discos ópticos, obteniendo imágenes para uso médico y creando poderosísimas herramientas para la auscultación del paciente. En la quinta generación (1990-) o generación de las máquinas inteligentes se utiliza el concepto de inteligencia artificial (lA), con velocidades enormes por segundo.

REDES E INTERNET: El medio de comunicación conocido como Internet, que ha revolucionado el nutricio de las telecomunicaciones gracias a su capacidad de transmitir y obtener información de manera instantánea a través de computadoras personales, comenzó a desarrollarse a finales de los años sesenta, en el contexto de la Guerra fría, como una red informática que a su vez conectaba redes de computadoras de varias universidades y laboratorios de investigación en Estados Unidos, bajo el patrocinio de la Agencia de Programas Avanzados de Investigación (ARPA, de acuerdo a sus siglas en inglés) del Departamento de Defensa de Estados Unidos. En 1989 fue desarrollado World Wide Web por el informático británico Timothv Berners-Lee para el Consejo Europeo de Investigación Nuclear.

En los años noventa, gracias a los avances de la llamada “supercarretera de la información” se ha dado un vertiginoso crecimiento en la cantidad de usuarios de Internet, que ha cambiado de forma sorprendente la comunicación a distancia y ha colaborado a satisfacer las necesidades creadas por el mundo globalizado, al permitir que personas e instituciones puedan compartir información y trabajar en colaboración. El contenido disponible en Internet ha aumentado con gran rapidez y variabilidad, lo que permite encontrar fácilmente cualquier información, además de que posibilita la realización de transacciones económicas de forma segura, lo que ha tratado lluevas grandes oportunidades para el comercio.

Sin embargo, el crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a los riesgos que implica. El aumento de las páginas de Web conteniendo textos y gráficos en los que se denigraba a las minorías étnicas, se fomentaba el racismo o se exponía material pornográfico, ha suscitado fuertes críticas y ha conducido a peticiones de censura dirigidas a los suministradores de Internet para que voluntariamente cumplieran con determinados criterios. Otro elemento negativo de Internet se ha manifestado en la amenaza, hecha realidad en varias ocasiones, de que personas irresponsables inserten “virus” en la red causando graves daños en los equipos computacionales en el ámbito mundial.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letras escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museos, estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuentan con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y listo.

La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza. Internet constituye un instrumento importante para la movilización de capitales, ya que éstos pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Fibras ópticas: En la llamada “era de la información” no puede dejarse de lado el papel que desde los años ochenta ha tenido en diversas aplicaciones el uso de Fibras ópticas de cristal. Dada su capacidad para transmitir imágenes, las fibras ópticas se utilizan mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

En telefonía, las fibras ópticas han sustituido progresivamente a los cables coaxiales utilizados anteriormente; los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias, de manera que ofrecen mayores posibilidades para transportar un volumen mucho mayor de información con mayor velocidad de transmisión.

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Biotecnología. En el desarrollo de la biotecnología la técnica más importante es la ingeniería genética. Ésta se originó a partir de las investigaciones sobre la estructura del ADN realizadas por Francis Crick y James Dewey Watson en 1953. En la década de 1970 se llevó a cabo la transferencia de genes, es decir, la posibilidad de insertar genes de un organismo en otro, técnica de gran potencial que ha traído importantes beneficios en la lucha contra enfermedades como la hemofilia, la diabetes, la hepatitis o el SIDA. En 1973, 20 años después de que james Watson y Francis Chick publicaron el estudio de las bases moleculares del código genético, se insertó ADN extraño en la célula de un huésped, lo cual se conoce como donación de genes. El nacimiento de la oveja Dolly en 1997 fue posible gracias a la combinación del núcleo de una célula adulta de glándula mamaria con un óvulo sin núcleo, un proceso denominado “clonación

Los avances de la ingeniería genética que sin duda son de gran importancia para la ciencia médica, han provocado reacciones contrarias por parte de personas y grupos que advierten sobre los riesgos de orden ético que implica la donación aplicada a los seres humanos, como también se ha cuestionado otra innovación biotecnológica, la fertilización in vitro, debido a lo que puede significar para los valores religiosos la manipulación de embriones humanos, situación que en algunos países ha llevado al establecimiento de restricciones de carácter legal.

La biotecnología se divide en cuatro grandes áreas: alimentación, salud, medio ambiente e industria. En el campo de la salud, uno de los más importantes resultados es la fabricación de insulina humana a partir de una bacteria (1978). La insulina es una hormona proteica que se genera en el páncreas, y por su ausencia el azúcar se concentra en la sangre; a esta deficiencia se le conoce como diabetes, enfermedad que padecen millones de personas en el mundo. Actualmente se buscan nuevos tratamientos para la curación de ciertas enfermedades, sobre todo del cáncer.

MEDICINA: La medicina es un buen ejemplo del desarrollo científico y tecnológico de nuestro tiempo. Los beneficiarios de tales adelantos no dependen del país al que pertenecen, sino de su situación socioeconómica, geográfica o hasta racial. Los estudios e implantación de órganos se deben a la aclaración de los complejos fenómenos de la inmunología, lo cual permite el uso médico de los transplantes de órganos desde 1954, fecha en que se realizó el primer transplante de riñón. En la actualidad es posible el transplante de cualquier órgano.

En 1895 se utilizaron los rayos X para estudiar internamente al paciente. Son los precursores de la imagenología actual, utilizada en la resonancia magnética y nuclear, la tomografía axial computarizada, el ultrasonido diagnóstico y la medicina nuclear en todas sus formas. Técnicas importantes son también la angiografía por sustracción digital y otras de tipo terapéutico como la angioplastía, el marcapaso artificial que se instaló por vez primera en Suecia en 1958, la circulación y la diálisis extra-corpóreas.

Otro gran avance fueron las innovaciones en endocrinología, especial el descubrimiento de la insulina, que permitió salvar a muchos diabéticos de una muerte segura. También fue decisivo el hallazgo de la cortisona, que constituye un poderoso agente antiflamatorio y antialérgico.

Con el descubrimiento de los grupos sanguíneos y su tipificación, la transfusión de sangre se convirtió en un procedimiento seguro y eficaz, completada con el desarrollo de una sustancia -la heparina– que impide la coagulación sanguínea. Comenzaron también a aplicarse terapias efectivas para trastornos neurológicos, como la epilepsia y el mal de Parkinson.

En 1955, el estadounidense Jonas Salk descubrió una vacuna contra la poliomelitis a partir del trabajo con virus muertos. Diez años después, su compatriota Albert Sabin produjo una vacuna segura de virus vivos que sustituyó a la cíe su predecesor, erradicando así la última gran plaga infantil. También se descubrió que el sistema inmune era el causante de la enfermedad por factor RH y responsable del fracaso de los transplantes de órganos, técnica intentada en 1902 por Alexis Carrel pero que cobró fuerza en 1967, cuando el doctor Christian Barnard realizó en Sudáfrica el primer trasplante de corazón.

Los trasplantes, la sustitución de huesos y tejidos, los medicamentos antirrechazo y los avances en general de la tecnología médica -aplicaciones del rayo láser, la computación y la robótica-, junto a los éxitos de la anestesiología, ofrecieron un gran desarrollo de la cirugía y, en especial, de la microcirugía. También apareció la biotecnología moderna, aplicada al desarrollo de sustancias que elevan las defensas en caso de patologías cancerígenas. Sin embargo, la revolución sanitaria ha estado marcada por la desigualdad: sólo un 16% de la población mundial goza plenamente de sus éxitos. Según la Organización Mundial de la Salud, los países industrializados, que representan un 10% de las enfermedades, consumen el 90% de los recursos sanitarios.

El descubrimiento de la fisión del uranio culminó un proceso iniciado en 1896, cuando Henri Becquerel descubrió la radioactividad. Este fenómeno físico-químico mostró que algunos elementos -llamados radiactivos-se transformaban en otros, cercanos a ellos en la tabla periódica. El gran salto cualitativo lo dio el descubrimiento, en 1938, de que la fisión, o sea, la escisión del núcleo de un átomo en otros elementos, libera gran cantidad de energía.

El estudio de esta «transmutación» posibilitó el descubrimiento de la reacción exotérmica que genera la división de un núcleo atómico en otros de menor masa por el choque con ciertas partículas, como el neutrón. Por la fisión nuclear, un núcleo pesado como el Uranio 235 se divide en dos núcleos más ligeros cuando choca con él un neutrón. Al dividirse, el núcleo del uranio libera más neutrones, que colisionan a su vez con otros átomos de uranio, creando una reacción en cadena de gran poder radioactivo y energético.

En la Segunda Guerra Mundial, estos estudios se orientaron hacia su aplicación militar. De este modo, Estados Unidos obtuvo la mayor arma de destrucción masiva: la bomba atómica.


La gran hazaña: pisar la Luna En julio de 1969, la misión espacial estadounidense Apolo 11, llevando a bordo tres astronautas, llegó a la Luna. Para dar sus primeros pasos en el satélite de la Tierra, el hombre hubo de realizar un esfuerzo tecnológico sin precedentes: fabricar un potente cohete y diseñar un módulo lunar capaz de funcionar en el espacio. El astronauta Neil Armstrong camina sobre la superficie lunar.

Efectos negativos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos aspectos destructivos y perjudiciales derivados de la tecnología, y se argumenta que ello es consecuencia de la incapacidad de los gobiernos y las industrias para predecir o valorar los posibles efectos negativos del desarrollo acelerado de los productos tecnológicos.

La contaminación atmosférica, que proviene de muchas fuentes, principalmente de las centrales térmicas que queman combustibles fósiles, de los desastres nucleares y de los tubos de escape de los automóviles, está provocando el “efecto invernadero” o calentamiento de la superficie;

• los recursos naturales, incluso los no renovables como el petróleo, se están usando por encima de sus posibilidades;

• la destrucción masiva de selvas y bosques, que puede tener a largo plazo graves efectos en el clima mundial.

• los gases contaminantes, emitidos por los automóviles y las industrias, están provocando el adelgazamiento de la capa de ozono, lo que conduce a intensificar la radiación ultravioleta con graves peligros para la salud.

• pesticidas como el DDT amenazan la cadena alimenticia;

• la caza y pesca indiscriminadas, así como los derrames de petróleo en el mar, amenazan la supervivencia de especies animales en vías de extinción, como es el caso de la ballena;

• los residuos minerales usados por la industria están contaminando ríos, lagos y mares, así como las reservas de agua subterránea;

• el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen;

• en el aspecto social, la amenaza a ciertos valores, como la calidad de vida, la libertad de elección, la igualdad de oportunidades y la creatividad individual

Los grupos de presión ecologistas. La grave situación producida por los efectos negativos de la tecnología, ha provocado reacciones entre grupos ecologistas cada vez más influyentes, que en diversas formas se han manifestado en contra de las amenazas al medio ambiente y a la vida en el planeta. Aunque desde el siglo XIX se empezó a ejercer presión de estos grupos, logrando en Gran Bretaña la aprobación de leyes que limitaran la contaminación, en la segunda mitad del siglo veinte estos grupos comenzaron a exigir leyes más restrictivas, aunque en ocasiones eran poco realistas.

La acción de los ecologistas ha dada origen a un nuevo fenómeno político, la aparición de los partidos “verdes”, que en diversos países intentan atraer al electorado en relación al tema de la conservación del medio ambiente, concentrando su atención sobre todo en la producción de energía, cuyas industrias han presionado de dos maneras. Por un lado, han criticado a las centrales térmicas convencionales que utiliza combustibles fósiles como el petróleo, bajo el argumento de que los humos generados (compuestos sobre todo de dióxido de carbono y óxidos de nitrógeno) producen “lluvia ácida” que, a su vez, causan graves perjuicios a la vida vegetal y contaminan los ríos, además de que han sido señalados como causantes del efecto invernadero. Por otra parte, los ecologistas han organizado una tenaz resistencia contra el uso de cualquier forma de energía nuclear, sobre todo después del desastre de Chernobil.

Los gases desprendidos por el tubo de escape de los automóviles han sido señalados como otro grave factor de riesgo, con el peligro adicional de que su contenido de plomo puede afectar el desarrollo de las facultades mentales en la población infantil. Como consecuencia, muchos países han aprobado leyes destinadas a reducir gradualmente el contenido de plomo de la gasolina, con el propósito de llegar a eliminarlo totalmente.

Las constantes advertencias de estos grupos a través de los medios de comunicación, han obtenido algunas respuestas de los gobiernos a favor de reducir los contaminantes y cambiar la actitud hacia la vida animal y vegetal, buscando protegerla y detener su explotación indiscriminada.

Una alternativa que ya se ha hecho realidad en muchos países para resolver la problemática del agotamiento de los recursos naturales es el reciclado, que consiste en la transformación de los materiales sólidos o semisólidos que generan las actividades humanas, en nueva materia prima para uso industrial. Tales residuos se dividen en cuatro categorías: agrícolas, industriales, comerciales y domésticos. Además de la ventaja que el reciclado de residuos proporciona a favor de evitar el agotamiento de los recursos de la tierra, favorecen a las empresas industriales al mejorar los procesos de producción y reducir los costos de inversión.

A pesar de todas las alternativas planteadas y puestas en práctica para reducir los efectos negativos del avance tecnológico, aún falta mucho por hacer y se debe insistir una y otra vez en concientizar no sólo a los gobiernos y a las grandes empresas industriales, sino también al ciudadano común que de manera irresponsable abusa de la utilización de recursos naturales como el agua, arroja desperdicios a la vía pública y a los ríos, o por descuido provoca incendios forestales.

Es necesaria una profunda toma de conciencia sobre los graves riesgos que conlleva todo ese tipo de amenazas contra la vida en el planeta; sería paradójico y terrible que ésta llegara a su fin ya no por el estallido de una tercera guerra mundial desencadenada por los gobiernos poseedores de energía nuclear, como tanto se temió durante la Guerra fría, sino por un injustificable y fatal descuido de la especie humana en su conjunto.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

El Efecto Fotoelectrico Formulas Explicacion de la Teoría

El Efecto Fotoeléctrico  – Explicación de la Teoría – Fórmulas

Cuando Einstein recibió el Premio Nobel en 1921, fue su explicación sobre el efecto fotoeléctrico y no su artículo sobre la relatividad especial lo que se citaría. Quizá fuera debido en parte a la negativa de los científicos a aceptar la teoría especial después de tan poco tiempo. Aún así, su análisis del efecto fotoeléctrico en su artículo “Heurística de la generación y conversión de la luz” es de por sí un trabajo revolucionario. Al explicar un efecto que contradecía las creencias de su tiempo sobre la naturaleza de la luz, Einstein contribuyó a la visión global de hoy en día sobre el mundo subatómico, que no sólo el hombre de la calle, sino incluso los propios físicos tienen problemas en imaginar. (mas abajo ver: La historia del fenómeno)

EXPLICACIÓN Y FÓRMULAS DEL FENÓMENO FÍSICO DEL EFECTO FOTOELÉCTRICO

Este efecto, se trata de otro fenómeno que, al igual que la radiación de cuerpo negro, también involucra la interacción entre la radiación y la materia. Pero esta vez se trata de absorción de radiación de metales

EFECTO FOTOELECTRICO

Heinrich Hertz (1857-1894), científico alemán, fue el primero en observar el efecto fotoeléctrico, en 1887, mientras trabajaba en la generación de ondas de radio. Informó esta observación pero no se dedicó a explicarla

EFECTO FOTOELECTRICO Al incidir luz ultravioleta sobre el cátodo metálico (fotocátodo) se detecta el paso de una corriente eléctrica. Se trata de electro­nes que abandonan el cátodo (colector) y se dirigen al ánodo a través del vacío dentro del tubo. Los electrodos se hallan conec­tados a una diferencia de potencial de sólo unos pocos voltios.

 

EFECTO FOTOELECTRICO -1-

La teoría electromagnética clásica considera que la radiación de mayor intensidad (o brillo, si es visible), que corresponde a ondas de mayor amplitud, transporta mayor energía. Esta energía se halla distribuida uniformemente a lo largo del frente de onda. La intensidad es igual a la energía que incide, cada unidad de tiempo, en una unidad de superficie.

EFECTO FOTOELECTRICO -2

Con radiación ultravioleta de diferentes in­tensidades, los electrones salen del metal con la misma velocidad. La radiación más intensa arranca mayor número de electrones. Esta observación también resultaba inexplicable.

EFECTO FOTOELECTRICO -3

Con luz ultravioleta, aun de baja intensidad, los electrones son arrancados prácticamente en forma instantánea, aunque la Física clásica predecía un tiempo de retardo hasta que los átomos absorbieran la energía necesaria para expulsar el electrón. Con luz visible este fenómeno no se observa, aunque se aumente la intensidad de la luz y se ilumine durante mucho tiempo, como para que el átomo absorba bastante energía. Esta observación resultaba inexplicable.

EXPLICACION FISICA DEL FENOMENO

MAX PLANCK

Planck había llegado a la conclusión de que el traspaso de energía entre la materia y la radiación en el cuerpo negro ocurría a través de paquetes de energía. Sin embargo, no quiso admitir que la energía radiante una vez desprendida de la materia también viajaba en forma corpuscular. Es decir que siguió considerando a la radiación que se propaga como una onda clásica.

En 1905, Albert Einstein fue un paso más allá al explicar completamente las características del efecto fotoeléctrico. Para ello retomó la idea del cuanto de energía de Planck, postulando que:

 EINSTEIN

La radiación electromagnética está compuesta por paquetes de energía o fotones. Cada fotón transporta una energía E= v . h , donde v es la frecuencia de la radiación y h es la constante de Planck.

Cuando un fotón incide sobre el metal, transfiere toda su energía a alguno de los electrones. Si esta energía es suficiente para romper la ligadura del electrón con el metal, entonces el electrón se desprende. Si el fotón transporta más energía de la necesaria, este exceso se transforma en energía cinética del electrón:

Expresado en fórmula matematica es: Ecinética = h . v – Eextracción donde Eextracción es la energía necesaria para vencer la unión con el metal.

Esta teoría explica perfectamente los hechos observados:

1. Si la frecuencia de la radiación es baja (como en la luz visible), los fotones no acarrean la suficiente energía como para arrancar electrones, aunque se aumente la intensidad de la luz o el tiempo durante el cual incide.

EFECTO FOTOELECTRICO -4

Para cada tipo de material existe una frecuencia mínima por debajo de la cual no se produce el efecto fotoeléctrico.

2. Si la frecuencia de la radiación es suficiente para que se produzca el efecto fotoeléctrico, un crecimiento de la intensidad hace que sea mayor el número de electrones arrancados (por ende será mayor la corriente), pero no afecta la velocidad de los electrones.

Aumentar la intensidad de la luz equivale a incrementar el número de fotones, pero sin aumentar la energía que transporta cada uno.

3. Según la teoría clásica, habría un tiempo de retardo entre la llegada de la radiación y la emisión del primer electrón. Ya que la energía se distribuye uniformemente sobre el frente de la onda incidente, ésta tardaría al menos algunos cientos de segundos en transferir la energía necesaria. La teoría de Einstein, en cambio, predice que:

Una radiación de frecuencia adecuada, aunque de intensidad sumamente baja, produce emisión de electrones en forma instantánea.

Pasaron diez años de experimentación hasta que la nueva teoría fue corroborada y aceptada. Se determinó el valor de h a partir de experiencias de efecto fotoeléctrico y se encontró que concordaba perfectamente con el valor hallado por Planck a partir del espectro de radiación de cuerpo negro.

Desde ese momento los físicos aceptaron que, si bien la luz se propaga como si fuera una onda, al interactuar con la materia (en los procesos de absorción y emisión) se comporta como un haz de partículas. Esta sorprendente conducta es lo que se ha llamado la naturaleza dual de la luz. Esto muestra que las ideas surgidas del mundo macroscópico no son aplicables al inimaginable mundo de lo diminuto.

Ninguna rama de las ciencias físicas ha tenido tantas repercusiones filosóficas como la teoría de los cuantos, pues al descubrir un abismo, una discontinuidad radical en la estructura de la naturaleza, parece haber hallado también barreras infranqueables al entendimiento humano. Al trabajar en las oscuras interioridades del átomo, donde cada fenómeno tiene simultáneamente el doble aspecto de materia y de energía, los primeros teóricos de la física cuántica, Max Planck y Niels Bohr, descubrieron que la energía no se propaga de manera continua sino a saltos. Estos saltos o cuantos de energía configuran el sustrato de la realidad como una especie de granulado indivisible que pone en duda la continuidad de la materia.
Un lirio (arriba) y sus granos de polen (dcha.) enormemente amplificados sugieren de algún modo la realidad del mundo cuántico. Un microscopio electrónico nos revela la minuciosa estructura del polvo de polen; mas, a nivel subatómico —como se aprecia en el recuadro menor, que representa la estructura de un cristal de iridio fotografiado mediante un microscopio ultramoderno (hasta el momento, la realidad fotografiable más semejante al átomo)—, lo que parece una sólida arquitectura fija es, en realidad, un sistema de intercambios energéticos, que acaecen a velocidades inimaginables en repentinos y discontinuos saltos.

APLICACIÓN: LA CÉLULA FOTOELÉCTRICA
En 1887, Hertz había notado que la luz, al iluminar ciertas substancias, extraía de éstas partículas dotadas de carga negativa, es decir, electrones. Éste fue el efecto fotoeléctrico que hizo posible, al comienzo de nuestro siglo, el nacimiento de maravillas como la telefotografía, es decir, la transmisión a distancia de fotografías (Korn, 1907); el film sonoro (De Forest, 1923); la televisión (B.aird, 1925).

En 1888, el físico Hallwachs descubrió que un electroscopio se cargaba de electricidad cuando sus hojitas eran iluminadas por rayos ultravioletas. Este fenómeno, que fue llamado efecto Hallwachs, permitió construir un dispositivo mágico que, cuando es tocado por una luz o una radiación del mismo tipo, produce corriente eléctrica: la célula fotoeléctrica.

Esta célula fotoeléctrica está constituida por un electrodo metálico cubierto por una substancia que emite fácilmente electrones cuando  iluminada; los electrones recogidos por otro electrodo formado por una partícula metálica, y así origina una corriente eléctrica cu intensidad es proporcional a la intensidad de la iluminación, y que, natural mente, se interrumpe cuando la iluminación cesa.

La célula fotoeléctrica es de fácil construcción y muy económica, es ya uno de los aparatos funda mentales de la civilización mecánico Tiene una infinidad de aplicaciones y ejecuta trabajos realmente prodigiosos. Por ejemplo, supongamos que hay que introducir cien paquetes de cigarrillos en una caja. Una cinta de goma lleva en fila los paquetes y los vuelca en la caja; una célula fotoeléctrica es iluminada con un rayo de luz que es interrumpido por el paso de cada uno de los paquetes de cigarrillos. A la misma está conectado un dispositivo que cuenta y que, al registrar cien interrupciones de luz, da orden de cambiar la caja. Se dirá que también un hombre puede hacer el mismo trabajo. Naturalmente; pero la célula puede contar cien paquetes por segundo-sin cansarse y sin equivocarse.

Las células fotoeléctricas sirven, sobre todo, en los casos en que es necesario un centinela. Así, las células señalan el paso de personas a través de puertas, disparan dispositivos de alarma, bloquean las máquinas cuando el operador se acerca a partes peligrosas, y hasta intervienen en la seguridad de nuestras casas. En efecto, todas las instalaciones de calefacción a nafta poseen una célula que controla que el hogar se mantenga encendido. Si la llama se apagara, sería peligroso continuar inyectando el combustible, de modo que si la célula no ve el resplandor de la llama, detiene el flujo.

HISTORIA DEL EFECTO FOTOELÉCTRICO
El primer investigador que mencionó un efecto fotoeléctrico superficial fue Hertz, en 1887. Un año después, Hallwachs, basándose en los resultados de Hertz, encontró que una lámina de cinc pulida aislada retenía una carga positiva, puesta de manifiesto con un electroscopio, pero, sin embargo, perdía una carga eléctrica negativa, si bajo las mismas condiciones era iluminada por la luz de un arco de carbón.

Demostró también que sólo la luz ultravioleta era la responsable de este efecto. Más adelante, Elster y Geitel demostraron que había algunos metales (sodio, potasio) que eran sensibles a la luz visible, y fueron capaces de construir células fotoeléctricas muy sencillas. Ellos establecieron que la corriente fotoeléctrica a través de sus células era directamente proporcional a la intensidad de luz dentro de un cierto intervalo.

A fines del siglo XIX (en 1899), P. Lenard y J. J. Thomson, independientemente, demostraron que los portadores de electricidad negativa arrancados de las superficies metálicas eran electrones. Por su parte, Lenard demostró que la energía de los electrones arrancados no dependía de la intensidad de la luz, mientras que el número de electrones era proporcional a dicha intensidad. Estos resultados, que no podían ser explicados por la teoría ondulatoria de la luz, llevaron a Einstein a formular una nueva teoría sobre la naturaleza de la luz, en 1905.

Einstein sugirió que la luz podía considerarse como compuesta por pequeñísimos corpúsculos, cuantos de luz o fotones, cada uno de los cuales tenía una cantidad de energía igual a h v, donde h era la famosa constante de Planck,  y v  la  frecuencia  de  la luz.

Cuando la luz era absorbida por el metal, el corpúsculo luminoso desaparecía como tal, pero transfería su energía al electrón dentro del metal, con el cual había chocado, y éste entonces podía escapar si la energía del corpúsculo de luz era superior a la energía con que el electrón estaba unido al metal. Por esta teoría, Einstein recibió, años más tarde, el premio Nobel.

La intensidad de un rayo luminoso viene dada por el número de fotones; por lo tanto, cuanto mayor sea la intensidad, mayor será la energía total que llegue a la superficie del metal. Sin embargo, no importa el número de fotones que choquen con la superficie, porque, si su energía individual es baja, no pueden arrancar ni un solo electrón.

Cuando la energía de los fotones es individualmente superior al umbral, entonces cada uno puede arrancar un electrón y, en este caso, cuanto más intensa sea la iluminación, mayor será el número de electrones arrancados y más intensa la corriente fotoeléctrica. Los materiales como el selenio se utilizan para los fotómetros porque tienen un umbral bastante bajo, y todos los fotones de luz visible tienen suficiente energía para liberar electrones.

Es posible obtener materiales que sean sensibles incluso a la luz infrarroja recubriendo sus superficies de un modo especial. Si se oxida cesio metálico de manera especial, y se deposita sobre una película muy delgada de plata, toda la estructura de la superficie se altera y hace falta una pequeña cantidad de energía para arrancar un electrón.

Este tipo de material puede utilizarse en instrumentos para registrar la recepción de luz infrarroja invisible. Desde el punto de vista de aplicación del efecto fotoeléctrico, la combinación de la célula fotoeléctrica con el amplificador termoiónico ha proporcionado un mecanismo sensible a la luz, que hizo posible la realización de adelantos científicos tales como la televisión, el cine sonoro y la transmisión de fotografías por telégrafo.

Ondas y paquetes
La luz se compone de «paquetes» básicos de energía, llamados fotones. Bajo ciertas circunstancias, éstos actúan como si fuesen objetos sueltos. En condiciones distintas, la luz se comporta como una onda continua de energía. Otra de sus características es que si, por ejemplo, una persona parada a 10 m de distancia de una lámpara, se aleja a 20 m de ésta, la luz que recibirá no será la mitad, sino la cuarta parte de la que recibía en un principio. Ello se debe a que la luz se propaga en círculos, y al duplicarse la distancia tiene que cubrir cuatro veces la misma área. La fuerza de gravedad disminuye de igual manera y, según proponen los científicos, también se desplaza en forma de partículas, de ondas o de ambas; aunque ninguna de éstas ha sido descubierta todavía. Así que la paradoja subsiste: pese a saber exactamente lo que hace la gravedad y poder predecir sus efectos con precisión, se desconoce lo que es en realidad. La más familiar de las fuerzas que gobiernan el universo resulta ser la más misteriosa.

.(leer mas sobre la historia del fenómeno)

Formula de Heron Area del Triangulo Biografia Heron de Alejandria

Fórmula de Herón – Área del Triángulo – Biografía

HERON DE ALEJANDRÍA:

HERON DE ALEJANDRÍA:

Herón de Alejandría (s. I ó II d.C.) fue el inventor de la máquina de vapor. A partir del siglo XVIII muchas máquinas empezaron a funcionar gracias a la energía que se obtiene del vapor de agua.

Diecisiete siglos antes, Herón de Alejandría ya utilizó las posibilidades energéticas del vapor. Su «máquina de vapor» era una esfera hueca a la que se adaptaban dos tubos curvos.

Cuando hervía el agua en el interior de la esfera, ésta giraba a gran velocidad como resultado de la ley de acción y reacción, que no fue formulada como tal hasta muchos siglos más tarde. Pero a nadie se le ocurrió darle al invento más utilidad que la de construir unos cuantos juguetes.

Podemos decir que el mayor de los experimentadores de la antigüedad fue ciertamente Herón. quien escribió sus obras alrededor del año 130 antes de Jesucristo.

Buen matemático, Herón adopta la división del círculo en 360 grados propuesta por Hiparco de Bitinia; excelente pedagogo, funda una auténtica escuela politécnica en Alejandría con una sección consagrada únicamente a los estudiantes dedicados a la investigación.

Para Herón no existe el vacío absoluto y el aire es un cuerpo de gran elasticidad susceptible de presión y depresión. Así explica los aparatos de succión como la pipeta, los recipientes de desagüe constante y las fuentes intermitentes.

Da la explicación de la ventosa y. al igual que Filón, emplea una máquina de aire caliente para impulsar el agua. Herón se ha hecho célebre sobre todo por su eolípila que, por primera vez, utilizaba la fuerza expansiva del vapor de agua y el principio de la reacción.

Este aparato ha sido descrito multitud de veces. Recordemos que se trata de un huevo de cerámica colocado entre dos pivotes laterales y provisto de dos tuberías acodadas. Se calienta el agua que hay en el interior de este huevo y al escaparse el vapor por las tuberías hace que el huevo gire sobre sus pivotes.

En mecánica. Herón resuelve por medio de engranajes el problema de Arquímedes consistente en levantar 1.000 kg. con ayuda de 5 kg. Construye el paralelogramo de las velocidades, inventa el principio del funicular, estudia los misterios del plano inclinado y los de la fricción.

En nuestros días, algunos pioneros del automóvil han aplicado su dispositivo de rueda de fricción para asegurar a los vehículos una transmisión automática. Con todos estos ingenios, Herón demuestra que «lo que se gana en fuerza se pierde en forma de tiempo».

Por otra parte, enuncia la ley de la inercia y encuentra que la fuerza es proporcional a la masa de lo que se mueve y a la velocidad de que está animado. Es ya la prefiguración del gran principio de la mecánica clásica:F= m.a

Los constructores de obras de arte deben a Herón unas tablas de medidas utilizables en el montaje de las bóvedas y en la perforación de túneles y pozos. Los aficionados a la anécdota están intrigados por los autómatas que el gran físico construía para distraerse: curruca que bate las alas y canta cuando se empujan las puertas de un templo, funcionamiento de puertas accionadas por el aire caliente que se eleva del fuego de los sacrificios, etc.

Dejando aparte estas distracciones, hemos de ver en Herón un maestro en el arte de las medidas y un fundador de la mecánica general.

La ingeniosidad mecánica de los alejandrinos aparece en la reconstrucción de estos autómatas hecha por el padre Kircher en su obra «Oedipus Aegyptiacus» publicada en Roma en el siglo XVII y basada en los escritos de Herón. Los científicos están divididos en cuanto a la estimación de la potencia motriz que los movía. Puede suponerse que los pesos, los sifones y la presión del aire caliente están para algo.
El pájaro que mueve las alas  ha podido ser accionado por medio de pesas, las clepsidras  estaban animadas por una corriente de agua cuidadosamente regulada, mientras que el aire calentado por las velas hacía brotar la leche de los senos de la diosa .
https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

En su Métrica demostró la fórmula de su nombre:
FORMULA DE HERON PARA CALCULO DE ÁREA DE CUALQUIER TRIANGULO:

AREA=formula de HerónDonde: a,b,c son lo lados del triangulo,   s es el semi-perimetro s=(a+b+c)/2

Para el área de un triángulo, donde a, b y c representan sus tres lados y s su semi-perímetro. La fórmula, que constituye el principal mérito matemático de Herón, es fácil de demostrar con ayuda de trigonometría.

Herón de Alejandría (c. 20-62 d.C.), matemático y científico griego, pero puede considárselo como un ingeniero. Su nombre también podría ser Hero (aproximadamente 18 escritores griegos se llamaron Hero ó Herón, creándose cierta dificultad a la hora de su identificación). Herón de Alejandría nació probablemente en Egipto y realizó su trabajo en Alejandría (Egipto).

En nuestros días, el renombre de Herón se debe, sobre todo, a sus deliciosos tratados sobre autómatas griegos y juguetes hidráulicos, como la paradójica «fuente de Herón» donde un chorro de agua parece desafiar la ley de la gravedad, pues brota más alta que su venero.

Escribió al menos 13 obras sobre mecánica, matemáticas y física. Inventó varios instrumentos mecánicos, gran parte de ellos para uso práctico: la aelípila, una máquina a vapor giratoria; la fuente de Herón, un aparato neumático que produce un chorro vertical de agua por la presión del aire y la dioptra, un primitivo instrumento geodésico.

EJEMPLO ONLINE DE LA FORMULA DE HERON: