Radiación Cuerpo Negro

Fisica Cuantica Teoria Cuantica Cuanto de Energia Constante de Planck

Fisica Cuántica El Cuanto de Energía y Constante de Planck

EFECTO FOTOELECTRICO
Efecto Fotoeléctrico
Radiación de un Cuerpo Negro
Radiación de un Cuerpo Negro
El Cuanto de Energía
El Cuanto de Energía
Leyes de la TermodinámicaModelo Atómico de BohrCinemática: MRU y MRUA

La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: eléter.

La Revolución Científica Maxwell ClerkEn 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta.

Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y laradiactividad, descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

El espacio interior del átomo: Mientras unos científicos investigaban paralelamente el  tiempo a escala geológica y el espacio a escala universal —ambos parecían dilatarse—, otros dedicaban su atención al mundo microscópico del átomo.A principios de siglo, muchos hombres de ciencia opinaban aún que estos estudios consistían en lucubraciones quizá sólo útiles para los químicos. Sin embargo, pronto se supo que los átomos, aunque invisibles (sus diámetros son del orden de una diezmillonésima de milímetro), eran absolutamente reales, y se acometió seriamente la tarea de investigar su tamaño y estructura.

El físico británico J. J. Thomson detectó en 1897 los electrones con su carga eléctrica, pero sólo después de 1914 el norteamericano Robert Millikan logró aislar el electrón y medir su carga. Rutherford utilizó partículas alfa (consistentes en dos protones y dos neutrones) en sus experimentos, 20 años antes de que el protón fuera aislado y denominado por su nombre en 1920; el neutrón, tercero de los componentes del núcleo, no fue descubierto hasta 1932. (ver: El Átomo)

Hacia la Primera Guerra Mundial ya se sabía que en el espacio interior del átomo existe un mayor vacío que en el universo astronómico: la inmensa mayoría de su masa se concentra en el núcleo, que sólo ocupa una diezmilésima parte del volumen total, modelo atómico conocido, como Modelo de Rutherford.

Si el sol, por ejemplo, fuera del tamaño de una pelota de golf, Plutón, el planeta más lejano, se hallaría a 188 metros de distancia. Pero si el núcleo de un átomo fuera la citada pelota, sus electrones exteriores se hallarían a unos 1.070 metros. A pesar de la complejidad existente en el interior del átomo, su exploración progresó con sorprendente rapidez.

Transcurrieron 11 años desde que en 1895 el físico francés Henri Becquerel descubrió la radiactividad natural hasta que Boltwood la utilizó para calcular la edad de la Tierra.

Otros 11 años después, Rutherford hizo realidad el sueño de los alquimistas y transformó unos elementos en otros. Aunque la fisión atómica no llegaría hasta mucho más tarde, ya antes de 1920 algunos físicos extendieron aún más su mirada: hacia el proceso de fusión atómica -aun mas poderoso-, fundamento del sol y de todas las estrellas del universo.

LA FÍSICA CUÁNTICA: El cuanto de Planck y el modelo atómico de Bohr
El modelo atómico de RUTHERFORD tenía en realidad una capital deficiencia. Una partícula cargada, un electrón, desplazándose en el interior del átomo, debía -según la física clásica-emitir energía, radiar. Perdiendo así continuamente energía, su trayectoria se estrecharía y el electrón terminaría por precipitarse en el núcleo atómico. En una palabra, el átomo se aniquilaría a sí mismo.

El modelo de RUTHERFORD, salido del experimento y admirable desde tantos puntos de vista, venía a chocar con una fundamental exigencia de la electrodinámica maxwelliana. Aceptar el primero era rechazar en el dominio microcósmico tal electrodinámica de MAXWELL. La física no podía salir del dilema más que al precio de una infracción. En realidad, el instrumento que iba a permitir «salvar los fenómenos» estaba ya formado desde hacía más de una década. Sólo era preciso emplearlo.

PLANCK MAXAl buscar la solución de un problema especial -la distribución de la energía en la radiación del cuerpo negro-, el físico alemán MAX PLANCK (1858-1947) llegó, en 1900, a una conclusión muy general. La energía radiante, admitió PLANCK, no es emitida por su fuente ni absorbida por la materia en forma de flujo continuo infinitamente divisible, sino de manera discontinua, en pequeños manojos, en cantidades finitas.

Todo ocurre como si, después de haber emitido un tren de ondas, el átomo se detuviera antes de enviar otro. La radiación, y en general cada intercambio energético, posee una estructura discontinua, variando a saltos, escalonadamente, siendo cada peldaño el producto de la frecuencia de la radiación considerada y de una constante de la naturaleza: la célebre constante de PLANK. Estos escalones o granos de energía son los cuantos.

Con los cuantos de PLANCK se introduce en la ciencia una nueva idea, por completo desconocida de los investigadores clásicos y mucho más revolucionaria que la relatividad einsteniana. En efecto, desde NEWTON, la imagen física del mundo del estaba basada en la convicción de que los fenómenos de la naturaleza son continuos. Natura nonfacit saltus: la naturaleza no da saltos, repitieron físicos y filósofos de los siglos pasados, PLANCK y sus adeptos declararon que la naturaleza no da saltos.

planck y ruthenford

MAX PLANCK había avanzado en 1900 la hipótesis de que la energía era emitida y absorbida por cuantos, paquetes de energía cuyo valor está ligado a la frecuencia f de la radiación por medio de una constante h (llamada «constante.de Planck»): E = hf. Esta idea pareció menos absurda cuando Einstein, cinco años después, explicó de la misma manera el efecto fotoeléctrico, descubierto por H. Hertz en 1886, consistente en el desprendimiento de un flujo de electrones por un metal sometido a una radiación ultravioleta. Para Einstein, los corpúsculos luminosos son portadores de una energía proporcional a su frecuencia, que comunican a los electrones de los átomos metálicos.

Biografia de Albert Einstein: Relatividad Especial y Efecto Fotoeléctrico Carta HistóricaLa constante de PLANCK, el cuanto elemental h, es el que mide los saltos en los intercambios de energía; su valor numérico es sumamente pequeño: 6,55 x 10-27. Utilizando una imagen grosera podría decirse que la relación del número uno con el número h es -más o menos- la de la masa del globo terráqueo con la masa de una cabeza de alfiler.

La pequeñez del cuanto elemental es la que nos esconde en los intercambios energéticos -por ejemplo, en la emisión y absorción de un rayo de luz- la intermitencia, el carácter cinematográfico del fenómeno. Visto que todos los fenómenos sólo son intercambios cíe energía, el cuanto elemental está presente en todos los acontecimientos físicos. Esta universalidad es la que da inmenso alcance al descubrimiento de Planck.

En los razonamientos del físico alemán el cuanto era un ente teórico, inventado para resolver las dificultades de un problema especial, pero ALBERT EINSTEIN lo aplicó en 1905 a la luz para explicar el fenómeno de la fotoelectricidad, y ARTHUR COMPTON puso experimentalmente, en 1922, fuera de duda la realidad física del cuanto. Pero en el intervalo entre estos dos éxitos, un joven dinamarqués, NIELS BOHR (1885-1962), realizó la hazaña decisiva: reunió la teoría cuántica de PLANCK con el modelo atómico de RUTHERFORD.

«Si los electrones que circulan en los átomos -declaró BOHR en 1913- no satisfacen las leyes de la electrodinámica clásica, es porque obedecen a las leyes de la mecánica cuántica. Sin duda, giran en torno del núcleo atómico, pero circulan únicamente sobre órbitas tales que sus impulsos resultan determinados por múltiplos enteros de la constante de PLANCK. Los electrones no radian durante todo el tiempo en que describen sus órbitas; solamente cuando el electrón salta de una órbita a otra, más cercana del núcleo, lanza un cuanto de luz, un fotón.»

Emitidos por los átomos de gases incandescentes, son los fotones los que engendran las rayas espectrales, y BOHR tuvo el portentoso acierto de poder explicar las rayas del hidrógeno. En efecto, las longitudes de onda de estas líneas espectrales se vuelven calculables -A partir del modelo de átomo cuantificado por BOHR, que interpreta también el origen de los espectros elementales engendrados por los rayos X, espectros cuya importancia acababa de ser puesta en evidencia por el joven físico inglés HENRY GWYN JEFFREYS MOSELEY (1887-1915).

Para dar más clara cuenta de algunas particularidades de los espectros el físico alemán ARNOLD SOMMERFELD (1868-1951) reemplazó en el modelo de BOHR las trayectorias circulares de los electrones por órbitas elípticas, sometiendo además los electrones a la mecánica relativista.

Dos holandeses, SAMUEL GOUDSMIT (1902) y GEORGE UHLENBECK (1900), en 1952 dotaron de movimiento rotatorio al electrón, introduciendo una nueva característica, el «spin«, que poseen las partículas y cuya importancia no es menor que la de sus masas o de sus cargas. Esta nueva magnitud, numéricamente ligada a la constante de PLANCK, da cuenta no sólo de las propiedades magnéticas de los corpúsculos atómicos, sino también del comportamiento que ponen en evidencia cuando integran un conjunto numeroso de partículas.

borhComo el modelo atómico de RUTHERFORD, también el de BOHR (imagen izq.) se asemejaba pues a un minúsculo sistema planetario, pero con la esencial diferencia de que en el átomo bohrianolos electrones sólo podían circular sobre trayectorias cuantificadas, como si una misteriosa policía microcósmica les hubiese prohibido las demás. ¿Por qué un electrón puede solamente mantenerse sobre una trayectoria permitida por la constante de PLANCK BOHR había dejado la interrogante sin respuesta. Fue el teórico francés LOUIS DE BROGLIE (1892-1987) quien dio en 1923 la contestación.

Cada electrón, explicó DE BROGLIE, va acompañado por un tren de ondas y circula sólo en órbitas de tamaño tal que d tren de ondas pueda caber en ellas, es decir, pueda cerrarse. Si no se cerrara, las ondas sucesivas se neutralizarían, destruyéndose. Por ello, la circunferencia de una órbita tiene que ser un múltiplo entero de la longitud de la onda que acompaña al electrón. Ahora bien, DE BROGLIE muestra que las únicas órbita compatibles con las aludidas ondas estacionarias son idéntica con las órbitas cuantificadas de los electrones en el modelo de BOHR. Viene a ser éste un admirable descubrimiento que explica por qué, en el interior del átomo, ciertas trayectorias son «permitidas» mientras que otras «permanecen prohibidas».

ERWIN SCHRODINGERAsociar al movimiento del electrón -corpúsculo material- una onda; ligar indisolublemente lo discontinuo con lo continuo, es la gran idea que surge de la mecánica ondulatoria de DE BROGLIE, a la cual el austríaco ERWIN SCHRODINGER (1887-1961) -imagen izq. – y el inglés PAUL DIRAC (1902-1983) iban a dar andamiaje matemático y base más amplia.

Ya antes, en la teoría ondulatoria de la luz, que sirvió fielmente a la física durante el siglo XIX, se había introducido el cuanto luminoso o fotón corpuscular; la onda era indispensable para explicar algunos fenómenos; el corpúsculo, no menos imprescindible para explicar otros.DE BROGLIE

A esta doble imagen de la luz se agregó, con DE BROGLIE (imagen der.) , la doble imagen de la materia, cuyos corpúsculos intraatómicos están inseparablemente ligados a las ondas.

La onda dirige y pilotea los corpúsculos, y éstos materializan las ondas. Ambas son dos caras complementarias de la realidad y representan la doble faz del mundo físico.

En efecto, la realidad de las ondas de la materia no dejó ya lugar a dudas: CLINTON J. DAVISSON (1881-1958) y LESTER H. GERMER (1896) lograron demostrar en 1927 que un haz de luz de corpúsculos electrónicos se difracciona de la misma manera como lo hace un haz de luz o de rayos X. Con este veredicto de la experiencia desapareció la clásica diferencia entre luz y materia, tan distintas en la imagen que el siglo pasado se forjaba del mundo físico como son vida y muerte en el mundo biológico.

Principales Cambios Científicos Gran experimento
La Máquina de Dios
Las Nuevas Ciencias
De Lo Diminuto
La Historia de la
Energía
Nuclear
La Ciencia Atómica
En el Siglo XX

Las radiaciones del núcleo atómico, alfa , beta y gamma

El Cuanto de Energia – Fisica Cuantica Constante de Planck

El Cuanto de Energía – Fisica Cuántica Constante de Planck

EXPLICACIÓN CIENTÍFICA DEL CONCEPTO DEL CUANTO DE ENERGÍA: Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía. Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias. Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas.

Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Todo comenzó con una investigación en un campo más bien marginal. El Instituto alemán de pesas y medidas deseaba crear un patrón de referencia para las nuevas lámparas eléctricas, y pidió al físico Wilhelm Wien (1864-1928) que estableciera una relación entre la temperatura de un horno (un «cuerpo negro») y la radiación que emitía.

De la misma manera que un pedazo de hierro al calentarse pasa del «rojo» al «blanco» antes de emitir radiación ultravioleta si su temperatura aumenta, Wien observó experimentalmente que el máximo de radiación emitida por el cuerpo negro se desplazaba también hacia el violeta.

Y cuando el profesor Max Planck, de la universidad de Berlín, trató de elaborar una teoría explicativa de la curva de Wien, se encontró con la desagradable sorpresa de que la única forma de hacerlo era imaginar que el horno no emitía esa radiación de manera continua, sino en cantidades discretas, esto es, en cuantos de energía. Planck avanzó esta hipótesis con reticencia, precisando que se trataba sólo de un artificio de cálculo. Fue Einstein quien, cinco años después, demostró la realidad física de los cuantos.

MAX PLANCKEXPLICACIÓN: Para fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos. Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien. La Física clásica había llegado a un límite que no podría superar.

Un científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.

Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los

EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potencia
emitida y µ  es la longitud de onda

cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así. Esta fórmula se resistía a ser deducida de los principios clásicos. Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba. Era el siguiente:

Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).

(Nota: la letra v es griega y se la pronuncia nu)

El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.

Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.

En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.

Según la teoría clásica de las ondas electromagnéticas, éstas transportan energía en forma continua y no en paquetes discretos o cuantos. Vemos que la luz de una vela llena una habitación con un flujo constante de energía. Sin embargo, la cuantización implicaría una emisión espasmódica de la luz, como si la vela parpadeara, encendiéndose y apagándose intermitentemente (que es en realidad lo que ocurre en el nivel microscópico!). El mismo Planck no podía creer que esto fuera así. Pasarían algunos años hasta que el cuanto de energía fuera aceptado como una realidad.

Calculemos el valor del cuanto de energía para una onda electromagnética de la región visible de frecuencia 5. 1O14 Hz (amarillo):

E = h . v 6,63. 1O34 J. s . 5. 1014 Hz = 3,3. 1019 J.

Este valor de energía es diminuto. La energía que libera una pequeña luciérnaga, por ejemplo, contiene miles de millones de cuantos. Esto hace que la cuantización de la energía de las ondas electromagnéticas no tenga efectos macroscópicos, pero sí tiene peso cuando se estudian fenómenos a escala atómica.

HACIA LA MECÁNICA CUÁNTICA
Estas ideas de Planck y Bohr se van a difundir, a ampliar y después a revolucionar con la llegada de una nueva Mecánica, la Mecánica Cuántica, que deriva directamente de ellas. Gracias a esta revolución conceptual se va a tener que renunciar a cualquier descripción determinista de la realidad para acogerse a una descripción en términos de probabilidad.

Así es como se llegó a la conclusión de que no se puede conocer al mismo tiempo la posición y la velocidad de una partícula. Se va a demostrar también que cualquier medida perturba el fenómeno que quiere estudiar. Es el famoso principio de incertidumbre de Heisenberg.

En resumidas cuentas, con la Mecánica cuántica se entra en un nuevo mundo palpitante, misterioso y extraño que se ha explorado sobre bases matemáticas sólidas entre los años 1925-1930, bajo el impulso de sabios cuyos nombres son ya legendarios, como el austríaco Erwin Schródinger, el alemán Werner Heisenberg, el suizoalemán Wolfgang Pauli, el inglés de Cambridge Paul Dirac, todo bajo el impulso constante de Niels Bohr, y a pesar del escepticismo de Albert Einstein. Pero ésa es otra historia, casi una epopeya.

Einstein había visto antes que nadie todas las implicaciones de la Mecánica cuántica. Pero por razones filosóficas, y casi teológicas, no podía aceptarla. Es el famoso ¡«Dios no juega a los dados»!

Sobre lo que nosotros queremos insistir aquí es que muchos fenómenos pueden quedar sencillamente explicados —o al menos claramente expuestos— partiendo del átomo de Bohr ligeramente modificado. No cabe duda de que se trata de una primera aproximación, que no corresponde a la realidad tal como la concebimos hoy en día, pero tiene la ventaja de evitar el despliegue matemático y la complejidad intelectual inherentes a la Mecánica cuántica (que, si se quiere captar su espíritu, necesita larguísimos cálculos, ya que el mundo de lo infinitamente pequeño obedece a reglas específicas muy diferentes de las que gobiernan nuestra experiencia cotidiana).

LOS NIVELES DE ENERGÍA
En cada átomo, en cada molécula, existen niveles de energía en los que pueden «situarse» los electrones. Esos niveles se corresponden con los cuanta y por lo tanto están, como hemos dicho, separados por intervalos vacíos, lo mismo que los peldaños de una escalera. Los electrones no pueden hallarse más que en esos niveles, lo mismo que nuestros pies no se pueden colocar más que en los peldaños de la escalera.

Naturalmente, esto es la representación del átomo bajo el punto de vista de la energía. Bajo el punto de vista del espacio, el electrón se mueve sin cesar, gira en torno al núcleo, pero en una órbita impuesta por los niveles de energía autorizados.

Esos niveles de energía no pueden «contener» más que un número finito de electrones. Por ejemplo, el primer nivel de energía de un átomo, el primer peldaño, no puede llevar más que dos electrones, el segundo es un peldaño doble que, en total, no puede contener más que 8 electrones (2 + 6), etcétera.

¿Cómo puede situarse un electrón en esta escalera?
Se llenan los peldaños comenzando por abajo, según el principio de energía mínima, pasando poco a poco de uno a otro. Así es como, en cada átomo estable, hay niveles de energía llenos. El último nivel lo está más o menos completamente.

Pero por encima del último nivel lleno hay otros niveles (otros peldaños de la escalera) totalmente vacíos. A estos niveles se les llama niveles «excitados».

¿Puede un electrón abandonar un nivel de energía que ocupa normalmente (y que se llama el nivel estable) para pasar a un nivel de energía excitado? Pues sí, pero para eso hay que proporcionarle la energía suficiente para que logre saltar de un nivel a otro. Pero cuidado, es menester que la energía que se le comunica sea exactamente la que corresponde a la diferencia de energía que existe entre los dos peldaños, lo que se llama el «cuantum» justo de energía.

¿Y esos electrones excitados situados en órbitas libres van a permanecer allí?
Respuesta: sí, pero no por mucho tiempo. Los niveles de excitación no son los niveles de equilibrio para los electrones. Así pues, éstos van a tener tendencia a caer los niveles de energía habituales (hogar, dulce hogar) y, por lo tanto, a volver a ellos.

Cuando lo hacen, la energía tiene que conservarse. La caída de un electrón de un nivel elevado hacia uno más bajo va a ir acompañada de una liberación de energía, por ejemplo mediante la emisión de una luz cuya longitud de onda (el color) será exactamente igual a la de la luz que ha excitado el átomo.

Fuente Consultada: Un Poco de Ciencia Para Todos Claude Allégre

Radiacion Cuerpo Negro, Explicación del Fenómeno Físico Simple y Sencillo

La Radiación Cuerpo Negro
Explicación Sencilla del Fenómeno

RADIACIÓN DE UN CUERPO NEGRO: A medida que se iba develando la compleja estructura del átomo, los investigadores veían que estaba más cerca

Sin embargo, al intentar explicar la radiación térmica emitida por un cuerpo caliente, los físicos se encontraron con un problema que se resistía a encuadrarse dentro de los conocimientos de la Física clásica (la Mecánica de Newton y el electromagnetismo de Maxwell). Fue el comienzo del fin de una forma de ver el mundo.


Espectro de una lámpara incandescente del Helio

En las cercanías de un objeto muy caliente, como una estufa o un leño encendido nuestra piel percibe el calor que nos llega en forma de ondas infrarrojas. Pero no sólo los cuerpos muy calientes emiten ondas electromagnéticas: en realidad, todo cuerpo cuya temperatura sea superior al cero absoluto lo hace.

Para las temperaturas que percibimos cotidianamente, la mayor parte de la energía se emite en el rango infrarrojo y un poco en el visible. En general, un cuerpo sólido emite todo un espectro de ondas

Tengamos en cuenta que lo que se quiere investigar es la radiación que emite un cuerpo y no la que refleja al ser iluminado.

El espectro de dos cuerpos cualesquiera, a la misma temperatura, difiere dependiendo del material y de la forma que tengan. Para estudiar el problema de la radiación se eligió un cuerpo patrón ideal, que emitía y absorbía energía con eficiencia máxima, llamado cuerpo negro.

Consistía en una cavidad con un pequeño orificio por donde salía la radiación a analizar, cuando las paredes se calentaban hasta una temperatura determinada. Independientemente del material con que estén fabricados, los espectros de los cuerpos negros a la misma temperatura son idénticos.

Experimentalmente se habían hallado los espectros de emisión de cuerpos negros a diversas temperaturas. Y se observaron dos características importantes:

E aumenta proporcionalmente con  T4

1. A medida que la temperatura aumenta, la cantidad de energía emitida es mayor. En particular, la energía aumenta proporcionalmente a la cuarta potencia de la temperatura absoluta (ley de Stefan-Boltzmann):

2. Un cuerpo emite mayor cantidad de energía en una longitud de onda determinada. A medida que la temperatura aumenta esta longitud de onda se hace más pequeña, cumpliéndose la ley de Wien:

µmáxima T = constante

Ley de Wein: Energía radiante por un objeto caliente a distintas longitudes de onda

Teoría Cinética de los Gases Ideales Modelo Molecular Resúmen

Teoría Cinética de los Gases Ideales
Modelo Molecular

El comportamiento análogo de todos los gases sugiere que su estructura debe ser la misma.

Como que los gases son muy compresibles, sus moléculas deben estar muy separadas y como que los gases tienden a expandirse hasta ocupar el máximo volumen posible, sus moléculas deben hallarse en un movimiento incesante.

DESCRIPCIÓN BÁSICA: La teoría cinética de los gases supone que éstos están constituidos por diminutas partículas (moléculas) en constante movimiento.

A igualdad de condiciones, la velocidad promedio con que se mueven las moléculas varía de gas a gas, siendo la regla que cuanto mayor sean las partículas, tanto menor será su velocidad, pero para un gas determinado, la velocidad promedio con que se mueven sus moléculas depende de su temperatura.

Si el gas es calentado, sus moléculas reciben energía para acelerar su movimiento.

La temperatura no es sino una medida de la energía promedio de las moléculas. Además, estas moléculas son consideradas perfectamente elásticas.

Como están en continuo movimiento, chocan continuamente entre sí y rebotan. Ahora bien, si dejamos caer al suelo una pelota de goma, rebotará más de una vez, pero con cada rebote se elevará menos del suelo.

En otras palabras, la pelota pierde energía cada vez que da un bote, Pero las moléculas no pierden ninguna energía cuando chocan entre sí y rebotan.

El movimiento molecular explica el comportamiento de los gases en relación al aumento de temperatura y cambios de presión.

A una cierta temperatura y presión el mismo número de moléculas de cualquier gas ocupa el mismo volumen. Pero si aumenta la temperatura del gas sus moléculas habrán adquirido la energía necesaria para moverse más rápido.

Chocan más rápido y rebotan más lejos, en otras palabras, ocupan más espacio, pero si no se les permite ocupar mayor espacio, es decir, si el recipiente es rígido, la presión del gas aumentará.

Esto es comprensible, porque la presión del gas sobre las paredes es simplemente la fuerza ejercida por las moléculas que chocan contra ellas.

Si las moléculas aceleran, golpearán las paredes del recipiente con mayor fuerza.

EXPLICACIÓN FÍSICA CONCEPTUAL

Uno de los fenómenos referentes al comportamiento de los gases que indica el camino más acertado para investigar su naturaleza es el movimiento browniano, observado en 1827 por el escocés Robert Brown y que consiste en una agitación desordenada, en zigzag, ejecutada por las partículas que se hallan en suspensión en los líquidos o en los gases.

Cuanto menor es la partícula observada, más claramente se pone de manifiesto su estado de movimiento desordenado permanente y cuanto mayor es la temperatura tanto mayor es la violencia de dicho movimiento.

El movimiento browniano sugiere un estado de continua agitación de las moléculas que constituyen los cuerpos materiales.

Todo parece indicar que la materia está formada por partículas muy pequeñas en movimiento incesante.

Esta teoría de las moléculas en constante agitación se denomina teoría cinética de la materia y sus dos postulados fundamentales son:

a) Las moléculas están en constante movimiento.
b) El calor es una manifestación del movimiento de las moléculas.

APLICANDO ESTOS POSTULADOS A LOS GASES: Cuando Boyle descubrió en 1661 su sencilla ley experimental sobre el comportamiento de los gases, trató de idear un modelo que interpretara coherentemente la naturaleza del gas.

Ése fue el comienzo de la teoría cinética, desarrollada por Daniel Bernoulli, James Joule, Rudolph Clausius, Ludwig Boltzmann y Albert Einstein, entre otros científicos. Esta teoría se propone dar una explicación microscópica de las leyes macroscópicas experimentales.

Las hipótesis de las que parte son simples:

1) Un gas consiste en un conglomerado de partículas (átomos o moléculas) que responden a las leyes de la Mecánica newtoniana. En un gas perfecto pueden despreciarse las fuerzas atractivas entre las moléculas. Así pues, las moléculas pueden considerarse independientes unas de otras.

2) La enorme cantidad de partículas se mueven caóticamente y están tan separadas entre sí que su propio volumen es despreciable frente al que ocupa todo el gas.

3) No existen fuerzas apreciables sobre las partículas salvo las que operan durante los choques elásticos entre sí y contra las paredes.

4) En un conjunto de moléculas dado, en un instante determinado, las moléculas poseen distintas velocidades y, por tanto, sus energías cinéticas también son distintas. Se admite, sin embargo, que la energía cinética media de todas las moléculas es directamente proporcional a la temperatura absoluta del gas.

RESPECTO A LAS MAGNITUDES FÍSICA ES:

• La presión de un gas: lo que llamamos la presión de un gas no es más que el resultado de todo el conjunto de choques que las moléculas efectúan sobre las paredes de un recipiente.

•  La temperatura, es según lo dijo Boltzmann: «La temperatura es la medida de la agitación de los átomos». A alta temperatura los átomos se hallan muy agitados y a baja temperatura están más calmados.

EXPLICACIÓN DE LA TEORÍA: Es razonable que, dado que las partículas están tan separadas, las fuerzas intermoleculares sean solamente las de los choques. Como los choques son elásticos, entonces se conserva la cantidad de movimiento y también la energía cinética.

Entre choque y choque, las moléculas viajan con movimiento rectilíneo y uniforme, de acuerdo con las leyes de Newton.

Las colisiones son de muy corta duración. Es decir que la energía cinética se conserva constante, ya que el breve tiempo en que ésta se transforma en energía potencial (durante el choque) se puede despreciar.

A partir de estos supuestos, la teoría explica el comportamiento conocido de los gases y hace predicciones que luego son constatadas experimentalmente, lo que le confiere validez científica.

Para describir el comportamiento del gas no es imprescindible la historia individual de cada partícula, sino que se recurre a la estadística para interpretar las variables macroscópicas como cierto promedio de propiedades microscópicas.

Por ejemplo, la presión se interpreta microscópicamente como el efecto resultante de millones de partículas chocando azarosamente y ejerciendo pequeñas fuerzas irregulares contra las paredes del recipiente.

¿Por qué la fuerza que un gas encerrado ejerce sobre la pared del recipiente es perpendicular a su superficie?.

 Como todas las posiciones y velocidades son igualmente probables, el bombardeo sobre la pared proviene de todas las direcciones y sentidos.

Las fuerzas ejercidas en dirección paralela a la pared en uno y otro sentido tienden en promedio a anularse. Pero las fuerzas ejercidas en dirección perpendicular, por el contrario, se sumarán, ya que ninguna partícula colisiona desde el lado exterior de la pared.

La temperatura se interpreta como una medida de la energía cinética media por molécula. Al calentar un gas, aumentamos la agitación molecular, elevando la velocidad media de las partículas.

Si disminuye la temperatura del gas, se puede licuar. Es coherente que la energía cinética media de una partícula líquida sea menor que la correspondiente a una partícula gaseosa.

En 1827, el botánico inglés Robert Brown (1773-1858) constató, por primera vez, que partículas pequeñas de materia inerte, suspendidas en un líquido y observadas con un microscopio presentan una agitación azarosa y permanente dependiente de la temperatura.

La explicación de este fenómeno se logró ochenta años después.

El descubrimiento del movimiento browniano permitió un desarrollo posterior más profundo de la teoría cinética.

El movimiento de los gránulos observados a través del microscopio se interpretó como la ampliación del movimiento de las pequeñísimas moléculas invisibles a la lente.

Basándose en un estudio cuantitativo del movimiento browniano, la teoría cinética permite calcular, entre otros múltiples resultados, el número de moléculas contenidas en un volumen dado, a cierta temperatura y presión, para todos y cualquier gas.

DEMOSTRACIÓN DE LA ECUACIÓN DE ESTADO A PARTIR DE LA TEORÍA CINÉTICA DE LOS GASES:

La ecuación de estado de los gases, PV = nRT, puede deducirse de la teoría cinética estudiando el aumento de presión que se produce en un gas a consecuencia de los impactos de las moléculas.

En efecto, consideremos un gas encerrado en una caja. Su presión es proporcional al número de choques moleculares por segundo sobre cada cm2 de la pared de la caja y proporcional también al impulso mecánico o variación de la cantidad de movimiento de cada impacto.

La presión total será, pues, igual al producto del número de impactos por el impulso mecánico.

El movimiento de cualquier molécula puede ser descompuesto en tres componentes dirigidas según cada una de las tres aristas de la caja, de donde se deduce que el efecto sobre cada una de las paredes es el mismo que si cada tercera parte de las moléculas se moviese perpendicularmente a cada par de caras opuestas.

Así, N/3 moléculas chocarán con una cara determinada de la caja cúbica, siendo N el número total de moléculas contenidas en la caja.

Entre cada dos impactos sucesivos la molécula deberá recorrer en los sentidos de ida y vuelta la longitud de la arista de la caja cúbica, l.

Es decir, la distancia entre dos impactos consecutivos recorrida por la molécula es 2.l. Como que la velocidad media de las moléculas es V cm/s, el tiempo transcurrido en segundos entre dos choques consecutivos será t = 2.l/V y, por tanto, el número de choques por segundo con la pared del recipiente será V/2.l.

Así pues, podemos concluir que el número de impactos que se producirán sobre una cara de la caja por segundo será de:

 Pero como el área de la cara es l2, el número de impactos por cm2 y por segundo que se producirán será :



Ahora bien, como el volumen V de la caja es l3, tendremos que el número total de impactos por cm2 y por segundo será:


Para obtener el impulso total de cada impacto hay que tener en cuenta que el impulso mecánico es igual a la variación de la cantidad de movimientos.

En toda colisión en la que una molécula de masa m y velocidad v rebote de la pared con igual velocidad absoluta pero en sentido contrario, la cantidad de movimiento variará de un valor inicial mv a un valor final – mv.

Es decir, la variación de la cantidad de movimiento es de 2mv.

Pero tal como se indicó anteriormente, Presión=Fuerza/Área= N° de Impactos/Área . s

Impulso de cada impacto:


Ahora bien, la energía cinética media de las moléculas y la temperatura absoluta del sistema están relacionadas por la expresión:

Donde k=1,3805 . 1016 erg./K. molécula es la constante de Boltzmann. Sustituyendo el valor de:

En la ecuación precedente se obtiene:

Pero como el número N de moléculas es igual a: 6,023 . 1023  . n , siendo n el número de moles , resulta

que es la ecuación de estado de los gases ideales,

Puede comprobarse sin dificultad que la constante universal de los gases, R, es el producto de la constante k de Boltzmann por el número de Avogadro. Es decir, R = 6,023 • 1023- k.

RESÚMEN DE LOS POSTULADOS DE LA TEORÍA CINÉTICA DE LOS GASES:

UN POCO DE HISTORIA…

Demócrito había dicho que los átomos se hallan en continuo movimiento, agitados de manera desordenada en todos los sentidos.

Unas veces, decía, colisionan unos con otros y se pegan como dos bólidos que se dan de frente y se meten uno en otro; otras veces el encuentro termina en una unión que da origen a «sustancias» líquidas o sólidas.

Hacia finales del siglo XIX se descubrió lo esencial de las leyes sobre el comportamiento de los gases, la manera en que se combinan, se mezclan, qué presión ejercen sobre las paredes del recipiente donde se contienen, etc.

Así pues, es natural que en esta época se haya tratado de conocer todas estas propiedades partiendo de la idea de los átomos y de las moléculas que por aquel entonces salía a la luz, es decir, de profundizar en las ideas de Demócrito, pero de una manera un poco más precisa y un poco más cuantitativa.

Si la materia, en este caso el gas, está formada por miles de millones de partículas o de átomos, ¿cómo se pueden explicar, partiendo de sus supuestas propiedades las observaciones de los químicos?.

Dicho de otro modo, ¿cómo a partir de la descripción microscópica de la materia, de las estructuras elementales de las moléculas, se puede construir una teoría que permita explicar propiedades macroscópicas, que son las propiedades con las que trabajan los químicos, desde Gay-Lussac hasta Avogadro pasando por Dalton, hasta llegar a los químicos actuales?. ¿Cómo se puede pasar de las fórmulas químicas al campo del químico que sintetiza nuevos productos? Era menester volver a las fuentes.

Daniel Bernouilli, un genovés miembro de una prestigiosa dinastía científica, abrió el camino a finales del siglo XVIII.

Especialista de esa nueva rama de las Matemáticas llamada cálculo de las probabilidades, Bernouilli comprendió muy pronto que, para estudiar una población de átomos en número muy elevado, la mejor manera de lograrlo era hacer un modelo de su comportamiento de manera estadística y definir de ese modo el comportamiento de un átomo medio.

Pero si es cierto que se le deben a él las primeras ideas en la materia, también es cierto que su trabajo no llegó a un resultado definitivo.

Hacia finales del siglo XIX es cuando se desarrollará realmente la Física estadística, en medio de debates tumultuosos y bastante violentos desde el punto de vista intelectual. Y ello es así porque esta Física estadística topaba de lleno con dos prejuicios sólidamente enraizados en los espíritus.

Agarrándose al primero, algunos, como ya hemos dicho, se oponían a la idea de átomos y de moléculas so pretexto de que nadie los había visto. Y otros, apoyados en el segundo, rechazaban la utilización del cálculo de probabilidades.

¿Cómo la naturaleza, decían, cuyas leyes son perfectamente claras y están perfectamente determinadas, podría obedecer al cálculo de probabilidades, al azar, «esa máscara de nuestra ignorancia», como diría más tarde con humor Emile Borel, gran probabilista francés?

Tres hombres, tan distintos como excepcionales, son los que van a construir esta Física estadística.

James Clark Maxwell

Ludwig Boltzmann

Josiah Willard Gibbs

James Clark Maxwell, el autor de la grandiosa teoría de la unificación electromagnética, el gentleman escocés de Cambridge, una de las leyendas de la Física.

El es quien dará la señal de partida calculando la distribución de las velocidades de las partículas de un gas. Maxwell será un gran matemático, pero un atomista desapasionado. Desgraciadamente morirá en plena batalla en 1918.

Ludwig Boltzmann es un austríaco más joven que Maxwell, a quien admira y venera.

Es un hombre caprichoso, matemático brillante, intelectual-mente ambicioso, con imaginación y con técnica a la vez, pero también es exageradamente impresionable, con frecuencia indeciso (por tres veces aceptará y rechazará después el puesto de profesor en Berlín, donde enseña el gran físico alemán Helmholtz, todo ello en el plazo de dos años), directo —según algunos, demasiado directo— en sus relaciones sociales. Sin embargo, él será quien pondrá los cimientos.

Josiah Willard Gibbs. Este es un norteamericano. Fue profesor en la Universidad de Yale. Aunque era reservado y solitario —se cuenta de él que un día, hablando con un colega, se enteró de que los profesores de Yale estaban remunerados, ¡cosa que él ignoraba!— será él quien instalará la Física estadística y hará la síntesis con la Termodinámica.

Es una verdadera pena que Gibbs y Boltzmann no se encontraran jamás, que por dos veces fallara su encuentro. Porque parece ser que Gibbs fue uno de los pocos contemporáneos que entendía los artículos de Boltzmann, lo que suponía en él una gran experiencia matemática, además de una lucidez introspectiva considerable, dado lo abigarrados y difíciles que eran los artículos de Boltzmann.

Fuente Consultada:
Un Poco de Ciencia Para Todo el Mundo Claude Allégre
Elementos de Física y Qumica Maiztegui-Sabato
Guía de Apoyo Para El Estudiante Tomo: Física.

Ver: Dilatación de los Gases

Biografia de John Nash Matematico Premio Nobel Teoría de Juegos

Biografia de John Nash Matemático Premio Nobel

John Forbes Nash: Matemático, Premio NobelLa verdadera vida de John Forbes Nash, Jr.: John Forbes Nash (Virginia Occidental, 13 de junio de 1928 – Monroe, Nueva Jersey, 23 de mayo de 2015)​ fue un matemático estadounidense, especialista en teoría de juegos,​ geometría diferencial​ y ecuaciones en derivadas parciales,​ que recibió el Premio Nobel de Economía en 19945​ por sus aportes a la teoría de juegos y los procesos de negociación, junto a Reinhard Selten y John Harsanyi,6​ y el Premio Abel en 2015.

 «Una mente maravillosa», «A beautiful Mind» es un magnífico producto de Hollywood inspirado en la vida de John Nash pero que no pretende ser su biografía. En realidad son muy pocos los hechos o situaciones de la vida real de Nash que son contados en la película.

El padre se llamaba también John Forbes Nash por lo que distinguiremos al padre del hijo al estilo americano, añadiéndoles el calificativo «Senior» o «Junior» (Jr.).

Nash Senior nació en Texas en 1892 y estudió ingeniería eléctrica. Después de luchar en Francia en la primera guerra mundial, fue durante un año profesor de ingeniería eléctrica en la Universidad de Texas tras lo que se incorporó a la empresa Appalachian Power Company en Bluefield, West Virginia.

La madre de Nash Jr., Margaret Virginia Martin, estudió idiomas en las universidades Martha Washington College y West Virginia University.

Fue profesora durante diez años antes de casarse con Nash Senior, el 6 de septiembre de 1924.

Johnny Nash, así le llamaba su familia, nació en Bluefield Sanatorium el 13 de junio de 1928 y fue bautizado en la iglesia Episcopaliana. Sus biógrafos dicen que fue un niño solitario e introvertido aunque estaba rodeado de una familia cariñosa y atenta.

Parece que le gustaban mucho los libros y muy poco jugar con otros niños. Su madre le estimuló en los estudios enseñándole directamente y  llevándole a buenos colegios.

Sin embargo, no destacó por su brillantez en el colegio. Por el contrario, debido a su torpeza en las relaciones sociales, era considerado como un poco atrasado. Sin embargo, a los doce años dedicaba mucho tiempo en su casa a hacer experimentos científicos en su habitación.

Su hermana Martha, dos años más joven que él, era una chica muy normal. Dice de su hermano:

«Johnny era siempre diferente. Mis padres sabían que era diferente y también sabían que era brillante. Él siempre quería hacer las cosas a su manera. Mamá insistía en que yo le ayudase, que lo introdujera entre mis amistades… pero a mí no me entusiasmaba lucir a un hermano tan raro».

A los catorce años Nash empezó a mostrar interés por las matemáticas. Parece ser que influyó la lectura del libro de Eric Temple Bell,  «Men of Mathematics» (1937). Entró en el Bluefield College en 1941. Comenzó a mostrarse hábil en matemáticas, pero su interés principal era la química. Se suponía que iba a seguir la misma carrera de su padre,  ingeniería eléctrica, pero continuaba con sus experimentos químicos. Parece ser que tuvo alguna relación con la fabricación de unos explosivos que produjeron la muerte a uno de sus compañeros de colegio.

Nash ganó una beca en el concurso George Westinghouse y entró en junio de 1945 en el Carnegie Institute of Technology (hoy llamado Carnegie-Mellon University) para estudiar ingeniería química. Sin embargo empezó a destacar en matemáticas cuyo departamento estaba dirigido entonces por John Synge, que reconoció el especial talento de Nash y le convenció para que se especializara en matemáticas.

Se licenció en matemáticas en 1948. Lo aceptaron para estudios de postgrado en las universidades de Harvard, Princeton, Chicago y Michigan. Nash consideraba que la mejor era Harvard, pero Princeton le ofreció una beca mejor por lo que decidió estudiar allí, donde entró en septiembre de 1948.

En 1949, mientras se preparaba para el doctorado, escribió el artículo por el que sería premiado cinco décadas después con el Premio Nobel. En 1950 obtiene el grado de doctor con una tesis llamada «Juegos No-Cooperativos«. Obsérvese que el libro inicial de la teoría de juegos, «Theory of Games and Economic Behavior» de von Neumann y Oskar Morgenstern,  había sido publicado muy poco antes, en 1944.

En 1950 empieza a trabajar para la RAND Corporation, una institución que canalizaba fondos del gobierno de los Estados Unidos para estudios científicos relacionados con la guerra fría y en la que se estaba intentando aplicar los recientes avances en la teoría de juegos para el análisis de estrategias diplomáticas y militares. Simultáneamente seguía trabajando en Princeton.

En 1952 entró como profesor en el Massachusetts Institute of Technology. Parece que sus clases eran muy poco ortodoxas y no fue un profesor popular entre los alumnos, que también se quejaban de sus métodos de examen.

En este tiempo empezó a tener problemas personales graves que añadidos a las dificultades que seguía experimentando en sus relaciones sociales. Conoció a Eleanor Stier con la que tuvo un hijo, John David Stier, nacido el 19 de junio de 1953. A pesar de que ella trató de convencerlo, Nash no quiso casarse con ella. Sus padres solo se enteraron de este asunto en 1956. Nash Senior murió poco después de enterarse del escándalo y parece que John Nash, Jr. se sintió culpable de ello.

En el verano de 1954, John Nash fue arrestado en una redada de  la policía para cazar homosexuales. Como consecuencia de ello fue expulsado de la RAND Corporation.

Una de las alumnas de Nash en el MIT, Alicia Larde, entabló una fuerte amistad con él. Había nacido en El Salvador, pero su familia había emigrado a USA cuando ella era pequeña y habían obtenido la nacionalidad hacía tiempo. El padre de Alicia era médico en un hopital federal en Maryland. En el verano de 1955 John Nash y Alicia salían juntos. En febrero de 1957 se casaron.

En el otoño de 1958 Alicia quedó embarazada, pero antes de que naciera su hijo, la grave enfermedad de Nash ya era muy manifiesta y había sido detectada. Alicia se divorció de él más adelante, pero siempre le ayudó mucho. En el discurso de aceptación del Nobel, en 1994, John Nash tuvo palabras de agradecimiento para ella.

En 1959, tras estar internado durante 50 días en el McLean Hospital, viaja a Europa donde intentó conseguir el estatus de refugiado político. Creía que era perseguido por criptocomunistas. En los años siguientes estaría hospitalizado en varias ocasiones por períodos de cinco a ocho meses en centros psiquiátricos de New Jersey. Unos años después, Nash escribió un artículo para una revista de psiquiatría en el que describió sus pensamientos de aquella época:

«.. el personal de mi universidad, el Massachusetts Institute of Technology, y más tarde todo Boston, se comportaba conmigo de una forma muy extraña.  (…) Empecé a ver criptocomunistas por todas partes (…) Empecé a pensar que yo era una persona de gran importancia religiosa y a oir voces continuamente. Empecé a oir algo así como llamadas telefónicas que sonaban en mi cerebro, de gente opuesta a mis ideas.  (…) El delirio era como un sueño del que parecía que no me despertaba.»

A finales de los sesenta tuvo una nueva recaída, de la que finalmente comenzó a recuperarse. En su discurso de aceptación del Premio Nobel describe su recuperación así:

«Pasó más tiempo. Después, gradualmente, comencé a rechazar intelectualmente algunas de las delirantes líneas de pensamiento que habían sido características de mi orientación. Esto comenzó, de forma más clara, con el rechazo del pensamiento orientado políticamente como una pérdida inútil de esfuerzo intelectual».

En la actualidad sigue trabajando en el Departamento de Matemáticas de la Universidad de Princeton.

Su página web oficial es: http://www.math.princeton.edu/jfnj/

Su dirección electrónica: [email protected]  (hasta el 05-10-2002)

Biografia de Max Planck Científico Creador de la Teoría Cuántica

Biografía de Max Planck
Científico Creador de la Teoría Cuántica

Max Planck (1858-1947) es el autor de la célebre teoría de los quanta o quantos. Planck admitió que la energía está formada por corpúsculos, llamados quanta, del mismo modo que la materia está formada de átomos.

La energía W contenida en cada átomo quantum es, por otra parte, proporcional a su frecuencia N, de donde estableció la fórmula w = h.N, donde h designa la constante de Planck.

La obra de Planck es tan fundamental para el porvenir de la física moderna como, si se nos permite la comparación, lo fue la de Newton.

La personalidad de Max Planck domina además la totalidad de la ciencia moderna. Su larga vida se extiende desde mitades del XIX hasta mediados de nuestro siglo.

Físico y pensador, interesado por múltiples problemas, según Einstein era «un hombre a quien le fue dado dar al mundo una gran idea creadora» que, completando el juicio de dicho autor contenido en Concepciones científicas, morales y sociales, «devino básica en toda la búsqueda de la física del siglo XIX».

Max Planck Cientifico Teoria Cuantica

PLANCK, MAX (1858-1947)
Físico alemán, realizó estudios en las universidades de Berlín y Munich.

Obtuvo el doctorado con una tesis sobre el principio de la termodinámica, en 1879. A partir de 1885, fue profesor en Kiel y de 1889, en Berlín.

Se dedicó al estudio de la física teórica y, en particular, ab problema de la termodinámica.

https://historiaybiografias.com/linea_divisoria1.jpg

BREVE FICHA BIOGRAFICA DEL FISICO:

•  Nació el 23 de abril de 1858, en Kiel (Alemania).

• A los nueve años se trasladó junto con su familia a Munich (Alemania), donde recibió educación primaria.

• A los diecisiete años inició los estudios de Física en la Universidad de Munich.

• En 1879, luego de especializarse durante un año en Berlín (Alemania), retornó a Munich y se doctoró en Física y Matemática.

• En 1885 fue nombrado profesor de Física en la Universidad de Kiel.

• Desde 1899 hasta 1928 ocupó el mismo cargo en la Universidad de Berlín.

• En 1900 expuso en la Sociedad Física de Berlín la teoría que le dio fama universal y formula que la energía se radia en unidades pequeñas y separadas, denominadas cuantos. Más tarde, avanzó aun más en el estudio de los cuantos.

Premios y honores

• Entre 1912 y 1938 fue secretario de las secciones de Física y Matemática de la Academia Prusiana de Ciencias.

• En 1918 recibió el premio Nobel de Física por sus trabajos.

• En 1930 se convirtió en presidente de la Sociedad Kaiser Guillermo para el Progreso de la Ciencia, la principal asociación de científicos alemanes de Berlín. En su honor, después de la Segunda Guerra Mundial, dicho centro cambió su nombre por el de Instituto Max Planck.

• Murió el 4 de octubre de 1947, en Gotinga (Alemania).

Antes de que Max Planck descubriera que el átomo absorbía y desprendía energía en pequeñas partículas o cuantos, se creía que aquel radiaba energía de forma continua y uniforme.

Los descubrimientos del físico alemán permitieron el nacimiento de un campo nuevo de la física, conocido como mecánica cuántica, y proporcionaron los cimientos para la investigación en otros de la energía atómica.

https://historiaybiografias.com/linea_divisoria1.jpg

BIOGRAFÍA DE Max Planck (1858-1947)

Max Planck nació en Kiel, la ciudad alemana con puerto en el mar Báltico, el 23 de abril de 1858. Fue el sexto hijo de una familia acomodada, de la alta burguesía de entonces, en la que abundaban los clérigos y juristas.

El padre de Planck, Wilhelm, había sido profesor de derecho en la universidad de Munich y por estas fechas ocupaba la misma plaza en la de Kiel.

Tuvo, pues, todas las ventajas que proporciona una cuna sin preocupaciones económicas y por añadidura cultivada.

Desde los estudios primarios Max Planck sintió una decidida inclinación por la música, inclinación que en principio compartió con la filología.

Este hecho es muy curioso, a tan corta edad, y evidentemente demuestra que estaba sumido en un ambiente intelectual. Como veremos, esta temprana inclinación pronto quedó suplantada por el decidido propósito de estudiar física. Pero la música constituyó una de sus pasiones.

Es más, durante la época de estudiante llegó a ser director de una orquesta juvenil, de unos coros, que alternaba con conciertos de piano; sus biógrafos —Max von Laue, Hart, Hartmann, George, entre otros— señalan que sentía una pasión por los románticos alemanes, especialmente por Schubert, Schumann y Brahms.

La carrera universitaria de Max Planck fue rutilante. Es uno de los casos sin duda más prodigiosos de la historia de la Ciencia contemporánea.

Graduado como doctor a los veintiún años, inmediatamente pasó a ser profesor adjunto de la universidad de Munich, digamos de paso donde había efectuado los estudios superiores, y a contiuación de la de Kiel.

El trabajo desplegado por Max Planck fue enorme, tanto en el dominio de la investigación como en el de la docencia.

Pero biográficamente no existen datos de interés, como en la mayoría de estos hombres, cuya vida es la inmensa aventura de un silencio.

En Kiel llevó a cabo las teorías que revolucionarían el campo de las ciencias físicas, y por ellas le fue concedido el Premio Nobel en 1919.

Nada cambió en su vida tras la concesión del Nobel. Siguió viviendo en Kiel hasta que, al producirse la muerte del gran físico Kirchhoff, se trasladó a Berlín para sucederle en su cátedra de física teórica.

Allí permaneció hasta el año 1926, fecha en la que cumplidos sesenta y ocho años decidió solicitar la jubilación universitaria; aunque dicha inactividad la compensó al suceder a Harnack, en 1930, en la dirección del «Institut Kaiser-Wilhelm».

Planck entró a estudiar física en la Universidad de Munich pero no congenió con su profesor, Philipp von Jolly Von Jolly le dijo que no había en física nada nuevo que descubrir. Descontento con la universidad, decidió trasladarse a la Universidad de Berlín, donde enseñaban los célebres físicos Hermann von Helmholtz y Gustav Kirchhoff.

Como Einstein años después, Planck se interesó en temas que no se enseñaban en los cursos; estudió el trabajo de Rudolf Clausius sobre termodinámica en los artículos originales.

Luego de graduarse, Planckescribió una tesis sobre la segunda ley de la termodinámica y la presentó a la Universidad de Munich para obtener el título de doctor.

La tesis fue aprobada y Planck obtuvo su doctorado en física a los 21 años.

Como muchos doctores en física de la época, Planck estaba interesado en una carrera académica.

En esa época en Alemania, si uno quería ser profesor debía comenzar como instructor, o Privatdozent, cargo con responsabilidades docentes pero sin salario.

Los Privatdozent recibían pequeños honorarios de los estudiantes por la administración de exámenes. Pero se necesitaba otro trabajo para sobrevivir.

Planck fue Privatdozent en Munich de 1880 a 1885. En 1885 fue promovido a la categoría de profesor asociado, lo que significaba tener finalmente un salario regular por enseñar.

Con ingresos estables, se casó con su novia de la niñez, Marie Merck.

En 1889 se trasladó a la Universidad de Berlín como profesor de tiempo completo, en reemplazo de Kirchhoff, quien se jubilaba.

Planck fue también un pianista dotado; antes de decidirse por la física, había pensado seriamente en una carrera musical.

Se convirtió en uno de los científicos más importantes de su tiempo, y se hizo acreedor en 1918 al premio Nobel de física por su descubrimiento del cuanto de energía.

Planck y Borh

Las dos figuras centrales de la nueva fisica del siglo XX: Bohr y Planck.Las teorías cuánticas de Planck fueron desarrolladas e incluso modificadas por muchos científicos, pero se constituyeron en la base fundamental de toda la física cuántica actual.

Fue uno de los primeros en entender y aceptar Ja teoría de la relatividad, la que divulgó y desarrolló desde su exposición. Así mismo, trabajó con éxito en los campos de la mecánica y la electricidad.

En 1918, recibió el premio Nobel de física en reconocimiento su labor en la cuantificación de la energía.

OBRA CIENTÍFICA: Cuando el siglo XIX llegaba a su fin, muchos físicos se hacían preguntas sobre la tan honrada mecánica de Newton.

En macular, ¿seguía describiendo toda la naturaleza? En su búsqueda, los científicos empezaron a agruparse en dos campos.

Unos buscaba la respuesta estudiando lo que se llamaba «electrodinámica», la relación entre la mecánica y la electricidad. Los otros buscaban en la termodinámica y sus dos leyes básicas.

La primera ley reconocía que la energía ni se crea ni se destruye, sino que siempre se conservaba, y la segunda ley se basaba en la idea de que el calor no pasaría de un cuerpo más frío a uno más caliente.

El estudio de la termodinámica se basaba en suponer que la materia estaba compuesta de partículas.

Sin embargo, esto suponía un problema, ya que los átomos no habían sido descubiertos.

En su lugar, la visión tradicional era que la  atería era continua, no compuesta de discretos bloques de construcción.

A mediados de los 1870, Ludwig Boltzmann había propuesto una explicación termodinámica en la que la energía contenida en un sistema es el resultado colectivo del movimiento de muchas moléculas diminutas.

Creía que la segunda ley sólo era válida en sentido estadístico, sólo funcionaba si le añadían todos los trocitos de energía a todas as pequeñas partículas.

Boltzmann tenía respaldo, pero había muchos que dudaban.

Entre los detractores estaba Max Karl Ernst Ludwig Planck. 

Estaba fascinado con la segunda ley de la Termodinámica, pero rechazaba la versión estadística de Boltzmann porque dudaba de la hipótesis atómica sobre la que descansaba.

En 1882 afirmó falsamente: «a pesar del gran éxito de la teoría atómica en el pasado, finalmente vamos a tener que renunciar a ella, y decidir en favor de la suposición de que la materia es continua».

Durante los años 1890, Planck empezó a ver que la hipótesis atómica tenía el potencial de unificar distintos fenómenos físicos y químicos, pero su propia investigación estaba dirigida a encontrar una solución no atómica.

En su famosa ley de radiación (1901), asegura que la radiación energética no puede ser emitida en cantidades arbitrarias, sino en ciertos paquetes que él llamó cuantos.

Cada cuanto debe poseer cierta cantidad de energía, que va en aumento mientras la frecuencia oscilatoria de los electrones sea mayor, de modo que para frecuencias muy altas, la emisión de un único cuanto requeriría más energía de la que es posible obtener. De esta forma, la radiación de altas frecuencias se reduce y el ritmo con que el cuerpo pierde energía es, por consiguiente, finito.

En su teoría cuántica, el físico alemán consigue explicar muy bien la emisión de radiación por cuerpos calientes, y además indica de qué manera se distribuye la energía en el espectro de radiación de cuerpos negros.

De los cuerpos negros a los quanta
Planck y sus contemporáneos miraban a las teorías electrodinámicas del físico escocés James Clerk Maxwell para encontrar respuestas, pero fueron un fracaso.

En su lugar, un nuevo entendimiento emergió cuando volvieron su atención hacia la radiación de cuerpos negros.

Un cuerpo negro es un objeto teórico que absorbe toda la radiación que lo golpea.

Dado que no refleja nada, es negro. Mientras que un cuerpo negro no refleja radiación, sigue radiando calor.

De otro modo, seguiría absorbiendo y su temperatura se elevaría indefinidamente.

La cosa más parecida que existe hoy es el avión espía americano Blackbird, que está cubierto con un pigmento absorbente que intenta absorber toda la radiación.

La primera persona en pensar sobre los cuerpos negros había sido el predecesor de Planck como profesor de física en Berlín, Robert Kirchhoff que afirmó que semejante radiación era de una naturaleza fundamental.

Para los 1890, varios físicos estaban investigando la distribución espectral de la radiación.

En 1896, Wilhelm Wien pronunció una ley de radiación que cuadraba con las observaciones experimentales, pero que, según Planck, era teóricamente débil, así que la rechazó.

En 1899, Planck procuró una nueva versión, que incorporaba algunas de las ideas de Boltzmann, a la que a veces se denomina la ley de Wien-Planck. Planck estaba satisfecho.

En ese punto sentía que la ley se ajustaba a los datos experimentales y tenía unas bases teóricas sólidas.

Lamentablemente para Planck, se convirtió en una bella teoría destruida por los crudos hechos. Los experimentos realizados en Berlín mostraron que no funcionaba con la radiación de baja frecuencia.

Después de revisar sus ideas, apareció con un nuevo concepto que incluía un valor para una constante llamada «b» y lo presentó en una reunión en la Sociedad Alemana de Física el 19 de octubre de 1900.

Si embargo, la nueva teoría aún no tenía ninguna noción de partículas o energía cuántica.

A posteriori, podemos ver que la respuesta real estaba justo delante de su cara, pero estaba tan seguro de la continuidad de la materia que no podía verlo. Dos meses después, y como «un acto de despecho», renunció a la física clásica y abrazó la cuántica.

La gota final había sido un concepto desarrollado por John Rayleigh y James Jeans que se conocería como la teoría de la «catástrofe ultravioleta».

En junio de 1900, Rayleigh indicó que la mecánica clásica, cuando se aplica a los osciladores de cuerpos negros, lleva a una distribución de energía que aumenta en proporción al cuadrado de la frecuencia.

Esto entraba en conflicto con todo lo conocido.

La desesperación de Planck lo llevó a introducir lo que llamó «elementos de energía» o quanta.

En su presentación a la Sociedad Alemana de Física el 14 de Diciembre de 1900, Planck dijo que la energía «está hecha de un número completamente determinado de finitas partes iguales, y para ese propósito usó la constante de la naturaleza h = 6.55 x 10-(erg sec)».

Había nacido la teoría cuántica, aunque llevaría dos o tres décadas más y muchas mentes con talento darse cuenta de h implicaciones de la nueva era.

Cronología
1858: Nace en Kiel, Alemania, en una familia académica. Su padre era profesor de derecho constitucional en Kiel, y tanto su abuelo como su bisabuelo fueron profesores de teología en Gottingen

1867: Se muda a Munich, donde va a la escuela

1874: Estudia en Munich con Gustav Kirchhoff. Antes de empezar, discutió el prospecto de investigación física con el profesor de física Philipp von JolLy, quién se supone le dijo que la física era esencialmente una ciencia completa, con pocas posibilidades  de desarrollo. Afortunadamente parece que ignoró los comentarios, antes de mudarse a Berlín para estudiar con Hermann von Helmholtz

1889-1926: Profesor de física, Berlín

1900: Anuncia su Teoría Cuántica

1914-1918: Su hijo mayor muere en la Primera Guerra Mundial

1918: Recibe el Premio Nobel

1926: Elegido miembro Extranjero de la Royal Society

1944: Su hijo menor, Erwin, es ejecutado cuando lo declaran culpable de estar envuelto en un complot para asesinar a Hitler

1947: Muere en Gottingen el 3 de octubre. Después de saber de su muerte, Albert Einstein escribió: «Qué diferente y cuánto mejor sería la humanidad si hubiera más como él… Parece que los personajes buenos de todas las edades y continentes tienen que permanecer aparte del mundo, incapaces de influir en los eventos».

PARA SABER MAS…: Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía. Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias.

Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados  por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas. Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Teóricamente, un sistema que contiene radiaciones de diversas frecuencias distribuye su energía del mismo modo que un sistema que contiene moléculas de gas de muy diversas velocidades. Pero existe una diferencia capital: la velocidad de las moléculas de un gas posee un límite superior irrebasable y, en cambio, la frecuencia de las posibles radiaciones es incomparablemente superior. El sistema de radiaciones se asemejaría al sistema acústico
de un piano con un número ilimitado de cuerdas, cada vez más reducidas. Al pulsar cualquier nota, el piano resonaría con frecuencias cada vez más elevadas, mientras la energía de la nota original se transmitiría por la escala musical hasta el infinito.

Planck trató de explicar por qué este resultado, previsto teóricamente, no se producía en la práctica. Al fin tuvo que adoptar unos supuestos totalmente distintos. En diciembre de 1900 propuso en una conferencia científica que la energía radiante se producía y recibía en lotes discontinuos e indivisibles que denominó cuantos, término procedente del latín (quantum significa «porción»). La energía de estos cuantos es directamente proporcional a la frecuencia de la radiación. Es decir, se obtiene multiplicando dicha frecuencia por una cifra que hoy denominamos «constante de Planck».

Planck había descubierto que la energía no podía dividirse hasta el infinito, como hasta entonces se había supuesto. Existía un «impulso» de energía mínimo, por debajo del cual no se producía intercambio energético alguno. Para una radiación, cuya frecuencia sea la unidad, se obtiene precisamente el valor de ese cuanto mínimo de energía o constante de Planck.

Se representa por la letra h, y su valor en unidades cegesimales es 6,547 x 10-27 ergios por segundo, cifra realmente insignificante pero que, a escala atómica, posee decisiva importancia.

A partir de 1905, Albert Einstein comenzó a desarrollar las ideas de Planck, mientras éste prosiguió durante muchos años realizando importantes contribuciones en los campos de la termodinámica y de la teoría de los cuantos.

Fuente Consultadas:
Einstein Para Dummies Carlos I. Calle
Las Grandes Ideas Que Formaron Nuestro Mundo Peter Moore – Max Planck

La Bomba de Hiroshima Historia del Lanzamiento Bomba Atomica

Historia De La Bomba de Hiroshima
Consecuencias del Lanzamiento Bomba Atómica

El 16 de julio de 1945, una gran bola de fuego se elevó en el cielo sobre el campo de pruebas de Alamogordo, en el desierto de Nuevo México (EE UU), Con la prueba «Trinity» culminaban décadas de estudio de la estructura atómica y la naturaleza de la radiactividad. Con una energía equivalente a 16.000 toneladas de TNT, fue la primera explosión nuclear artificial, anuncio de una tecnología que cambiaría el mundo, para bien o para mal.

La era nuclear pudo haber nacido en Alemania nazi si Hitler hubiera prestado mas atención al trabajo de sus científicos. En diciembre de 1938, en el Instituto de Química Kaiser Guillermo , de Berlín, Otto Hahn y Fritz Strassman , despues de seis años  de experimentos, lograban escindir el átomo de uranio, proceso hasta entonces considerado contrario a la ley natural. Su trabajo implicaba la posibilidad de una reacción en cadena controlada y la liberación de inmensas cantidades de energía.

bomba de hiroshima

Por el mundo científico se extendió rápidamente la noticia de este hallazgo: el gran físico danés Niels Bohr se enteró por dos colegas que habían huído de los nazis. A principios de 1939, Bohr marchó a los Estados Unidos y comunicó sus conocimientos a los científicos americanos. Los más notables eran dos físicos refugiados, el italiano Enrico Fermi y el húngaro Leo Szilard.

Pero los esfuerzos para convencer al gobierno estadounidense de las posibilidades militares del átomo rindieron escaso fruto, hasta que Szilard logró persuadir a Albert Einstein, el científico más famoso de América y también judío alemán refugiado, para que firmara una carta dirigida al presidente Franklin D. Roosevelt en el mes de octubre de 1939.

Aunque Roosevelt estaba en teoría convencido, durante los dos años siguientes el avance de la investigación atómica patrocinada por el gobierno fue lenta e irregular. Aun así, el proceso había comenzado y en 1939 la cuestión a la que se enfrentaban los científicos no era la de construir armas atómicas, sino cómo conseguirlas antes de los nazis.

Por fin, el 6 de diciembre de 1941 —un día antes del ataque japonés a Pearl Harbor—, Vannevar Bush, jefe del Departamento de Investigación y Desarrollo Científico de los EE. UU., lograba la aprobación presidencial de un plan de acción total en el ámbito de la investigación atómica.

El programa científico-militar-industrial que siguió fue característico de Estados Unidos, con su relativa invulnerabilidad ante un ataque, su enorme capacidad industrial y su fe en la ciencia y la tecnología.

Los físicos nucleares sabían, al menos en teoría, que podían someterse a una rápida fisión, o reacción en cadena, cantidades suficientes de dos derivados del uranio, el U-235 y el elemento plutonio, fabricado por el hombre.

El 17 de septiembre de 1942, el general Groves fue nombrado jefe del supersecreto y superprioritario Proyecto Manhattan,para iniciar la construcción de una bomba atómica.

Groves reclutó a dirigentes industriales y a científicos galardonados con el premio Nobel, obtuvo del Tesoro 2.000 millones de dólares en fondos secretos, impuso secreto total a los miles de operarios empleados en el proyecto y seleccionó los parajes aislados donde se realizaría el trabajo.

En la primavera de 1943, en Los Alamos (Nuevo México), donde el trabajo era más peligroso y las medidas de seguridad más estrictas, un equipo dirigido por Oppenheimer emprendió el diseño de una bomba viable que cupiese en el nuevo bombardero de largo alcance B-29, al poco tiempo y bajo un hermetismo total la bomba estaba lista para ser probada.

El 16 de julio de 1945, en un escondido paraje de la base aérea de Alamogordo, en Nuevo México —lugar al que Oppenheimer hacía llamar «Trinity»—, se probó la primera bomba de plutonio.

Conocida en clave como «Fat Man» (Gordo) porque su perfil rechoncho recordaba al de Churchill, la bomba superó todas las previsiones. (La bomba de U-235 no se probó nunca porque los científicos confiaban que funcionaría bien.)

La última etapa de la Segunda Guerra Mundial, conocida como guerra  en el Pacífico, fue encarnizada y la reconquista de las islas y posiciones continentales en poder de los japoneses costó miles de víctimas.

Aunque en retroceso, las tropas japonesas se defendían con furor suicida y ello llevó a suponer que la conquista del archipiélago nipón tendría un alto coste en vidas de soldados norteamericanos.

Esta fue una de las razones que adujo el presidente norteamericano, Harry S. Traman para ordenar el lanzamiento de dos bombas atómicas sobre las ciudades japonesas de Hiroshima, el 6 de agosto de 1945, y Nagasaki, tres días después; el tremendo poder destructivo de aquellos ingenios nucleares produjo en cada una de estas dos ciudades cerca de 250.000 muertos, aunque propició que el 14 de agosto cesaran las hostilidades y a que, el 2 de septiembre, a bordo del acorazado norteamericano Missouri, surto en la rada de Tokio, los emisarios del emperador Hiro-Hito firmaran la capitulación «sin condiciones» de Japón.

https://historiaybiografias.com/archivos_varios5/bomba-hirosima.jpg

Convencidos los Estados Unidos de que la lucha con el Japón podría prolongarse demasiado, se decidió probar la fuerza disuasoria de las bombas atómicas, y primero Hiroshima y después Nagasaki sufrieron las consecuencias de la explosión nuclear, lo que provocó la inmediata rendición de los japoneses. En la fotografía, la llamada «cúpula atómica «, que se conserva en Hiroshima como recuerdo de la tragedia.

HISTORIA DEL  LANZAMIENTO DE LA BOMBA

La Bomba de Hiroshima Lazamiento Bomba Atomica Bomba Nuclear Carta HistóricaH I R O S H I  M A: El día 5 de agosto de 1945, en la base de Tiniaii, una isla de las Marianas a 200 km. de Guam, una tripulación de B-29 –la famosa superfortaleza volante– integrante del  509. Grupo Mixto y preparada desde muchos meses antes en la base secreta de Wendover, en Utah, para una misión espacialísima, esperaba llena de ansiedad la llegada de una orden. 

El entrenamiento había sido durísimo y realizado en el más absoluto aislamiento. 

La tripulación la encabezaba el coronel Paul Tibbets, veterano jefe de grupo de B-17 con múltiples misiones en Europa y el norte de África y que había sido elegido por sus excepcionales cualidades técnicas y personales.

Él había escogido como hombre de la más absoluta confianza, para acompañarle en la misión, al oficial bombardero Tom Ferebee, experto en el bombardeo por medios visuales, y al oficial de derrota Ted van Kirk, llamado «Dutch», navegante peritísimo.

Durante meses habían hecho prácticas de lanzamiento de una rara bomba a la que se llamaba familiarmente «La Cosa«, un enorme cilindro dotado de cola, cuyo contenido explosivo era un arcano para casi todos.

Sólo Tibbets estaba en el secreto de su carga nuclear y, llegado el momento del lanzamiento, la pregunta que le obsesionaba era: ¿la deflagración alcanzaría a volatilizar el avión portador de la bomba? «No obstante confesaría después el propio Tibbets yo confiaba plenamente en los científicos y sabía que sus cálculos eran de una precisión total. 

Ellos me habían explicado que, en el instante de la explosión, mi avión se habría alejado 17 kilómetros del punto cero en relación con la trayectoria de la bomba. 

Por otra parte, en cuanto al problema de la onda provocada por la bomba, los ingenieros aeronáuticas me aseguraron que mi superfortaleza soportaría un choque de 2 g, es decir, el doble de su propio peso.»

Aquel día 5 se llegaba a la fecha de la gran decisión, porque los meteorológicos habían pronosticado que el período entre el 6 y el 9 de agosto ,cría el más favorable para realizar el bombardeo desde el cielo japonés. 

Robert J. Oppenheimer Robert J. Oppenheimernació en  1904, en Nueva York, siendo hijo de un emigrante alemán llegado a América a los 14 años y que posteriormente haría fortuna en negocios textiles.

Desde su más temprana infancia, Oppenheimer demostró poseer una inteligencia privilegiada. 

Sus estudios superiores los cursó en Harvard, simultaneando las humanidades con la física y la química.  Dotado de una gran ansia de saber, y con una extraordinaria capacidad para asimilar conocimientos, se interesó por el  pensamiento oriental, estudió el hinduismo y llegó a dominar el sánscrito, aparte de numerosas lenguas vivas. 

En 1925 se diplomó cum laude en Harvard.  Posteriormente, amplió estudios de física en Cambridge con Rutherford, en Gotinga con Born y Dirac y más, en Zurich Leyde.

Su brillantez intelectual y la profundidad de sus estudios le hicieron perfilarse como un científico de gran porvenir, que había encontrado su camino en la más fascinante empresa que en la década de 1930 se le podía proponer a un físico: la investigación atómica. 

En 1929 empezó a dar clases de física en la Universidad de Berkeley, donde dispuso de un importante laboratorio de investigación.

Alineado entre los intelectuales americanos de ideas socialmente progresivas, Oppenheimer no hizo un secreto de su antifascismo ni de su filomarxismo, aunque no llegara a militar en el partido comunista. 

En el período anterior a la Segunda Guerra Mundial, mantuvo una relación íntima con una doctora, conocida militante del comunismo.

En 1942 -a los 38 años- le ofrecieron la supervisión y el control global del proyecto Manhattan y la dirección del super laboratorio de Los Alamos.

  La oportunidad de tener a su alcance la construcción del ingenio más poderoso de todos los tiempos fue tentación que venció todos los escrúpulos morales de Oppenheimer. 

Durante el proceso de fabricación de la bomba volvió a tener contacto con su antigua amiga, la militante comunista, hecho que no escapó al conocimiento del general Groves, responsable máximo de la seguridad. 

El general, tras una conversación afondo con Oppenheimer, se aseguró de que éste había roto sus relaciones con la extrema izquierda y, valorando la importancia proyecto lo confirmó en el cargo. 

El éxito alcanzado con la fabricación de bomba y sus efectos sobre Japón hicieron que Oppenheimer fuera exalta do por la prensa y la opinión pública americana como el hombre que había hecho posible el victorioso final de guerra.

Ante el problema moral suscitad por la carrera atómica, Oppenheime descubrió el personaje hamletiano qu llevaba dentro, manifestándose pes a sus reparos íntimos en pro de continuidad de las investigaciones Por eso constituyó una gran sorpresa el saberse, en octubre de 1945, que abandonaba la dirección de Los Alamos y volvía a la enseñanza.  

En 1947 fue designado director del Instituto Estudios Superiores de Princeton y entró a formar parte de la Comisión de Energía Atómica.

Cuando en 1950 el presidente Truman ordenó la construcción de la bomba de hidrógeno, Oppenheimer, una vez más, se mantuvo en una duda atormentada por el alcance de la carrera nuclear, pero sin alinearse entre los opositores.

En 1954, al llegar el período de la «caza de brujas», Oppenheimer fue acusado de «actividades antiamericanas» por haber mantenido relaciones con elementos comunistas.  Con arreglo a las prácticas utilizadas por la Comisión de Encuesta, se le declaró «indeseable para toda función que supusiese un acceso a secretos militares». 

Pese a la protesta de gran número de científicos, Oppenheimer hubo de sufrir años de ostracismo oficial Durante ellos, no obstante, continuó trabajando en la Universidad y dando conferencias.  En 1958 viajó a París, fue recibido en la Sorbona y el Gobierno francés le otorgó la Legión de Honor, todo lo cual e una especie de desagravio al que se asociaron los científicos europeos.

En 1963 fue rehabilitado y se le otorgó el premio Fermi, el más alto galardón que se concede a los destacados en la investigación nuclear.Falleció en 1967, en Princeton.

Su vida fue una demostración del enfrentamiento del hombre de ciencia con unos problemas éticos y morales que le desbordan.  El mito del «aprendiz de brujo» tuvo en el patético destino de Oppenheimer su más patente manifestación.

En el verano de 1939, la energía nuclear había desvelado ya sus inmensas posibilidades destructivas.  La fisión del uranio, llevada a cabo por primera vez por Enrico Fermi, iba acompañada por un desprendimiento enorme de energía. 

Pero esto no era todo: si la fisión del primer núcleo podía emitir varios neutrones, cada uno de éstos podía provocar la fisión de otro núcleo, que a su vez al fisionarse emitía… Era la reacción en cadena prevista por Joliot y Szilard.

La idea de estar ante una fuente de energía inimaginable, la posibilidad de tener al alcance la preparación de una mítica fuerza explosiva, sobrecogió a los físicos que habían llegado a abarcar teóricamente los efectos de la fisión en cadena. 

Pero se estaba en 1939.  Muchos físicos, investigadores del átomo, habían abandonado Alemania por su condición de judíos. Otros, como el italiano Fermi, habían emigrado en desacuerdo con el fascismo que imperaba en su país.  Y todos ellos se habían refugiado en Estados Unidos. 

La idea de que los sabios alemanes que habían quedado en su tierra pudieran preparar el arma atómica era una suposición que podía hacer de Hitler el amo del mundo.

EINSTEIN AlbertAnte esta temible eventualidad, Leo Szilard, un científico atómico húngaro refugiado en Norteamérica, pidió a Albert Einstein que llamase la atención del Gobierno americano sobre el peligro que amenazaba, si los nazis conseguían preparar una bomba atómica.  Entre dudas y reticencias, el tiempo pasó. 

Entre tanto, los ensayos y las investigaciones nucleares habían proseguido en Princeton, en Berkeley, en Columbia… En 1941, los japoneses atacaron Pearl Harbor. 

Estados Unidos era ya un país beligerante. Ello precipitó la decisión. 

En agosto de 1942 se llegó a un acuerdo para unir esfuerzos entre el Gobierno americano y el británico a fin de comunicarse sus investigaciones, y el Ejército americano recibió el encargo de dar prioridad absoluta, acelerando, coordinando y recabando cuantos recursos fueran necesarios para realizar un proyecto al que se le puso el nombre clave de « Manhattan».  Su objetivo era fabricar la primera bomba atómica.

En el otoño de 1942, el general Leslie Groves, que había sido designado responsable del proyecto, se entrevistó secretamente con el físico Robert J. Oppenheimer, un brillante investigador cuyas cualidades personales de animador, capacidades de coordinador y poder de captación le hacían especialmente idóneo para dirigir en lo técnico la suma de esfuerzos que iba a representar el proyecto.

El lugar elegido para situar la planta de acabado fue Los Alamos, en Nuevo México, lejos de cualquier centro habitado. 

En la bomba se puso a trabajar un ejército de científicos, de técnicos, de militares: directa o indirectamente, más de cien mil personas, la mayoría ignorantes de la finalidad real de su trabajo. La movilización fue total.  Todos los recursos disponibles se pusieron al servicio de la gigantesca empresa. 

Cientos de millones de dólares se gastaron en un esfuerzo tecnológico que abarcó una colosal Planta construida en Tennessee, un grandioso laboratorio en la Universidad de Columbia, una enorme instalación en Oak Ridge, otra en Hanford. 

Y en Los Alamos, junto a la planta atómica, surgió una ciudad habitada por los científicos y sus familias. Era difícil que aquella dispersión no traicionara el secreto exigido.  Pero los severísimos controles y la más estricta vigilancia evitaron cualquier filtración.

Al principio se creyó que la bomba estaría lista en un año, pero se llegó a 1944, con el proceso muy avanzado. La evidencia de que Alemania no podría ya obtener la bomba y el sesgo favorable de la guerra contra Japón decidieron al científico danés Niels Bohr, premio Nobel de Física, a dirigir un memorándum al presidente Roosevelt previniéndole contra «la terrorífica perspectiva de una competencia futura entre las naciones por un arma tan formidable». 

Pero el mecanismo infernal no podía ya detenerse. La posesión de la bomba era un objetivo demasiado codiciado.

En julio de 1945, todo estaba listo para la gran prueba.  En Los Alamos se hallaban Oppenheimer, Bohr, Fermi, Bethe, Lawrence, Frisch… toda la plana mayor de los sabios nucleares.

El día 16, a las dos de la madrugada, las personas que debían intervenir en la primera prueba estaban en sus puestos a varios kilómetros del punto cero.  Se fijó la hora H para las 5 de la madrugada. 

A las 5.30, una luz blanca, radiante, mucho más brillante que el sol del mediodía, iluminó el desierto, las montañas en la lejanía…

La superfortaleza volante B-29, fabricado por Boeing, fue el mayor avión construido durante la  Guerra Mundial. Proyectado en 1939 y tras un período de prueba en el que tuvieron que superarse múltiples deficiencias técnicas, las primeras entregas a ultramar se hicieron en marzo de 1944.  Intervino, decisivamente en las operaciones aéreas contra Japón y Alemania. 

Fue el primer gran bombardero construido en serie dotado de compartimentos presurizados.  También fue el primero que dispuso de un sistema centralizado y sincronizado de tiro de las ametralladoras. 

Sus dimensiones eran gigantescas: longitud, 30 metros; envergadura, 43 metros.  Iba equipado :con cuatro motores Wright de 2.200 HP de potencia, que le daban una velocidad máxima de 585 kilómetros por hora a 7.600 metros de altitud.  La ,velocidad de crucero de gran alcance era de 350 kilómetros a la hora, siendo su radio de acción de más de 8. 000 kilómetros y su techo de servicio de 9.700 metros. Su tripulación estaba integrada por 11  hombres.

Su armamento constaba de 10 ó 12 ametralladoras y un cañón de 20 Mm. y su carga explosiva podía ser de cuatro bombas de 1.800 kilos u ocho de 900 kilos.  Para cargar la bomba de uranio, el Enola Gay hubo de acomodar su bodega, dado que las dimensiones del ingenio superaban los 70 cm. y ,de diámetro los 3 m de longitud.

La acción más espectacular y destructiva en la que participaron los B-29 fue el bombardeo realizado en la ,noche del 9 al 10 de marzo de 1945, Por 279 aparatos de este tipo sobre: Tokio. 

En una sola noche, las superfortalezas destruyeron casi 25 kilómetros cuadrados del centro de la capital japonesas arrasaron el 25 % de los edificios de la: ciudad.  Cerca de 85.000 personas perdieron la vida y otras tantas ,resultaron heridas, mientras que un millón de habitantes ,de Tokio quedaron sin hogar.

El día de la rendición de Japón, las fuerzas aéreas norteamericanas tenían en servicio 3.700 bombarderos del tipo B-29.Las superfortalezas todavía tuvieron una importante participación en la guerra de Corea; pero en 1955, con la puesta en servicio de los grandes bombarderos a reacción B-47 y B-52 y la del B-36 mixto, los B-29  fueron retirados definitivamente.

En esencia, la bomba atómica es un reactor o pila nuclear que no utiliza moderador (es decir, ninguna sustancia que frene las partículas emitidas por el elemento radiactivo) y en la que se origina una reacción en cadena.

Dos trozos de material radiactivo (uranio 235 en la Little Boy que se lanzó sobre Hiroshima y que aparece en la fotografía inferior,- plutonio 239 en la Fat Man que se lanzó sobre Nagasaki), de masa inferior a la crítica (es decir, a la masa a la que la reacción en cadena se produce de forma espontánea) y separados por un espacio vacío, son impelidos a chocar entre sí mediante la explosión de dos cargas convencionales, de forma que la nueva masa resultante es superior a la crítica, produciéndose la reacción nuclear.

Efectos a partir del centro: Dependiendo de su tamaño, los efectos de una deflagración nuclear, se expanden en círculos concéntricos a partir del punto de impacto, que normalmente se encuentra situado a cierta altura sobre el terreno.

El círculo más exterior es, lógicamente, el de menor destrucción y la causa principal de ésta es la radiación térmica, que produce una «tempestad de fuego», quemaduras e incendio.

En el círculo intermedio, donde la causa principal de destrucción es la onda de la explosión (expansión y choque), se producen derrumbamientos, roturas de conducciones de gas y agua, proyección de cascotes y cristales, etc.

Finalmente, en el círculo interior, la destrucción es total a calísa de las enormes temperaturas (en Hiroshima, 17.000 personas «desaparecieron» carbonizadas y pulverizadas) y la radiación mortal.

Los diámetros de estos círculos varían; por el . ejemplo, en una bomba de cien kilotones (unas siete-cinco veces la de Hiroshima) son de dentro a fuera:2,5 km., 8 km. y 16 km. 

Plan de vuelo

El vuelo tenía prevista la hora de despegue para las 2.45 de la madrugada del día 6, esperándose alcanzar el objetivo -que podía ser Hiroshima, objetivo prioritario, o bien Kokura o Nagasaki- seis horas después, es decir a las 8.15, hora exacta que se había precisado en función de las previsiones de la meteorología.  Tres superfortalezas acompañarían en el despegue al Enola Gay. 

Una de ellas tendría como misión el dar los datos meteorológicos en el último momento y ya sobre el espacio aéreo japonés, designando en función de este factor la ciudad que quedaría marcada por el fatal destino de sufrir el comienzo de la era atómica.  En los otros dos aviones viajarían los científicos encargados de observar y registrar los efectos de la bomba.

ENOLA GAY

Al término de la exposición del plan de vuelo, Tibbets anunció con voz grave que le era necesario dar una información adicional del más alto interés.  Y habló de que se trataba de lanzar una bomba cuyos efectos significarían muy probablemente la derrota de Japón y el fin de la guerra. 

Tibbets, sin embargo, se abstuvo de mencionar el calificativo de «atómica» aplicado ala bomba, pero precisó que la potencia del infernal ingenio equivaldría a la de 20.000 toneladas de trilita. 

Sus palabras causaron una impresión profunda en la tripulación, a la que se había incorporado el copiloto Bob Lewis, el ametrallador de cola Bob Caron y de la que formarían parte tres personas más: el capitán Parsons -ya citado- y su ayudante el teniente Morris Jeppson, quienes tendrían a su cargo el activado de la bomba una vez en vuelo; y a ellos se añadiría el teniente Beser, especialista en electrónica.

 El despegue hacia un objetivo desconocido

Y llegó el momento decisivo.  A la 1.45 de la madrugada despegó el B-29 destinado a la misión meteorológica.  Los otros despegarían después. 

A las 2.15, el B-29 modificado para que en su bodega cupiera la bomba de uranio 235, a la que se había bautizado con el nombre de Little Boy («Muchachito»)

Entre una hilera de cámaras , iluminado por potentes  estaba en la cabecera de la pista probando a plena potencia sus cuatro motores Wright de 2.200 caballos de por que querían registrar el histórico acon proyectores, el Enola Gay arrancó de la pista con los cuatro mil kilos de la bomba en sus entrañas. 

Eran las 2.45 de la madrugada del 6 de agosto de 1945.

Alcanzada la cota de vuelo y con el rumbo puesto hacia el archipiélago japonés, Parsons y su ayudante pusieron manos a la obra en la bodega del bombardero para activar el arma nuclear. 

Veinte minutos después, habían dado fin a su tarea.  Fue entonces cuando el coronel Tibbets, tras conectar el piloto automático, reunió a la tripulación y les explicó la naturaleza exacta del explosivo que llevaba a bordo. 

Para aquellos hombres, hechos al cumplimiento de unas misiones bélicas destructivas, cualquier reparo moral estaba en aquel momento fuera de lugar.  Aún más, la idea de que con aquel explosivo podían acortar la guerra y ahorrar millares de vidas norteamericanas ahuyentaba cualquier escrúpulo de conciencia.

Entre tanto, el Enola Gay proseguía su vuelo sin novedad sobre la capa de nubes por encima de la zona de turbulencia.  Poco a poco se iban percibiendo las tenues luces del amanecer.  Se acercaba la hora del alba. 

Al llegar el avión a la altura de lwo Jima, según el horario previsto, dos aparatos de escolta esperaban describiendo círculos la llegada del bombardero para, una vez avistado, ponerse a la altura de] Enola Gay y seguir el vuelo juntos, hacia el objetivo.

El nuevo día empezaba a despuntar.  Un nuevo día que millares de seres humanos de una ciudad todavía ignorada no verían llegar a su crepúsculo, víctimas de una horrible muerte.

 La meteorología sella el destino de Hiroshima

A las 7.09 se recibió en el Enola Gay el esperado mensaje.  Era del comandante EatherIy del Straight Flush, el avión meteorológico que les había precedido en el despegue y que en aquellos momentos volaba a 10.000 metros sobre Hiroshima. 

En él se confirmaba el objetivo principal como destino de la bomba.  La ciudad, en medio de un anillo de nubes, aparecía a través de un hueco de 15 kilómetros en el que la visibilidad era perfecta.

  El mensaje del Straight Flush selló el destino de la ciudad.  El navegante Van Kirk marcó el rumbo preciso para situarse en la vertical del objetivo.

Sobre Hiroshima se había despertado también el sol de la mañana de un nuevo día que -fatalmente- se anunciaba magnífico, sin nubes. 

Era una ciudad con más de 300.000 habitantes, famosa por sus bellísimos sauces y que hasta aquel día, pese al sesgo desfavorable que la guerra había tomado para el Japón, no había experimentado más conmoción que el estallido de 12 bombas enemigas.

  Aquella mañana despejada, sus habitantes se disponían a hacer su vida habitual. 

El puerto, antes animado por los embarques de tropas, aparecía desierto, porque la siembra de minas realizada por los aviones americanos hacía que casi ningún barco fondease ahora en Hiroshima. 

Fábricas, almacenes y enlaces ferroviarios trabajaban a pleno rendimiento para aprovisionar y equipar a un ejército que, muy pronto, tendría que afrontar el desembarco de los americanos en sus propias islas.

Afanada en sus quehaceres diarios, la gente prestó escasa atención a las sirenas que sonaron anunciando la presencia de un avión enemigo, un B-29 que volaba a gran altura y que, después de cruzar por dos veces el cielo de la ciudad, desapareció. 

El fin de la alarma sonó a las 7.30. Era el B-29 del comandante Eatherly, que había cumplido su misión de guía del Enola Gay. 

Al cese de la alarma, la gente dio un suspiro de alivio.  Los hombres inútiles para el servicio y los estudiantes que trabajaban en la defensa pasiva creyeron que, una vez más, el azote de las bombas iba a pasar sobre Hiroshima sin dejar rastro.

  Las gentes procedentes de zonas bombardeadas celebraron una vez más su buena fortuna en la elección de la ciudad que les había dado acogida.

De los hombres que participaron en los bombardeos de Hiroshima y Nagasaki, no todos salieron incólumes de esa siembra de destrucción.  Veinte años después, el mayor Claude Eatherly era víctima de fuertes trastornos emocionales. 

Era el hombre que, desde el avión meteorológico Straight Flush, había marcado el destino de Hiroshima señalándola como el objetivo del Enola Gay.

Eatherly, el servicio durante un   de finalizada la guerra, una vez desmovilizado empezó a experimentar  trastornos psiconerviosos influido por un claro complejo , de culpabilidad.

Su atormentado estado de ánimo se hizo público cuando fue detenido por provocar un gran alboroto y producir destrozos en un lugar público.  Tratado como héroe de guerra en el juicio que se le siguió, rechazó toda consideración y , pidió ser condenado, ya que se: sentía profundamente culpable. 

Aquel fue el inicio de todo un proceso de autopunición, que le llevó de los tratamientos psiquiátricos a sucesivas detenciones cada vez que su conducta buscaba un motivo para ser castigado. Su plan, como él mismo confesó, era acumular actos.

La protesta contra la sociedad que, según él, le había convertido en un asesino.  Su calvario se prolongó durante años y su figura fue esgrimida por grupos pacifistas y contrarios al uso de la energía atómica, mientras que la sociedad contra la que él se alzaba le tildaba de «loco».

Para otro aviador, la contemplación de la explosión? nuclear y la idea de las muertes producidas significó también un profundo cambio en su destino.  Fue el coronel inglés Leonard Cheshire, el piloto de bombardero más condecorado de la RAF, invitado a volar como observador en el avión meteorológico que escoltó al que bombardeó Nagasaki. 

Cheshire, superviviente de más de cien misiones sobre Alemania y los países ocupados, curtido en la destrucción por las «bombas terremoto» usadas por la RAF, quedó traumatizado por los efectos de la bomba nuclear.

 Y de su mente no pudo apartarse la imagen de hasta dónde puede llegar el poder destructivo que el hombre, movido por el odio de la guerra, es capaz de el ejercer contra la propia humanidad.

Terminada la guerra, pidió el retiro de la aviación, se convirtió al cristianismo y creó una fundación destinada a atender enfermos.

La hora H: 8h 15’17» del día 6

A las 7.50 hora de Tokio, el Enola Gay volaba sobre las inmediaciones de la isla de Shikoku.  A las 8.09 se divisó desde el avión el contorno de Hiroshima. Tibbets ordenó a los dos aviones de escolta que se retirasen y, por el interfono, indicó a su tripulación que se pusiera los anteojos que habían de protegerles contra el resplandor de la explosión. 

A las 8.1 1, Tibbets accionó el mecanismo preparatorio para soltar a Little Boy.  Faltaban menos de cinco minutos.  Debajo del Enola Gay, la ciudad de Hiroshima se veía cada vez más cerca.  El apuntador Ferebee se sabía de memoria la planimetría de la ciudad. 

Rápidamente encuadró su punto de mira en el lugar elegido: un gran puente sobre el río Ota.  Cuando tuvo, puso en marcha la sincronización automática para el minuto final del lanzamiento. 

El plan preestablecido era lanzar la bomba a las 8.15, hora local.  Las favorables condiciones atmosféricas y la pericia de Tibbets permitieron que el avión coincidiera con el objetivo exactamente a las 8 horas, 15 minutos y 17 segundos. 

En aquella hora fatídica se abrieron las compuertas del pañol y, desde una altura de 10.000 metros, el ingenio atómico inició su trayectoria genocida.

Aligerado de un peso de más de 4.000 kilos, el bombardero dio un gran brinco hacia arriba.

  Tibbets marcó un picado hacia estribor y a continuación hizo un viraje cerrado de 158′, a fin de alejarse al máximo del punto de explosión.  Al mismo tiempo, desde el instante del lanzamiento, Tibbets se puso a contar mentalmente los segundos calculados hasta que la bomba estallara. 

Transcurridos 43 segundos, cuando el avión se encontraba a 15 kilómetros del punto del impacto, la bomba hizo explosión, accionada por una espoleta automática a unos 550 metros por encima del punto de caída y a 200 metros escasos del blanco elegido. 

Una enorme bola de fuego se iba transformando en nubes purpúreas…

Repentinamente, el espacio se había convertido en una bola de fuego cuya temperatura interior era de decenas de miles de grados. 

Una luz, como desprendida por mil soles, deslumbró a pesar de los lentes a Bob Caron, el ametrallador de cola, que, por su posición en el aparato, quedó encarado al punto de explosión. 

Una doble onda de choque sacudió fuertemente al avión, mientras abajo la inmensa bola de fuego se iba transformando en una masa de nubes purpúreas que empezó a elevarse hacia las alturas, coronándose en una nube de humo blanco densísimo que llegó a alcanzar 12 kilómetros de altura y que adoptó la forma de un gigantesco hongo. «Entonces nos dimos cuenta -explicaría Tibbets- de que la explosión había liberado una asombrosa cantidad de energía.»

El Enola Gay, superada la prueba de la onda de choque, viró hacia el sur y voló sobre las afueras de Hiroshima, a fin de fotografiar los resultados del histórico bombardeo.  Y entonces fue cuando la tripulación pudo comprobar la espantosa destrucción que habían sembrado. 

Iniciado el vuelo de regreso, a 600 km de distancia todavía era visible el hongo que daba fe de la aparición del arma que abría una nueva y dramática era en la historia de la humanidad.

Una sensación impresionante dominaba a toda la tripulación, como si la tensión nerviosa liberada hubiera dado paso a la obsesionante idea de haber provocado una destrucción sin precedentes. 

Parsons y Tibbets lanzaron entonces el mensaje que iba a conmover al mundo: «Resultados obtenidos superan todas las previsiones.»

El fin de la Segunda Guerra Mundial A las 2 de la tarde, el Enola Gay tomaba tierra en Tinian.  La noticia del éxito de la operación «Bandeja de Plata» había circulado ya por el Pacífico.  En el aeródromo estaban esperando los generales Le May y Arnold, venidos especialmente de Guam.  El presidente Truman recibió el mensaje a bordo del crucero Augusta.  En su entorno, todo era exaltación y entusiasmo. 

Sólo el general Eisenhower condenó espontáneamente el uso de la terrible bomba contra un núcleo habitado, considerando que tal demostración no era necesaria para derrotar a Japón.  Pero la inmensa mayoría -como dijo Raymond Cartier- «no vio en la aparición del arma nuclear otra cosa que el fin rápido de la guerra y la economía de sangre americana que ello reportaba. »

No obstante, había algo más: ante la configuración del mundo de la posguerra y la emergencia de la Unión Soviética como gran potencia, la horrible demostración de Hiroshima perseguía el evidente fin de intimidar a Stalin y hacerle más razonable. 

Yalta y Potsdarn estaban perfilando una posguerra en la que los ocasionales aliados de ayer iban a dividir el mundo en dos bloques antagónicos.

Sin embargo, como era de esperar, las previsiones en cuanto a lo resolutivo de la bomba se cumplieron: el día 7, Japón se dirigió a la Unión Soviética para que mediara ante Estados Unidos en busca de un armisticio. 

Los rusos contestaron declarando la guerra a Japón y desencadenando de inmediato una gran ofensiva en Manchuria.  El día 9, otro B-2 l Bockscar, pilotado por el mayor Sweeney, lanza otra bomba nuclear -ésta de plutonio- sobre Nagasaki.  La «implosión» – pues éste fue el sistema practicado para provocar la reacción en cadena del plutonio activado- estuvo a punto de desintegrar la superfortaleza que efectuó el lanzamiento.  Los efectos, debido a la topografía de Nagasaki, no fueron tan espantosos como los del ataque precedente. 

Pero fueron suficientes para que, a las 2 de la madrugada del día 10, el Consejo Supremo de Guerra japonés, presidido insólitamente por el emperador Hiro Hito -que, ante lo gravísimo de los momentos, había decidido descender de sus divinas alturas -, se dirigiera a Estados Unidos pidiéndole el cese de las hostilidades y aceptando la rendición incondicional exigida por los aliados.

La capitulación se firmaría el 2 de septiembre de aquel mismo año: la Segunda Guerra Mundial había terminado, tras 6 años y 1 día de duración.  Pero queda por reseñar lo sucedido en la ciudad mártir, tras de recibir su bautismo de fuego atómico.

 Una explosión de 20 kilotones

La bomba lanzada en Hiroshima tenía una potencia equivalente a 20 kilotones, es decir, a veinte veces la explosión de mil toneladas de TNT.  Los efectos mortales de esta bomba podían proceder de tres causas distintas: la acción mecánica de la onda expansivo, la temperatura desencadenada y la radiactividad.

El calor generado por la energía liberada se elevó a temperaturas capaces de fundir la arcilla, alcanzando decenas de miles de grados.  Este colosal desprendimiento provocó una columna de aire huracanado y a continuación, para llenar el descomunal vacío, se produjo otra onda en sentido contrario cuya velocidad superó los 1.500 kilómetros por hora.  El terrible soplo produjo presiones de hasta 10 toneladas por metro cuadrado.

El detalle de estos efectos sobre la ciudad llega a lo indescriptible: trenes que vuelcan como golpeados por un gigante, tranvías que vuelan con una carga de cadáveres hechos pavesas, automóviles que se derriten, edificios que se desintegran y se convierten en polvo incandescente, manzanas de viviendas que desaparecen por un ciclón de fuego.

Toda una zona de 2 km. de radio se transformó en un crisol, que la dejó arrasada como si un fuego infernal y un viento cósmico se hubieran asociado apocalípticamente.  Y en kilómetros a la redonda, incendios y más incendios atizados dramáticamente por un vendaval de muerte.  Por los restos de lo que fueron calles, empezaron a verse supervivientes desollados, con la piel a tiras, unos desnudos, otros con la ropa hecha jirones.  Los que murieron en el acto, sorprendidos en el punto de la explosión, se volatilizaron sin dejar rastro. 

Tan sólo alguno, situado junto a un muro que resistió la onda expansiva, dejó una huella en la pared, una silueta difuminada de apariencia humana, como una sombra fantasmagórica, que fue en lo que vino a quedar el inmolado. 

Otros se vieron lanzados, arrastrados por un rebufo arrollador, y se encontraron volando por el aire, como peleles de una falla sacudida por un vendaval.  Alguno fue a parar milagrosamente a la copa de un árbol, a muchos metros de distancia de su lugar de arranque.

En los alrededores de] punto cero, todo quedó carbonizado. 

A 800 metros, ardían las ropas.  A dos kilómetros, ardían también los árboles, los matorrales, los postes del tendido eléctrico, cualquier objeto combustible.  Tal era la fuerza del contagio ígneo.

bomba en hiroshima

La bomba sobre Hiroshima. En la mañana del 6 de agosto de
1945 el mundo entró en la era «atómica». Un avión bombardero norteamericano —el «Enola Gay»- dejó caer sobre la ciudad japonesa de Hiroshima una bomba de alto poder destructivo que dejó un saldo de 99 mil muertos y un número similar de heridos. Tres días después Nagasaki corrió igual suerte, aunque el saldo trágico fue levemente menor: 70 mil muertos y 40 mil heridos. Ambas ciudades fueron un horno; cerca del núcleo de la explosión se registraron temperaturas que treparon hasta los 10 mil grados centígrados y vientos que avanzaban a más de 500 kilómetros por hora y que arrasaron todo a su paso.

La explicación oficial de los Aliados fue que con el lanzamiento de las bombas se anticipó la rendición de Japón en la Segunda Guerra Mundial y se evitó, así, la muerte de un número superior a los dos millones de personas entre norteamericanos y japoneses. De todas formas las secuelas fueron horrendas: durante los meses siguientes morirían otras 20 mil personas por las radiaciones y miles más nacerían con malformaciones.

 El sol de la muerte

Pero quedaba el tercer y más traicionero efecto: el «sol de la muerte», como llamaron los japoneses al efecto radiactivo que provocó la acción de los rayos gamma, delta y alfa.  Las personas, según su cercanía al punto de caída de la bomba atómica, aparecían llagados, llenos de terribles ampollas.  Todos los supervivientes, en un radio de 1 km a partir del epicentro, murieron posteriormente de resultas de las radiaciones. 

Los muertos por estos insidiosos efectos lo fueron a millares y se fueron escalonando a lo largo del tiempo, según el grado de su contaminación.  Veinte años después de la explosión, seguían muriendo personas a consecuencia de los efectos radiactivos.

Junto a los millares de muertos instantáneamente y de los que con posterioridad fallecieron de resultas de las quemaduras o de la radiación, se registraron hechos singulares.

  Por ejemplo, algunos habitantes se salvaron por haberles sorprendido los efectos de la explosión con vestimenta clara; en cambio, los que vestían de oscuro murieron rápidamente, por la capacidad del color negro de absorber el calor. 

Esta misma capacidad de absorción de las ondas calóricas por los cuerpos opacos ocasionó otro sorprendente fenómeno: la fotografía atómica.  Hombres desintegrados, así como objetos diversos, dejaron su sombra grabada sobre los muros de las paredes en cuya cercanía se encontraban en el momento de la explosión, como hemos mencionado antes. 

La onda calórica siguió exactamente los contornos de una silueta y la grabó, para siempre, sobre la piedra.

 El holocausto

Y cuando los supervivientes se recuperaron del horror y los servicios de socorro empezaron a prodigar sus cuidados a los heridos y a los quemados, se produjo la caída de una lluvia viscosa, menuda y pertinaz, que hizo a todos volver los ojos al cielo: el aire devolvía a la tierra, hecho toneladas de polvo y ceniza, todo lo que había ardido en aquel horno personas y cosas – y que las corrientes ascendentes habían succionado hasta las nubes.

Al día siguiente del bombardeo, un testigo presencial que recorrió la ciudad explicó el espeluznante panorama de desolación que constituía la visión de una población arrasada, sembrada de restos humanos que estaban en espantosa fase de descomposición, entre un olor nauseabundo a carne quemada. 

Una zona de 12 kilómetros cuadrados, en los que la densidad de población era de 13.500 habitantes por kilómetro cuadrado, había sido devastada. 

La llegada de un grupo de científicos confirmó que el explosivo lanzado era una bomba de uranio.  La energía atómica había entrado en la historia por la puerta del holocausto.

Según los datos más fiables, el número de víctimas sacrificadas en Hiroshima fue de 130.000, de las que 80.000 murieron.  Unos 48.000 edificios fueron destruidos completamente y 176.000 personas quedaron sin hogar


Oppenheimer Robert
La Bomba «Litle Boy»

masacres humanas

Luminiscencia: fenomeno de iluminacion en la oscuridad Fenomeno Fisico

El Fenómeno de la Luminiscencia

La luminiscencia es la propiedad que presentan algunos materiales y seres vivos de emitir luz cuando son sometidos a determinada temperatura. Esta luz es visible solamente en la oscuridad.

Poseen esta capacidad las luciérnagas o los peces de los abismos marinos; también el pescado putrefacto, algunas clases de madera y ciertos minerales y sulfuros metálicos.

luminiscencia

La luminiscencia comprende las emisiones de luz visible producidas tanto por la acción de ciertos rayos como por la existencia de reacciones físicas o químicas.

Se excluye la radiación originada exclusivamente como consecuencia del calor.

Dependiendo de la energía que la origina, es posible hablar de varias clases de luminiscencia: fotoluminiscencia,  fluorescencia,  fosforescencia, termoluminiscencia, quimiolumíniscencia, triboluminiscencia, electroluminiscencia y radioluminiscencia. 

Fotoluminiscencia

Cuando la energía activadora es de origen electromagnético (rayos X, ultravioleta, catódicos) se habla de fotoluminiscencia. Los rayos X, en particular, producen una intensa luminiscencia.

En el caso de los minerales fotoluminiscentes, la luz es absorbida durante un determinado periodo de tiempo y, al ser emitida, lo hace con una longitud de onda menor que la incidente.

Es decir, no se trata de un fenómeno óptico de difracción o reflexión.

La luminiscencia por rayos X permite, por ejemplo, diferenciar las perlas cultivadas de las naturales, ya que las primeras presentan esa capacidad, en tanto que las segundas, excepto las de agua dulce, carecen de ella. Se trata de una propiedad particularmente útil en el reconocimiento de piedras sintéticas. 

Fluorescencia

Es la luminiscencia causada única y exclusivamente por rayos ultravioleta. El término fluorescencia proviene del mineral que presenta este fenómeno por naturaleza, la fluorita.

No todos los minerales absorben luz U.V. de igual longitud de onda. Por ejemplo, algunos sólo son capaces de hacerlo para rayos U.V. de longitud de onda corta (254 nm); otros, para longitudes largas (350-370 nm), mientras que hay minerales que presentan este fenómeno indistintamente para unas y otras longitudes.

Tampoco todos los minerales, aunque tengan el mismo origen o la misma apariencia, poseen por sistema la propiedad de la fluorescencia. En este sentido, no todas las fluoritas son fluorescentes, tan sólo aquellas en las que existe presencia de materia orgánica o de tierras raras. 

Fosforescencia

Cuando la luminiscencia continúa un cierto tiempo aunque se elimine la fuente de excitación, se había de fosforescencia. Existen minerales que, a pesar de haberles retirado la fuente energética que incide sobre ellos, continúan emitiendo luz durante una fracción de segundo, por lo que es difícil a veces diferencia los fenómenos de fotolurniniscencia y fluorescencia. 

Termoluminiscencia

La presentan ciertos materiales únicamente cuando son calentados a temperaturas por debajo del rojo, siendo el calor el desencadenante de la reacción. La luz visible es inicialmente débil, acentuándose entre los 50 y 100 0C y cesando su emisión partir de los 475 °C La calcita, el apatito, la escapolita, la lepidolita y ciertos feldespatos son minerales termoluminiscentes. La clorofana (variedad de la fluorita), por ejemplo, emite una radiación verde muy característica. 

Quimioluminiscencia

Esta particularidad está originada por reacciones químicas. Un ejemplo es la bioluminiscencia, producida por reacciones químicas de origen biológico; uno de los casos más conocidos es el de la luz emitida por las luciérnagas o por los peces de ambientes hipoabisales. 

Triboluminiscencia

Ciertos minerales no metálicos y fácilmente exfoliables poseen la propiedad de emitir luz cuando son sometidos a acciones mecánicas, por ejemplo, al ser molidos o rayados. Es el fenómeno de la triboluminiscencia. La fluorita, la esfalerita, la lepidolita y, en menor medida, la pectolita, la ambligonita, los feldespatos y la calcita presentan esta característica.

Electroluminiscencia y radioluminiscencia

Si el efecto as provocado por la acción de corrientes eléctricas, el fenómeno se denomina electroluminiscencia. La radioluminiscencia, por su parte, está motivada por reacciones nucleares. Fue observada por vez primera en el radio, gracias a las investigaciones de Marie y Pierre Curie

El fenómeno de la luminiscencia en los análisis de toxicidad

Si se realizan ciertos análisis de toxicidad en los efluentes industriales que se vierten a plantas de tratamiento de aguas, se puede determinar que, en ocasiones, llegan a ser considerablemente más tóxicos que la totalidad del agua residual que accede a la planta antes de ser tratada.

Mediante un análisis químico tradicional es posible identificar los contaminantes presentes y se pueden cuantificar sus niveles; es necesaria la realización de un análisis de toxicidad para determinar los efectos tóxicos de estos vertidos.

Para ello se emplean métodos biológicos, mediante la acción de bacterias luminiscentes, de forma que cuando los niveles de sustancias tóxicas superan determinados valores, la luminiscencia se inhibe. Esta disminución de la luminiscencia se produce de forma directamente proporcional a la presencia de contaminantes tóxicos.

Esto ocurre porque los compuestos tóxicos actúan sobre las estructuras celulares y sus funciones biológicas, básicas para cualquier organismo vivo.

Efecto de la Radiación Ultravioleta Sobre la Piel

El fin del eter de Aristoteles Quintaesencia llena el espacio Quinto

El fin del eter de Aristóteles
La Quintaesencia llena el espacio Quinto

Durante el siglo XIX la idea de que la luz era un fenómeno ondulatorio estaba bastante afirmada. Las ondas que pueden observarse habitualmente a nivel macroscópico siempre son perturbaciones de algún medio material: las ondas de sonido son oscilaciones de las moléculas de aire, las ondas en un estanque son oscilaciones de las moléculas de agua, las ondas en una soga son oscilaciones de las moléculas que componen la soga, etc.

Por ese motivo resultó natural suponer que existía un medio material necesario para la propagación de las ondas luminosas. A este medio se lo llamó éter. Esta palabra ha tenido muchos usos a través del tiempo en explicaciones sobre la naturaleza, cuando se necesitaba postular la existencia de algún fluido que hiciera posible algún proceso (se ha hablado alguna vez de cierto éter que conduciría las sensaciones de una parte a otra del cuerpo humano).

El éter lumínico, de existir, debía tener propiedades muy particulares: ser lo suficientemente tenue como para llenar todos los espacios, incluso el interior de los cuernos transparentes o traslúcidos, y ser lo suficientemente rígido como para poder transmitir ondas de altísima frecuencia como las que conforman la luz. Los años pasaban y nadie podía diseñar una experiencia en la que se manifestara claramente la presencia del éter.

Si el éter llenaba también el espacio interestelar a lo largo de todo el Universo, esto hacía surgir una pregunta: ¿El mar de éter estaba fijo en el espacio y a través de éste se movían los astros sin perturbarlo, o cada planeta arrastraba el éter como si friera una atmósfera? La sistema de referencia absoluto respecto del cual se moverían todos los otros cuerpos. Y como la luz se propagaría a velocidad c en el éter estacionario, desde un cuerpo en movimiento, como la Tierra, se vería que la luz se mueve a distintas velocidades según lo haga en la misma dirección del movimiento terrestre, en sentido contrario o perpendicularmente.

Cuando el haz de luz viaja en la misma dirección y sentido que la Tierra, su velocidad relativa a ésta es c — y. Cuando viaja en una sentido contrario, su velocidad vista desde la Tierra es c + y.

En 1887, el físico Albert A. Michelson (1852-1931) diseíió un interferómetro y, junto con el químico Edward W Morley (1838-1923), realizó un experimento que debía mostrar la diferencia en las velocidades, vistas desde la Tierra, de dos rayos que se mueven en direcciones diferentes. Se usaban dos rayos provenientes de la misma fuente (para asegurar la coherencia), y luego de desplazarse en direcciones perpendiculares, se los hacia interferir.

La clave del experimento residía en que el patrón de interferencia debía cambiar si se rotaba el aparato con respecto a la dirección del movimiento de la Tierra.

El aparato original tenía muchos espejos para aumentar el camino recorrido por los rayos hasta unos 10 m, y así aumentar el efecto de interferencia. El dispositivo descansaba sobre una gran piedra que flotaba en mercurio.

El experimentador iba observando el patrón de franjas mientras hacía rotar lentamente la piedra. Hicieron miles de mediciones en diferentes puntos de la órbita terrestre y nunca notaron ni siquiera el mínimo corrimiento en el patrón de franjas. La orientación de los rayos de luz con respecto al movimiento de la Tierra no parecía afectar el movimiento de aquéllos. Algunos años más tarde, Michelson también investigó interferométricamente la posibilidad de que la Tierra arrastrara con ella al éter y demostró que esto tampoco era posible. La teoría del éter fue abandonada.

Dilatacion de un Gas a Presion Constante Leyes y Ejemplos

DILATACION DE UN GAS A PRESIÓN CONSTANTE – LEYES FÍSICAS

La temperatura es la expresión, para nuestros sentidos, del estado de agitación de las moléculas. Por esta razón, existe un cero absoluto, que corresponde a las moléculas inmóviles, y más abajo del cual no se puede descender.

Con la elevación de temperatura las moléculas se mueven con mayor vigor y tienden a liberarse de las fuerzas que las unen: los solides funden y los líquidos hierven, Al enfriar se repiten los mismos procesos en orden inverso, y desde el gas se llega hasta el sólido.

Con el incremento de temperatura todos los cuerpos se dilatan debido a que el mayor sacudimiento de sus moléculas los obliga a ocupar más espacio.

En los sólidos y los líquidos, que son prácticamente incompresibles, las variaciones de volumen son evidentes . Pero los gases son muy elásticos; si el recipiente que los contiene es rígido, sólo se aprecia un aumento de presión, puesto que el gas no tiene posibilidad de dilatarse.

En notas ulteriores veremos la equivalencia entre temperatura y presión en los gases perfectos. Un gas perfecto se distingue de un vapor en que sólo el segundo puede ser licuado, merced a un simple aumento de presión. El gas perfecto necesita, además, ser enfriado hasta una temperatura llamada crítica para convertirse en vapor.

 EJEMPLO PRÁCTICO DE DILATACIÓN

Los gasómetros clásicos reciben en forma continua el gas producido por la fábrica, y lo distribuyen de acuerdo con el consumo. Se componen de un cilindro inferior fijo que recibe el gas y contiene cierta cantidad de agua; dentro de esta vaina se desliza, subiendo o bajando, un recipiente cilíndrico invertido, cuyo peso suministra la presión para las tuberías que distribuyen el fluido. Cuando se acumula mucho gas, el recipiente está alto; cuando la reserva declina, el recipiente desciende y la altura del gasómetro disminuye.

En un gasómetro reina pues una presión constante, la que engendra el peso de su recipiente superior. Se observa que si la temperatura se eleva en sólo dos grados, un gasómetro de 18 metros de altura crece en casi 13 cm. Este fenómeno se debe a la dilatación del gas, y es fácil de calcular a base de las explicaciones impresas sobre fondo rosado: por cada grado que se suma el volumen aumenta en 1/273 del que ocupaba a 0°. Basta multiplicar 18 metros por 2 grados y dividir por 273; para un cálculo más exacto se tendrá en cuenta las temperaturas ambientes, inicial y final. Recuérdese que el gasómetro se dilata sólo en altura, y no en las otras dos dimensiones.

En ciertos globos de juguete se enciende luego en la parte inferior para calentar el aire que contienen. El gas caldeado y dilatado es menos denso que la atmósfera que lo rodea, y entonces el artefacto asciende. La primera aeronave, la de los hermanos Montgolfier en 1783, se basaba en este principio. La separación de las moléculas en el gas caliente y la consiguiente disminución de densidad, explica el ascenso del humo por las chimeneas.

Globo aerostático

Cuando un gas se calienta, sus moléculas se agitan y tienden a separarse. Entonces, la masa gaseosa ocupa un volumen mayor, y, por ende, su peso específico (peso por unidad de volumen) disminuye. De aqui que el aire caliente sea más liviano que el frío y ascienda, hecho fundamental en meteorología. El primer viaje aéreo, el de los hermanos Montgolfier hace casi dos siglos, se basaba en este fenómeno.

Experimento con gases

Figura Arriba: Experimento para medir la dilatación de un gas cuando la presión que soporta no se modifica. Se sabe que dicha presión invariable se ha mantenido cuando las dos columnas de mercurio llegan a la misma altura, equilibrándose (si la presión del gas contenido en el matraz hubiera aumentado, empujaría al mercurio, en contacto con él). Se logra igualar las columnas de mercurio mediante el tubo inferior, de caucho. A la izquierda, el baño de agua es frió; a la derecha es caliente y el gas se dilata. Se restablece la presión anterior bajando la salida del tubo. Las mediciones de temperatura y dilatación se llevan a cabo con un termómetro y una regla.

Gráfica de gases

Figura 2. Hace un siglo y medio se midió empíricamente la dilatación de los gases a presión constante en la forma descrita en la figura 1. La experiencia, que consiste esencialmente en calentar un .matraz de gas seco dentro de un baño e igualar las presiones inicial y final, muestra que el volumen de un gas a 0°C se duplica cuando llega a los 273 °C, se triplica a los 564°C (2 x 273), y así sucesivamente. En suma, el coeficiente de dilatación de los gases es constante.

Los científicos de entonces dedujeron que si se enfriara un gas a 273°C bajo cero su volumen se anularía. Denominaron a dicha temperatura «cero absoluto»; el gráfico muestra, hacia la izquierda, esta prolongación teórica de los resultados experimentales (técnicamente, la extensión gráfica se llama «extrapolación» de los resultados).

La ciencia moderna confirma casi exactamente el valor del cero o fría absoluto. Los especialistas suelen emplear la llamada «escala absoluta», que comienza en dicho punto, y entonces se habla de «grados Kelvin»: por ejemplo 0°C es igual a 273°K, y así sucesivamente (basta sumar 273 a la temperatura ordinaria).

Pero es evidente que el volumen de un gas nunca puede reducirse a nada y, por añadidura, los gases se licuan antes de alcanzar el cero absoluto. Si tomamos un gas sometido a presión constante en los instantes 1 y 2, y llamamos V1, V2, T1 y T2 los respectivos volúmenes y temperaturas, podemos expresar matemáticamente la ley que establece que el volumen de un gas varía en relación directa con la temperatura absoluta, con

la fórmula siguiente: V1/T1=V2/T2.

Esta ecuación, que traduce la proporcionalidad entre volúmenes y temperaturas., se utiliza con frecuencia.

Fuente Consultada:

Revista TECNIRAMA N°17.

FÍSICA II Polimodal.

CONSULTORA Enciclopedia Temática Ilustrada Tomo 10 El Mundo Físico.

Biografia de Gauss Carl Los mas importantes matematicos de la historia

Biografía de Gauss Carl
Importantes Matemáticos de la Historia

Gauss Carl Grandes Matemáticos de la Historia

Junto a Arquímedes y Newton, Gauss es sin duda uno de los tres genios de la historia de las Matemáticas. Sus aportaciones en todos los campos matemáticos fueron increíbles, aunque algunos de sus descubrimientos tuvieran que esperar más de un siglo para ser valorados debidamente.

Las aportaciones de Gauss en todos los campos de la Matemática son inestimables: Teoría de números, Astronomía, Magnetismo, Geometría, Análisis…

Cualquier gran descubrimiento matemático a lo largo de este siglo encuentra detrás la alargada sombra de Gauss. Sólo en Francia otra figura es capaz de hacerle sombra, Cauchy, dando paso, o mejor obstaculizando, a dos jóvenes genios: Abel y Galois.

CARL FRIEDRICH GAUSS
El príncipe de las matemáticas
….cuando el famoso viajero y aficionado a las ciencias barón Alexander von Humboldt preguntó a Laplace quién era el más grande matemático de Alemania, Laplace replicó Plaff. «Y entonces Gauss, ¿qué?», preguntó el asombrado von Humboldt. «Oh, – dijo Laplace-, Gauss es el mayor matemático del mundo.»

SU VIDA
Nacido en Brunswic, el 30 de abril de 1777, de familia humilde. Su padre se opuso siempre a que su hijo tuviera una educación adecuada a sus posibilidades. Sin embargo, cuando su padre murió en 1806, Gauss ya había realizado una obra inmortal. En el lado opuesto, su madre Dorothea Benz y el hermano de ésta, Friedrich, fueron fundamentales en la educación y posterior carrera del genio.

El apoyo de su madre y tío pudieron con la intención de su padre de mantener a Gauss en la gnorancia. Tan grande fue el cariño que Gauss sintió por su madre que se ocupó de ella los últimos 20 años de la vida de ésta despreocupándose de su fama y carrera.


Son muchas las anécdotas que muestran la precocidad intelectual del pequeño Gauss. Con tres años se permitió corregir los cálculos que realizaba su padre cuando éste laboraba la nómina de sus empleados.. Con anterioridad ya había aprendido a leer. Destacaba también su capacidad para el cálculo mental

A los siete años ingresó en su primera escuela, dirigida por un tal Büttner, personaje que no destacaba precisamente por sus dotes pedagógicos. De esta época se cuenta que a los 10 años , cuando fue admitido en la clase de aritmética, sorprendió a todos por la rapidez y procedimiento seguido en la resolución de un problema del tipo «Halla la suma de los 100 primeros números enteros».

Gauss agrupó los números en 50 parejas de números que sumaban 101 La sorpresa de Büttner fue tal, que de su propio bolsillo, regaló al joven el mejor texto asequible de Matemáticas.

La casualidad hizo que el joven ayudante de su maestro, Johann Martín Bartel, fuera también un apasionado de las matemáticas. Ambos pasaron muchas horas juntos estudiando, ayudándose en las dificultades y ampliando demostraciones. En esta época se producen sus primeros trabajos sobre el teorema del binomio.

El propio Batels, por medio de algunos de sus influyentes amigos, consiguió presentar a Gauss al Duque de Brunswic, Carl Wilhelm Ferdinand en 1791. A partir de entonces el duque se encargó de pagar la educación de Gauss.

En Febrero de 1792 Gauss ingresó en el colegio Carolino, donde estudió durante tres años, conociendo la obra de Euler, Lagrange y, sobre todo, los Principia de Newton. Cuando dejó el colegio, en Octubre de 1795, aún no había decidido si se dedicaría a las matemáticas o a la filología.

En 1796, un mes antes de cumplir los 19 años, Gauss consiguió la construcción de un polígono regular de 17 lados con regla y compás , como se exigía en la Geometría desde Grecia. Algunos autores consideran este hecho fundamental para que Gauss se decidiera por las matemáticas y no por la filología.

A los 19 años había descubierto por si solo un importante teorema de la teoría de los números, la ley de la reciprocidad cuadrática. Después de su regreso a Brunswic en 1799, el duque tuvo que ser convencido para seguir con su ayuda económica a Gauss. Como contrapartida debió presentar su tesis doctoral en la Universidad de Helmstedt. En su tesis Gauss dio la primera demostración del teorema fundamental del álgebra..

Quizás la obra más importante publicada por Gauss sean las Disquisitiones Arithmeticae de 1801. A partir de aquí las matemáticas puras dejan de ser el único objetivo para Gauss y comienza a interesarse por la astronomía, dedicándole la mayor parte de su tiempo durante 20 años. y no faltándole los detractores que le ridiculizaron por «malgastar»su tiempo en el cálculo de órbitas de planetas menores.

En 1809 publicó sus segunda obra maestra, Teoría del movimiento de los cuerpos celestes que giran alrededor del Sol en secciones cónicas.

El 9 de octubre de 1805, un aumento de su pensión permitió que se casara con Johanna Ostoff. De este feliz matrimonio (Gauss lo considera así en una carta dirigida a su amigo Wolfgang Bolyai), nacieron tres hijos, José , Minna y Luis, el primero de los cuales heredó la capacidad de su padre para los cálculos mentales. Sin embargo 4 años después, con el nacimiento de Luis, su esposa murió. Al año se volvió a casar con Minna Waldeck, amiga íntima de su primera mujer, con la que tuvo dos hijos y una hija.

Su benefactor, el duque Fernando, quedó mortalmente herido tras enfrentarse a las tropas napoleónicas al frente de las fuerzas prusianas. Después de regresar a Brunswic y tras ser humillado por el propio Napoleón, el duque debió huir, muriendo en la casa de su padre en Altona, el 10 de Noviembre de 1806. La pérdida de su patrón obligó a Gauss a buscar algún medio de vida. La solución no tardó en llegar y en 1807 fue nombrado director del observatorio de Göttingen con la única obligación, si fuera necesario, de dar cursos de matemáticas a los estudiantes de la universidad. La enseñanza no fue una tarea que agradara a Gauss, solamente con buenos matemáticos se sentía cómodo impartiendo sus lecciones. En esta época debió soportar la presión de los invasores franceses y pagar una contribución involuntaria de 2000 francos a la caja de guerra de Napoleón (su orgullo no le permitió aceptar algunas donaciones para poder pagar esta multa).

A pesar de su capacidad en materias como estadística, seguros y aritmética política, Gauss no ocupó nunca un cargo político. Además de su dedicación a la Ciencia tenía sus hobbies en la lectura de la literatura europea y clásica, en su interés crítico por la política mundial, en su dominio de lenguas extranjeras y de nuevas ciencias como la botánica y la mineralogía.

Desde 1821 hasta 1848 Gauss trabajó en Geodesia. Entre 1830 y 1840 se dedicó a la física matemática, concretamente electromagnetismo, magnetismo terrestre la teoría de la atracción según la ley de Newton. Los últimos años de su vida, entre 1841 y 1855, los dedicó al «análisis situs» y a la geometría asociada a funciones de variable compleja.

Después de 20 años en los que a penas había salido de Göttingen, en junio de 1854 salió para visitar la construcción del ferrocarril entre su ciudad y Cassel. Los caballos se desbocaron y fue despedido fuera del carruaje, aunque no tuvo ningún daño, si sufrió un fuerte «shock». Después de recuperarse llegó a presenciar la inauguración del ferrocarril a Göttingen.

A principios de 1855 comenzaron a aparecer los síntomas de su última enfermedad. Con dificultades, siguió trabajando hasta que murió pacíficamente el 23 de febrero de 1855.

SU OBRA
Las contribuciones de Gauss a las matemáticas van desde la más pura teoría de números hasta los problemas prácticos de astronomía, magnetismo y topografía. Realizó grandes aportaciones en todas las ramas de las matemáticas en las que trabajó. Llegó a publicar alrededor de 155 títulos, sin embargo se caracterizó por no presentar los trabajos que no creyera haber pulido hasta la perfección.

El polígono
Dejando de lado las curiosas anécdotas de su infancia, la primera aportación de Gauss a las matemáticas fue la construcción del polígono regular de 17 lados. Los primeros en tratar el tema, la escuela geométrica ligada a Pitágoras, Eudoxo, Euclides y Arquímedes, impusieron para las construcciones geométricas la condición de que sólo podría utilizarse regla y compás.

Gauss no sólo logró la construcción del polígono de 17 lados, también encontró la condición que deben cumplir los polígonos que pueden construirse por este método: El número de sus lados ha de ser potencia de dos o bien, potencia de 2 multiplicada por uno o más números primos impares distintos del tipo llamado números primos de Fermat.

Gauss demostró este teorema combinando un razonamiento algebraico con otro geométrico. Esta técnica utilizada para la demostración, se ha convertido en una de las más usadas en matemáticas: trasladar un problema desde un dominio inicial ( la geometría en este caso) a otro (álgebra) y resolverlo en este último.

Las Disquisiciones
En 1801, cuando contaba con 24 años, Gauss publicó su primera gran obra «Disquisitiones Arithmeticae», obra tan importante para la teoría de los números como la obra de Euclides para la geometría. Además de organizar lo ya existente sobre los números enteros, Gauss aportó ideas propias. Fundamentó su teoría a partir de una aritmética de números congruentes que utilizó en la demostración de importantes teoremas, quizás el mas famoso de todos y el favorito de Gauss sea la ley de reciprocidad cuadrática, que Gauss llamó teorema áureo. En esta obra se muestra claramente una tendencia en todo el trabajo de Gauss, en sus demostraciones se elimina toda traza que pueda hacer ver el proceso que las ha hecho posibles. Esto ha sido un elemento negativo para las generaciones siguientes que han tenido muchos problemas para comprender los métodos empleados por Gauss.

No se puede dejar sin señalar la aportación de Gauss a la teoría de números complejos. Después de que en el Renacimiento se asignaran a estos números propiedades místicas y descripciones caprichosas, Gauss fue más práctico y los represento geométricamente mediante puntos en el plano, además de aceptarlos y emplearlos como objetos matemáticos puros. En 1811 Gauss demostró el hoy llamado teorema de Cauchy (él no llegó nunca a publicarlo). También elaboró un método para descomponer los números primos en producto de números complejos.

Un nuevo planeta

El descubrimiento del «nuevo planeta», llamado posteriormente Ceres, el primer día del siglo XIX por el astrónomo Giuseppe Piazzi, sedujo enormemente al joven matemático. Era necesario determinar con exactitud la órbita de Ceres para ponerlo de nuevo al alcance los telescopios, Gauss acepto este reto y Ceres fue redescubierto un año después, en el lugar que el había predicho con sus detallados cálculos. Su técnica consistió en demostrar como las variaciones en los datos de origen experimental podían representarse mediante una curva acampanada (hoy conocida como campana de Gauss). También utilizó el método de mínimos cuadrados. Parecido éxito tuvo en la determinación de la órbita del asteroide Pallas, teniendo en cuenta en sus cálculos, las perturbaciones producidas por los otros planetas del sistema solar.

Gauss y la Geodesia
Hacia 1820 Gauss comenzó a trabajar en geodesia (determinación de la forma y tamaño de la tierra), tanto de forma teórica como e forma práctica. En 1821 se le encargo, por parte de los gobiernos de Hannover y Dinamarca, el estudio geodésico de Hannover. A tal fin Gauss ideó el heliotropo, instrumento que refleja la luz del Sol en la dirección especificada, pudiendo alcanzar una distancia de 100 Km y haciendo posible la alineación de los instrumentos topográficos.

Trabajando con los datos obtenidos en sus observaciones elaboró una teoría sobre superficies curvas, según la cual, las características de una superficie se pueden conocer midiendo la longitud de las curvas contenidas en ella. A partir de los problemas para determinar una porción de superficie terrestre surgieron problemas más profundos, relativos a todas las superficies alabeadas, terminándose por desarrollar el primer gran periodo de la geometría diferencial.

En el mundo del magnetismo
A partir de 1831 comenzó a trabajar con el físico Wilhelm Weber en la investigación teórica y experimental del magnetismo Ambos inventaron un magnetómetro y organizaron en Europa una red de observaciones para medir las variaciones del campo magnético terrestre. Gauss pudo demostrar el origen del campo estaba en el interior de la tierra. Gauss y Weber trabajaron también con las posibilidades del telégrafo, el suyo, fue probablemente el primero que funcionó de manera práctica, adelantándose en 7 años a la patente de Morse.

Después de su muerte se supo que Gauss había encontrado la doble periodicidad de las funciones elípticas.

Gauss se encuentra entre los primeros en dudar de que la geometría euclídea fuese inherente a la naturaleza humana. El axioma de las paralelas, básico en la geometría euclídea, había sido objeto de estudio a lo largo de siglos, intentándose demostrar a partir de los restantes axiomas de Euclides sin resultado alguno. Algunas de sus anotaciones hacen ver que Gauss pensaba que podría existir una geometría en la que no se verificase el axioma de las paralelas. En 1820, Janos Bolyai, llegó a la conclusión de que la demostración del teorema de las paralelas era imposible y comenzó a utilizar una nueva geometría que no utilizara el axioma de Euclides. Tres años más tarde publicó sus resultados, estos fueron acogidos de manera muy fría por el propio Gauss, señalando que él ya había llegado a esas conclusiones muchos años antes.

La característica principal de la obra de Gauss, especialmente en matemática pura es haber razonado con lo particular como si fuera general.

SU ÉPOCA
LA REVOLUCIÓN INDUSTRIAL.

La primera gran revolución industrial tuvo lugar en Inglaterra, a finales del siglo XVIII. Supuso el paso de una economía agrícola a otra caracterizada por procesos de producción más mecanizados El trabajo se trasladó de la fabricación de productos primarios a la de bienes manufacturados y servicios.

Se crearon grandes fábricas para sustituir a los pequeños talleres familiares. Estas fábricas se concentraron en áreas geográficas reducidas, iniciándose las migraciones desde las zonas rurales a las nuevas áreas industriales. Esta nueva estructura económica tuvo como consecuencia la aparición de nuevas clases sociales.

La Revolución Industrial supuso, al principio, una reducción del poder adquisitivo de los trabajadores y una pérdida de calidad en su nivel de vida. Más tarde, se tradujo en un aumento de la calidad de vida de toda la población del país industrializado.

LA REVOLUCIÓN FRANCESA.
Entre los años 1789 y 1799 se desarrolló en Francia una revolución que términó con el derrocamiento de Luis XVI y la proclamación de la I República, con lo que se pudo poner fin al Antiguo Régimen en este país. Entre las causas que tuvieron como consecuencia este cambio social podemos destacar los excesivos impuestos y el empobrecimiento de los trabajadores, la incapacidad de las clases gobernantes (nobleza y clero) para hacer frente a los problemas de Estado y la agitación intelectual alentada por el Siglo de las Luces.

Actualmente se tienden a minimizar las razones sociales y se consideran las razones políticas como principales causantes de la revolución.

Toma de la Bastilla, 12 de julio de 1789; Se considera la toma de la Bastilla, el 12 de julio de 1789 como punto de arranque de la revolución. La creada Asamblea nacional constituyente aprobó una legislación por la que quedaba abolido el régimen feudal y señorial y se suprimía el diezmo. En otras leyes se prohibía la venta de cargos públicos y la exención tributaria de los estamentos privilegiados. La Asmblea pasó después a elaborar una constitución fundada en los principios de Libertad, Igualda y Fraternidad.
El primer borrador fue aprobado por el propio monarca el 14 de julio de 1790. En octubre de 1793 Luis XVI fue guillotinado.

El Atomo Composicion Energia Nuclear Electrones y Protones Particulas

El Atomo Composición Energía Nuclear
Electrones y Protones Partículas

https://historiaybiografias.com/linea_divisoria1.jpg

LISTA DE TEMAS TRATADOS:

1-¿Que es un Atomo?
2-La Energía Nuclear y sus Usos
3-La Física Moderna
4-La Fisión Nuclear
5-Partículas Elementales
6-Vida de Max Planck
https://historiaybiografias.com/linea_divisoria1.jpg

UN POCO DE HISTORIA…
La crisis de la Física clásica

atomoEn los últimos años del siglo XIX se creía que la Física, como disciplina teórica, se encontraba prácticamente terminada. Las leyes de Newton para la dinámica y las ecuaciones de Maxwell para los fenómenos electromagnéticos permitían explicar satisfactoriamente todos los fenómenos conocidos.

Sin embargo esta Física, a la que se suele llamar Física clásica, resultó ser insuficiente cuando pretendía explicar los comportamientos de los átomos y sus componentes, por un lado, y los nuevos descubrimientos astronómicos, por otro.

La Física clásica, útil para describir el entorno directamente observable, no era aplicable para interpretar el mundo subatómico (interior de los átomos) y el Cosmos.

Los datos recogidos en uno y otro campo dieron lugar a la aparición de dos nuevas ramas de la Física: la Mecánica cuántica, para explicar los comportamientos de las partículas elementales, y la Relatividad, para interpretar el Universo que llegaba a través de los telescopios.

A partir de ahora vamos a explicar someramente como está constituido un átomo, es decir, cuales son las partículas básicas que los conforman y como funciona interiormente mediante un modelo atómico que ha sido conseguido mediante la observación experimental de varias de décadas.

INTRODUCCIÓN TEÓRICA: Profundizar en el conocimiento de como está constituida la materia ha sido siempre uno de los grandes objetivos del pensamiento humano.

La idea de que toda la materia que forma el mundo físico está formada por partículas muy pequeñas, separadas por espacios vacíos data ya de los filósofos griegos, especialmente de Demócrito, que vivieron en el siglo V a. C.

Los pensadores helenos se plantearon la siguiente pregunta: si tomamos un trozo de hierro, por ejemplo, y lo cortamos en partes más pequeñas, ¿se podrá seguir cortando indefinidamente o bien llegará un momento en que encontremos una partícula de hierro que sea indivisible y no pueda cortarse más? .

El filósofo Demócrito opinó que debía existir una última partícula que ya no podía ser dividida en otras más pequeñas y la denominó átomo (en griego átomo quiere decir indivisible).

Si se partiera la materia en pedazos cada vez más pequeños llegaríamos finalmente al átomo, la partícula más pequeña posible de cualquier sustancia. Los átomos son tan diminutos, que unos seis millones de ellos cabrían en el punto que concluye esta frase. Alguna vez se pensó que eran las unidades últimas e inseparables que formaban el universo. La palabra «átomo» proviene del griego átomos, que significa invisible.

Desgraciadamente, las ideas de Demócrito fueron combatidas por Aristóteles y por este motivo fueron rechazadas durante largo tiempo a causa del prestigio universal del gran filósofo griego.

A partir del siglo XIX empezaron a aparecer las primeras teorías científicas sobre la constitución de la materia, que retomaron el concepto de átomo y que posteriormente han ido imponiéndose hasta la actualidad.

daltonEl atomismo cayó rápidamente en el olvido; fue rechazado por Platón y Aristóteles, que siguieron la teoría de Empédocles sobre los cuatro elementos (fuego, aire, agua y tierra). Sigue un largo periodo que alcanza los siglos XVII y XVIII en que la investigación química se rodeó de misterio y buscó la piedra filosofal.

Las primeras evidencias de la teoría atómica se deben a Lavoisier y Proust. Es John Dalton, sin embargo, quien a principios del siglo XV sienta las bases de la moderna teoría sobre el átomo. Sus trabajos sobre la composición de los gases le condujeron a formular,  en 1805, John Dalton expuso sus ideas sobre la constitución atómica de la materia, que pueden resumirse del modo siguiente:

  1. a) La materia está constituida por partículas muy pequeñas e indivisibles, denominadas átomos.
    b) Los átomos de un mismo elemento son iguales entre sí.
    c) Los compuestos están formados por átomos distintos.
    d) Los átomos de distintos elementos tienen distinta masa y distintas propiedades.
    e) La masa total de las sustancias que intervienen en las reacciones químicas no varía, ya que los átomos son invariables.

Así pues, de las ideas de Dalton se deduce que un átomo es la parte más pequeña de un elemento que puede intervenir en una reacción química mientras que una molécula es la parte más pequeña de un compuesto que conserva todas las propiedades del mismo.

El átomo es la partícula más pequeña e indivisible de un elemento químico que contiene íntegras sus propiedades. Su estudio constituye la base de la física y la química contemporáneas. Los átomos de un elemento se pueden combinar con los de otro para formar la unidad más pequeña de un cuerpo compuesto, llamada molécula, que, a su vez, se une con otras para formar los propios cuerpos compuestos.

Dalton acuñó los conceptos de peso atómico y molécula (formada por la combinación de varios átomos) y elaboró la primera tabla de elementos en 1805. Posteriormente, las nociones de átomo y moléculas no dejaron de precisarse y concretarse.

La clasificación periódica de los elementos de Mendeleiev (1869) vino a coronar los esfuerzos de los químicos y a anunciar que todo el Universo puede estar formado sólo por un centenar de átomos diferentes.

Estructura del átomo

Todo átomo está constituido por tres partes: una parte eléctricamente positiva, formada por los protones; otra eléctricamente negativa, compuesta por electrones, y una tercera integrada por minúsculas partículas neutras denominadas neutrones.

La carga electrónica del protón y la del electrón son iguales y contrarias; como los átomos suelen existir en forma neutra, el número de electrones de un átomo debe ser igual al de protones.

Los electrones ocupan el espacio más externo del átomo; y los protones se sitúan en el centro, y, con los neutrones, constituyen el núcleo.

Los electrones y los protones de todos los elementos químicos son iguales, por lo que éstos se diferencian por el número de protones, de neutrones y de electrones presente, mi su interior.

orbitas atomo

La materia es, en general, eléctricamente neutra pero en su interior existen cargas eléctricas como se pone de manifiesto, por ejemplo, en la pérdida o ganancia de electrones por frotamiento o por otros métodos.

El descubrimiento del electrón y del protón vinieron a corroborar el carácter eléctrico del átomo.

Se llama número atómico (Z) al número de protones que tiene un átomo. El número atómico es característico de cada elemento, de manera que todos los átomos de un mismo elemento tienen el mismo número de protones en su núcleo.

Se llama número másico (A) al número de nucleones que tiene un átomo. El número másico es igual al número de protones más el número de neutrones. Si se adopta como unidad de masa la masa de un protón o de un neutrón la masa de un átomo será igual a su número másico.

A pesar de tener el mismo número de protones, dos átomos de un mismo elemento pueden tener diferente número de neutrones.  Dicho de otro modo, los átomos de un mismo elemento siempre tienen el mismo numero atómico pero pueden tener distinto número másico. Se llaman isótopos los átomos de un mismo elemento que se diferencian en su número másico.

Un elemento químico está formado generalmente por una mezcla ole isótopos que se presentan con distinta frecuencia en la Naturaleza.

Tabla con el valor de la carga eléctrica en Coulomb y la masa en Kg. de cada partícula del átomo.

Tabla con el valor de la carga eléctrica

LOS DESCUBRIMIENTOS DE LAS PARTÍCULAS:  (puede ampliar este tema con profundidad: clic!)

EL ELECTRÓN:  La comunidad científica siempre dudó sobre el «átomo indivisible»  y le correspondió al investigador J.J. Thompson el descubrir esta partícula, mediante el uso de un tubo de descargas, que consiste en un tubo de vidrio provisto de dos electrodos, uno positivo o ánodo y otro negativo o cátodo, conectados a una fuente de alto voltaje (de varios miles de voltios).

Interiormente está lleno de gas a baja presión, cuando se cierra el circuito, se observa que se produce el paso de corriente a través del gas, al mismo tiempo que aparece una luminosidad que se concentra en el extremo del ánodo.

La fluorescencia que se observa en los tubos de descarga se debe a la emisión por el cátodo de ciertas radiaciones.

Estas radiaciones, o rayos catódicos poseen propiedades especiales, que permitió a Thompson deducir que los rayos catódicos están formados por cargas eléctricas negativas que llamó electrones, y son partículas que se encuentran presentes en toda la materia.

PROTÓN:  Puesto que la materia en conjunto es eléctricamente neutra y los electrones tienen carga negativa, cada átomo debe tener una carga positiva exactamente igual a la carga debida a sus electrones. Ahora bien, ¿cómo se distribuye dicha carga?

Rutherford dedujo que si la carga positiva y la masa de los átomos se encuentran distribuidas uniformemente en todo el volumen atómico, cuando se bombardea el átomo de un  material con partículas alfa, que tienen carga positiva, deberán desviarse ligeramente al atravesar la lámina metálica.

ruthenfordEn 1911, Ernest Rutherford, sucesor de J. J. Thomson en la cátedra de Cambridge, bombardeó láminas delgadas de distintos metales con partículas emitidas por un isótopo radiactivo y comprobó que la mayoría de las partículas atravesaban la lámina metálica sin experimentar desviación, pero que una pequeña parte se desviaba ligeramente y otra pequeña fracción rebotaba y volvía hacia las proximidades del centro emisor de las partículas.

Para explicar los resultados obtenidos, Rutherford supuso que la carga positiva del átomo se hallaba concentrada en una zona muy pequeña del átomo a la que denominó núcleo, que además contenía la práctica totalidad de la masa del átomo.

Los electrones giraban alrededor del núcleo describiendo trayectorias circulares, de modo que la fuerza centrífuga quedaba compensada por la fuerza de atracción electrostática que el núcleo ejercía sobre ellos.

Con esta explicación, Rutherford dio un paso gigantesco en la comprensión de la estructura atómica.

Sin embargo, pronto se plantearon objeciones al modelo atómico de Rutherford.

En efecto, según la teoría electromagnética clásica, una carga eléctrica en movimiento debe emitir energía. Así pues, al girar los electrones alrededor del núcleo debían emitir energía, de modo que sus trayectorias no podían ser circulares sino que debían ser espirales de radio decreciente hasta que, finalmente, los electrones se precipitaran en el núcleo. Es decir, el átomo imaginado por Rutherford era inestable.

EL NEUTRÓN: El átomo de helio contiene dos protones, por lo que cabría esperar que su masa fuera el doble de la masa de un protón (2 • 1,67 • 10-27 kg = 3,34 • 10-27 kg); sin embargo, la masa medida experimentalmente, 6,69 • 10-27 kg, es más del doble de la esperada.

cientificoEsta diferencia entre la masa calculada y la masa medida puede explicarse si se admite que los átomos contienen otras partículas, sin carga eléctrica, además de los protones y los electrones.

En 1932, el físico inglés James Chadwick descubrió que los núcleos de berilio podían emitir partículas sin carga eléctrica. Estas partículas, procedentes del núcleo, recibieron el nombre de neutrones. La masa de cada una de estas partículas era aproximadamente igual a la masa del protón.

La diferencia entre la masa real de un núcleo y la masa debida exclusivamente a los protones corresponde a la masa de los neutrones que contiene dicho núcleo.

EL EFECTO FOTOELÉCTRICO: A principio del siglo XX, había un fenómeno físico que se llamaba radiación del cuerpo negro, que explicarlo mediante las herramientas de la física clásica de ese momento era casi imposible.

Un científico llamado  Max Planck estudió profundamente este efecto y mediante originales postulados físicos formuló una nueva teoría sobre la energía que hoy la llamamos cuántica, que mas tarde se recurrirá a ella para explicar otros fenómenos naturales como el fotoeléctrico y también permitirá definir un nuevo y mas real modelo atómico.

El efecto fotoeléctrico consiste en la emisión de electrones por un metal cuando sobre él incide un rayo luminoso de una frecuencia determinada.

Si la luz fuera una onda, cualquier tipo de luz debería ser capaz de provocar la emisión de electrones, es decir, arrancar electrones de un material, siempre y cuando tuviera la suficiente intensidad.

También se observaba que se producía este efecto, también a la vez, se emitía una radiación electromagnética que impresionaban una placa fotográfica, creando rayas espectrales de colores y oscuras,  llamado comúnmente espectro electromagnético y que según que elemento se estudiaba los espectros tenían características diferentes.

Esto también conmovió el interés de todos los científicos. Abajo se observa un espectro de un elemento químico.

espectro

espectros

Utilizando en el laboratorio un dispositivo especial  en que esa emisión de electrones (al incidir un rayo de luz) se detecta porque produce paso de corriente a través de un circuito, se observa que el efecto fotoeléctrico no se produce con cualquier tipo de luz y que hay una frecuencia umbral por debajo de la cual no se produce este fenómeno.

Esto contradecía totalmente a lo esperado por la teoría clásica de esa época.

Para explicar este nuevo efecto, donde toda la comunidad científica estaba perpleja, el gran sabio del siglo Albert Einstein  recurre a la nueva física cuántica de Planck y explicó matemáticamente este fenómeno, que lo llevó a ganar el Premio Nobel de la Física en 1916.

Según la teoría cuántica, la energía no puede ser absorbida o desprendida de manera continua sino en pequeños paquetes o haces de energía, que son múltiplos de una cantidad mínima de energía denominada «quantum».

La ecuación de Planck E = h . v permite determinar la energía asociada a cualquier radiación, conociendo la frecuencia v de la radiación y siendo h = 6,62.10 -34 Js la constante de Planck, que es una constante universal.

En 1905, Albert Einstein explicó el efecto fotoeléctrico a partir de la hipótesis cuántica de Planck y del supuesto de que la luz, en ocasiones, no se comporta como una onda, sino como un chorro de corpúsculos, los fotones.

BohrCon todos estos nuevos elementos Bohr analizó lo siguiente: cuando un átomo en su estado fundamental recibe energía bien sea por calentamiento o por la acción de una radiación se convierte en un átomo excitado. Cuando cesa la causa que produce la excitación, el átomo se desactiva emitiendo radiaciones que impresionan placas fotográficas produciendo una serie de rayas, que constituyen el espectro atómico del átomo correspondiente.

A cada raya del espectro le corresponde una energía determinada, cuyo valor depende de su frecuencia, de acuerdo con la ecuación de Planck. En el caso del átomo de hidrógeno, el espectro atómico consta de varias series de rayas.

Bohr estableció una serie de postulados, que constituyen el modelo atómico de Bohr, para intentar solventar los inconvenientes que presentaba el modelo atómico de Rutherford. Para ello, Bohr introdujo la teoría cuántica de Planck y comprobó sus resultados con los datos experimentales suministrados por los espectros.

Los postulados de la teoría atómica de Bohr son los siguientes:

  1. a) Los electrones giran alrededor del núcleo describiendo órbitas circulares sin emitir energía. Con este primer postulado Bohr intenta obviar el principal inconveniente que presentaba el modelo atómico de Rutherford, suponiendo que a nivel atómico las partículas en movimiento no emiten energía.
  2. b) Si un electrón pasa de una órbita más externa a otra más interna el átomo emite energía, de modo que la energía liberada coincide con la diferencia de energía que hay entre ambos niveles y viene dada por la expresión E = h.v. Este postulado justifica las rayas espectrales de los átomos. (v: frecuencia de la emitida por el material)
  3. c) Únicamente son posibles las órbitas en las que el momento angular del electrón es un número entero de veces h/2Pi. Este tercer postulado impide que el número de órbitas posibles sea ilimitado ya que la energía está cuantizada. (Pi=3.14)

Ejemplo del Salto de Energía Cuántico de un Electrón

Cuando un electrón pasa de una capa externa a otra interna el  valor de la energía de la radiación emitida es directamente proporcional a su frecuencia. Así, cuando un electrón salta desde una órbita de mayor energía, E2, a otra de energía menor, E1 se emitirá una radiación de frecuencia, v, cuya energía será igual a:
E2- E1 = h.v
donde h es la constante de Planck.

energia de un atomo en sus orbitas

Un determinado elemento químico siempre ofrece el mismo espectro porque todos sus átomos son iguales, de manera que en todos ellos las órbitas tienen una forma, un tamaño y una energía característicos. En consecuencia, la diferencia de energía entre dos órbitas siempre será la misma y, por tanto, la frecuencia de la radiación emitida o absorbida siempre tendrá el mismo valor.

Aplicando estas ideas y utilizando un tratamiento matemático no demasiad: complicado, Bohr calculó teóricamente las frecuencias de las líneas que aparecen en el espectro del átomo de hidrógeno .

Sin embargo. cuando intentó realizar el cálculo para otros átomos distintos del hidrógeno, los resultados teóricos no coincidían con los datos experimentales.

El modelo atómico de Bohr obtuvo un gran éxito inicialmente porque consiguió explicar con gran exactitud el valor de una importante constante (de Rydberg), que únicamente había podido ser obtenido empíricamente, así como el valor del radio del átomo del hidrógeno en su estado fundamental y el valor del potencial de ionización del átomo de hidrógeno.

Ahora bien, el modelo atómico de Bohr tan sólo era aplicable al hidrógeno y a átomos similares, los denominados átomos hidrogenoides, pero no resultaba satisfactorio para explicar los átomos polielectrónicos.

En 1915 Sommerfeld amplió el modelo atómico de Bohr, haciéndolo extensivo a órbitas elípticas. De este modo, se pudo explicar el hecho de que las rayas espectrales del hidrógeno que se creía que eran sencillas en realidad estaban formadas por varias líneas muy próximas. Es decir, que cada nivel energético estaba, en general, formado por varios subniveles energéticos.

Los valores de la energía de los electrones de un átomo dependen de una serie de parámetros denominados números cuánticos.

Los números cuánticos son: el número cuántico principal, el número cuántico secundario, el número cuántico magnético y el número cuántico de spin.

tabala resumen atomo

 MODELOS ATÓMICOS: En base a estos estudios anteriores fueron creándose distintos modelos ideales para trata de interpretar la naturaleza del átomo, sus propiedades y su funcionamiento.

  1. a) Modelo de Thompson:

 atomo pan dulce

  1. b) Modelo de Rutherford. Concepto de átomo según el cual la mayoría de la masa se localiza en el núcleo, ocupando los electrones el resto del volumen atómico, y girando en torno a aquél como los planetas alrededor del Sol. Pero esa teoría tenía un defecto: un electrón en moví miento debería radiar energía y, por tanto, el átomo no sería estable lo cual no coincidía con la realidad,atomo y sus orbitas

Los electrones giraban alrededor del núcleo describiendo trayectorias circulares, de modo que la fuerza centrífuga quedaba compensada por la fuerza de atracción electrostática que el núcleo ejercía sobre ellos. Con esta explicación, Rutherford dio un paso gigantesco en la comprensión de la estructura atómica. Sin embargo, pronto se plantearon objeciones al modelo atómico de Rutherford. En efecto, según la teoría electromagnética clásica, una carga eléctrica en movimiento debe emitir energía. Así pues, al girar los electrones alrededor del núcleo debían emitir energía, de modo que sus trayectorias no podían ser circulares sino que debían ser espirales de radio decreciente hasta que, finalmente, los electrones se precipitaran en el núcleo. Es decir, el átomo imaginado por Rutherford era inestable.

  1. c) Modelo de Bohr: Concepto del átomo en que se suponía a los electrones situados en un número limitado de órbitas circulares alrededor del núcleo (estado estacionario). Las emisiones o absorciones de radiación electromagnética se producirían únicamente cuando alguno de los electrones pasase de una órbita a otra. Este modelo surgió de su colaboración con Rutherford, y revolucionó la física atómica. Bohr combinó el modelo con la teoría cuántica de Planck y as teorías de Einstein, enunciando los  siguientes postulados:

1) El átomo posee cierto número de órbitas estacionarias, en las que los electrones no emiten energía aunque se muevan.

2) El electrón gira alrededor del núcleo de tal manera que la fuerza centrifuga equilibra exactamente la atracción electrostática de las cargas opuestas.

3) El momento angular del electrón en un estado estacionario es un múltiplo de h/2Pi, donde h es la constante cuántica universal de Planck.

4) Cuando un electrón pasa de un estado estacionario más energético a otro inferior (más próximo al núcleo), la diferencia de energía se emite en forma de un cuanto de radiación electromagnética (fotón). Inversamente, un electrón sólo interacciona con un fotón cuya energía le permita pasar exactamente de un estado estacionario a otro de mayor energía.

capas de un atomo

  1. d) Modelo  de Sommerfeld. Concepto de átomo desarrollado a partir del de Bohr, pero considerando las órbitas elípticas y dotadas de otros dos números cuánticos: el acimutal, que define la forma de la órbita elíptica del electrón; y el magnético, del que depende la orientación de la órbita en el espacio. Posteriormente, Pauli añadió el cuarto, el spin. También introdujo en el átomo conceptos relativistas: la masa del electrón varía como consecuencia de su velocidad.

El conocimiento del átomo se completó con la ecuación de onda de Schródinger, el principio de dualidad onda-corpúsculo, el principio de incertidumbre de Heisenberg y el concepto de orbital. Actualmente se sabe que el átomo está constituido por un determinado número de partículas elementales, fundamentalmente protones, electrones y neutrones, y que es eléctricamente neutro.

Se distinguen en él dos partes principales: el núcleo, que contiene los protones y los neutrones, es muy pesado (representa el 99,9% de la masa total) y lleva toda su carga positiva; y los electrones, situados en orbitales alrededor del núcleo, y en el mismo número que los protones para que neutralicen la carga nuclear.

botonVer: Dualidad de la Materia, Onda o Partícula?

Ver Tambien:

Naturaleza de la Materia
Las Particulas Subatomicas del Universo
El Polvo Cosmico y Sus Componentes

Derretimiento Casquetes Polares Hielo de los Polos
Geometria No Euclidiana El Espacio Curvado de Einstein
La Vida Media de un Isotopo Quimico
El Efecto Coriolis en el Planeta Tierra
Los gases nobles Gases Inertes Argon Neon Helio

Historia del Descubrimiento de la Fuerza de Gravedad Por Newton

Historia del Descubrimiento de la Fuerza de Gravedad Por Newton, Obra Cientifica –

El rol de las manzanas en la elaboración de la Teoría de La gravedad de Newton puede ser tan anecdótico como la manzana que originó la expulsión de Eva del Paraíso, la manzana de París que desencadenó la Guerra de Troya o la manzana de Guillermo Tell.

Uno de los mayores avances de la historia de la ciencia fue la comprensión por Isaac Newton de que las leyes de la gravedad son aplicables a la Luna y otros cuerpos celestes igual que a los objetos cercanos a la superficie terrestre.

Animado por Edmond Halley y Robert Hooke, finalmente creó las fórmulas matemáticas y las consignó en sus Principia, el libro científico más importante publicado jamás.

Newton y la Ley de Inercia y GRavedad

Newton reflexionó mucho y llegó a concebir ideas, que cambiaron completamente el concepto humano acerca del Universo. He aquí su modo de razonar:
«La manzana cae por la atracción de la Tierra», (esta no era una idea nueva). Quizás la manzana también atrae a la Tierra, (esta sí era una idea nueva). Puede ser que las manzanas se atraen entre sí. Es posible que todos los cuerpos se atraen entre sí, (aquí estaba llegando Newton más lejos que las ideas científicas de entonces, dando de inmediato el gran paso). Tal vez la fuerza de atracción gravitacional entre varios objetos actúa incluso a muy grandes distancias; así, la Tierra y la Luna se atraen mutuamente, igual que el Sol y los planetas y, posiblemente, que el Sol y las estrellas.

Al parecer, Newton tuvo los primeros atisbos de una idea sobre la gravitación universal en 1665-1666, su época creativa más fructífera.

Muchos años después afirmó que el concepto de gravedad aplicable por igual a los objetos que se encuentran sobre la Tierra y a las estrellas y planetas le fue inspirado por la visión de una manzana que caía de un árbol.

Según William Stukeley, biógrafo de Newton, estaban almorzando juntos en Kensington el 15 de abril de 1726 y «el día era caluroso, salimos al jardín y bebimos té a la sombra de unos manzanos, a solas. En medio de aquella conversación, me confesó que estaba justamente en la misma situación cuando tiempo atrás le vino a la mente la idea de la gravitación».

Newton le refirió que vio caer una manzana y se preguntó: «¿Por qué la manzana cae siempre perpendicular al suelo? ¿Por qué no lo hace de lado, o hacia arriba? Sin duda, la razón es que la tierra la atrae; debe existir un poder de atracción en la materia, y la suma del poder de atracción en la materia de la tierra debe estar en su centro».

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton se preguntó acerca de la extensión de la atracción de la gravedad; evidentemente, llegaba desde el centro de la Tierra hasta la copa del manzano, pero ¿podría llegar hasta la Luna?.

Si así fuera, seguramente afectaría a su órbita. De hecho, ¿podría controlar la órbita de la Luna?.

Hizo algunos cálculos y «parecían responder bastante aproximadamente».

Esta teoría destronó la noción aristotélica de que los cuerpos celestes eran muy diferentes de la Tierra y sin conexión con ella. También negaba las teorías del filósofo y matemático Rene Descartes, según las cuales estrellas y planetas giraban en vórtices.

Fue una idea revolucionaria, pero el hecho de que, se le ocurriera en 1665-1666 en un destello de genialidad es discutible; al parecer no mencionó el episodio de la manzana hasta 1726, sesenta años después de suceso.

La teoría pudo ser resultado de años de trabajo, y probablemente debía tanto a su síntesis de la obra de otros grandes científicos –Copérnico, Kepler, Galileo y Hooke– como a su propio genio natural.

La vinculación entre la fuerza que mantiene a la Luna orbitando alrededor de la Tierra y la que provoca la caída de los cuerpos librados a su propio peso, es en cambio mucho menos anecdótica y forma parte de la obra de Newton (1642-1727), publicada en los Principia (Philosophiae Naturalis Principia Matematica) de 1687, quien le dio sustento matemático y físico, basándose en el andamiaje experimental proporcionado por Kepler y en el esquema de pensamiento elaborado por Galileo.

Hoy, las mismas ideas que explican la caída de las manzanas y el movimiento orbital de los planetas, este enorme edificio intelectual cuya construcción comenzó hace más de 400 años, son utilizadas por los modernos vehículos espaciales para recorrer el espacio interplanetario y han permitido que un producto humano, el Voyager 2, se encuentre ya fuera de los confines de nuestro sistema planetario, vagando por el medio interestelar.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalUno de los problemas que presentaba el movimiento de la Tierra para el sentido común era por qué los cuerpos tirados hacia arriba caen esencialmente sobre el lugar desde el que fueron arrojados si durante su trayectoria en el aire no deberían seguir el movimiento de la Tierra. Galileo introdujo el concepto de inercia, que permite resolver esta aparente paradoja.

La inercia es la tendencia que posee todo cuerpo en movimiento a continuar en movimiento (como el caso de un jinete cuyo caballo se detiene súbitamente). Una piedra arrojada desde el mástil de un barco en movimiento cae al pie del mismo y no detrás, ya que comparte el movimiento del barco.

Es sencillo entender con este principio por qué los pájaros, las nubes y la atmósfera en general no quedan detrás de la Tierra en movimiento.

La experiencia nos muestra que los objetos están inmóviles a menos que alguna fuerza actúe sobre ellos.

Cualquier objeto abandonado a sí mismo, si no se mueve permanecerá quieto y si se está moviendo llegará finalmente a su estado «natural” de reposo: una pelota picando alcanzará cada vez una altura menor hasta que finalmente terminará por detenerse; si la pelota está rodando se detendrá al cabo de un tiempo, a no ser que alguien la empuje o que se mueva sobre un plano inclinado.

La Luna y los planetas, en cambio, han permanecido en movimiento a través de los siglos y éste parece ser su estado “natural”; es necesario entonces encontrar cuál es la fuerza que les impide quedarse quietos o qué los hace diferentes de los objetos que existen sobre la Tierra.

La aparente contradicción entre los estados “natural” de los distintos cuerpos fue atacada científicamente por primera w por Galileo y Newton.

La clave de su resolución está en distinguir distintos tipos de movimiento y en reconocer que no hay nada de particular e el estado de reposo. Newton enunció las leyes que permiten describir el movimiento de los cuerpos.

La primera ley establece que un cuerpo en repos. o que se mueve en línea recta a velocidad constante permanecerá en reposo o en movimiento uniforme a menos que sobre ellos actúe una fuerza ex terna.

¿Cómo explicar entonces que la pelota se detenga? Para frenar o acelerar un cuerpo, es decir para apartarlo de su movimiento rectilíneo uniforme es necesario aplicar una fuerza. En el caso de la pelota, esta fuerza se llama fricción o rozamiento y es un proceso muy complicado que todos hemos usado alguna vez, por ejemplo para frenar la bicicleta apoyando unen el suelo.

Isaac Newton comprendió que no había nada que explicar respecto de la velocidad uniforme, lo que requiere explicación son los cambios de velocidad, o más precisamente de momento, siendo éste proporcional a la velocidad (la constante de proporcionalidad es la masa del cuerpo); es decir, cómo cambia la velocidad en presencia de una fuerza. Estos cambios de velocidad, llamados aceleración, ocurren no sólo si la velocidad aumenta o disminuye, sino también si se modifica la dirección del movimiento.

Si viajáramos dentro de una caja cerrada con movimiento rectilíneo uniforme, según el principio de relatividad de Newton, no nos daríamos cuenta de que nos movemos, necesitaríamos alguna referencia externa. Si la caja se detiene, en cambio, o si se modifica su velocidad, reconoceríamos este cambio de movimiento

Una manera de medir la aceleración es utilizar flechas para representar la velocidad de un cuerpo: la dirección de la flecha indica el sentido del movimiento y su longitud, la magnitud de la velocidad. Comparando las flechas de velocidad en dos instantes distintos, la diferencia entre ambas representa la aceleración.

Cuando un automóvil que viaja en línea recta aumenta (o disminuye) su velocidad, la aceleración (o desaceleración) está en la misma dirección del movimiento Pero cuando el auto dobla en una curva, aunque mantenga su velocidad constante, la diferencia de direcciones de las flechas de velocidad en dos posiciones distintas sobre la curva indicará una aceleración no nula.

Esto es exactamente lo que sucede en el movimiento planetario: la flecha de aceleración de los planetas apunta siempre hacia el Sol.

Allí está la causa del movimiento: los planetas están “cayendo” permanentemente hacia el Sol, de la misma manera en que los objetos caen hacia la Tierra  si son abandonados a su propio peso: la flecha de aceleración de una manzana madura que ya no es sostenida por la rama del árbol apunta hacia el centro de la Tierra.

Esta idea de la caída de los planetas hacia el Sol o de la Luna hacia la Tierra, no parece muy adecuada ya que no vemos caer a estos cuerpos.

Sin embargo hay que pensar que si los planetas no estuvieran cayendo se alejarían cada vez más del Sol, siguiendo una trayectoria rectilínea.

En realidad fue Borelli (1608-1679), contemporáneo de Newton, quien observó que un cuerpo en movimiento circular mostraba una tendencia a alejarse del centro, la que, en el caso de los planetas, debía suponerse balanceada por algún tipo de atracción hacia el Sol.

Aparece así por primera vez la idea de que el movimiento de los planetas debía explicarse no por una fuerza actuante en la dirección en que se mueven, sino por una fuerza dirigida hacia el Sol, es decir perpendicular a la dirección del movimiento.

Independientemente del aspecto planetario este problema podría reducirse a estudiar bajo qué condiciones un cuerpo puede girar con velocidad circular uniforme.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalSupongamos que el punto A de la figura  representa la posición de un cuerpo con movimiento uniforme en un círculo centrado en 0. En este instante el cuerpo se está moviendo en dirección tangente al círculo (su velocidad se indica con la flecha AB).

En consecuencia, de acuerdo a la primera ley de Newton, si se abandona el cuerpo a sí mismo, en ausencia de todo otro cuerpo, seguirá moviéndose en la misma dirección (es decir, a lo largo de AB) y un momento más tarde se encontrará en B.

Pero en realidad se encuentra en c, sobre el círculo. Por lo tanto debe haber habido alguna influencia que hizo “caer” el cuerpo de B a C, acercándolo al centro 0. La curvatura de las órbitas de los planetas y los satélites mide el apartamiento respecto de la trayectoria rectilínea que seguirían si no hubiera otros cuerpos que causaran la desviación.

Galileo dedujo la relación (las leyes) entre las distancias recorridas por los cuerpos y los tiempos empleados en recorrerlas, para distintos tipos de movimientos (rectilíneo uniforme, uniformemente acelerado, curvilíneo).

Construyó así la tabla de datos que, junto a las leyes de Kepler, permitieron a Newton encontrar el principio físico y matemático sobre el que se sustentan.

Para imprimir a un cuerpo una aceleración se necesita una fuerza proporcional a ella. El factor de proporcionalidad, de acuerdo a la segunda ley de Newton, es la masa del cuerpo: necesitamos realizar el doble de esfuerzo para mover un cuerpo cuya masa es el doble de la de otro.

Partiendo del descubrimiento de Galileo de que todos los cuerpos caen con igual aceleración, independientemente de sus masas (el Supuesto experimento realizado en la Torre de Pisa), se puede concluir, usando la segunda ley de Newton que las fuerzas que los atraen son proporcionales a Sus masas. Es la fuerza de gravedad que actúa sobre los cuerpos en caída libre y la aceleración provocada por ella es la aceleración de la gravedad: g=GM/R2.

G es una constante conocida como la constante de gravitación universal o constante de Newton M se refiere a la masa del cuerpo que provoca la aceleración y R es la distancia entre éste y el cuerpo atraído. La tercera ley de Newton se expresa entonces matemáticamente como

F=(GmM)/R2     (1)

Así, la fuerza ejercida por la Tierra (de masa M) sobre la Luna (cuya masa representamos por m) será mucho mayor que la ejercida por la Tierra sobre una manzana (de masa mucho menor que la de la Luna), y la atracción gravitatoria entre dos manzanas será perfectamente despreciable.

Utilizando los datos de que disponía sobre la Luna, su distancia a la Tierra y su período de traslación Newton advirtió que la fuerza de atracción entre dos cuerpos satisface una ley de cuadrado inverso, es decir, disminuye como el cuadrado de la distancia que los separa, como indica la fórmula (1). Esta ecuación resume el contenido de su tercera ley o ley de gravitación universal.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton obtuvo así que la fuerza de gravedad en la Luna era menor que sobre la Tierra (un objeto de 70 Kg. sobre la Tierra pesaría 10 Kg. en la Luna).

Las diferencias entre la aceleración gravitatoria en las superficies de los planetas y en sus satélites (consecuencia de sus distintos tamaños y masas) han dado lugar a una prolífica literatura de ciencia ficción.

Se ha propuesto por ejemplo un ingenioso juego de baseball en Deimos (satélite de Marte) donde la velocidad impresa a una pelota por un bateador profesional sería suficiente para lanzarla en órbita alrededor del satélite.

El bateador podría retirarse a tomar unos mates (si fuera argentino) y volver a las 2 horas, cuando la pelota ha regresado de su órbita para lanzarla nuevamente en sentido opuesto o simplemente recuperarla.

Más allá de la diversión, la fuerza gravitatoria de un planeta es una medida de su capacidad, por ejemplo, para retener una atmósfera.

Si la fuerza de gravedad en la Tierra hubiera sido distinta, las formas de vida que se han desarrollado sobre nuestro planeta también hubieran diferido en su evolución y aspecto.

En las actuales condiciones, las aves vuelan porque mantienen el mismo peso posible: sus huesos son huecos y sus cerebros de capacidad ínfima.

Si la gravedad fuera menor estarían seguramente mejor equipadas y ocuparían tal vez un puesto más alto en la jerarquía de las especies.

La manzana y la luna from alexiscb on Vimeo.

La fuerza del niño es menor que la del adulto y la atracción de la Tierra o gravedad, que resta igual impulso a ambos proyectiles, hace que el primero alcance menor altura y caiga antes hacia la Tierra. Existe una velocidad, llamada velocidad «de escape», muy difícil de calcular porque depende de muchos factores, que permite a un proyectil lanzado verticalmente escapar definitivamente a la decreciente atracción terrestre.

Según la ley de inercia, los proyectiles lanzados por el hombre y el niño proseguirían en línea recta y con velocidad uniforme. Pero la fuerza de gravedad hace que simultáneamente vayan cayendo hacia el mar, según curvas que dependen de su velocidad inicial. Las estrellas, que forman las nebulosas o galaxias, que son como las islas del universo, no se apartan unas de otras debido a la fuerza de la gravitación, pero tampoco se concentran en una sola masa debido a la fuerza centrífuga de sus enormes velocidades individuales, que tienden a hacerlas evadir en línea recta. La galaxia gira como un sistema solar

El radio de la Luna es sólo un cuarto de! de la Tierra; su densidad relativa, 0,6 de la de ésta. Multiplicando ambas cantidades deducimos que la atracción de la Luna alcanza únicamente a la sexta parte de la gravedad de la Tierra. Un atleta que puede saltar a sólo 2 m. de altura en la Tierra, llegará a 12 m. en la Luna. Por otra parte, el peso de su cuerpo será seis veces menor, y el esfuerzo de su corazón para que su sangre vuelva desde los pies hasta la aurícula derecha, o para irrigar su cerebro, será también menor.

Una vez enunciados estos principios, Newton debía demostrar que de ser exactos, las órbitas de los planetas obedecerían las leyes experimentales de Kepler. Resolviendo las ecuaciones diferenciales que se obtienen aplicando las fórmulas newtonianas al movimiento planetario es posible deducir, con bastante exactitud, las 3 leyes keplerianas. Para elaborar su teoría Newton necesitó desarrollar la matemática del cálculo diferencial de la cual no disponía y esto fue lo que demoró la publicación de su obra.

Esta es una situación que se encuentra a menudo en física: al no contar con las herramientas matemáticas necesarias para afrontar un problema físico, muchas veces esta disciplina motivó el desarrollo de partes de las matemáticas que posteriormente encuentran aplicación en otras áreas.

Aunque las órbitas planetarias están relativamente bien descriptas por las leyes de Kepler, de acuerdo con la ley de gravitación universal habrá perturbaciones producidas por la presencia de otros planetas en el sistema solar y de los satélites naturales.

Estas perturbaciones, proporcionales al cuadrado de sus distancias mutuas hacen que el camino de los planetas oscile alrededor de una elipse media. Silos planetas fueran mucho más masivos o si estuvieran mucho más próximos entre sí, su movimiento no podría ser descripto, ni siquiera en una primera aproximación por las leyes de Kepler (obtenidas de la llamada aproximación de dos cuerpos, que en este caso son el Sol y el planeta). Habría que resolver el denominado problema de N cuerpos, donde N se refiere al Sol, el planeta y los otros cuerpos que perturban. Los movimientos resultantes serían muy complejos.

La aplicación de la ley de la gravitación universal de Newton permitió descubrir dos planetas, Neptuno y Plutón, demostrando así su capacidad, no sólo de explicar los fenómenos observados sino también su enorme poder predictivo. El descubrimiento de un cuerpo celeste, a 4 mil millones de kilómetros de la Tierra, mediante un simple cálculo matemático, representa un hito fundamental en la historia de la ciencia. Desde fines del siglo XVIII los astrónomos tenían problemas en conciliar sus cálculos con las posiciones observadas de Urano. Aplicando la tercera ley de Newton a un supuesto cuerpo perturbador de la órbita fue posible calcular la masa y la Posición de este hipotético objeto con suficiente precisión como para descubrir Neptuno.

Los cálculos teóricos fueron publicados por U. J. Leverrier (1811-1877) en junio de 1846 y el nuevo planeta fue observado efectivamente el 23 de septiembre siguiente en el Observatorio de Berlín. El entusiasmo provocado por este descubrimiento motivó la búsqueda de un posible noveno planeta. Los datos sobre la órbita de Neptuno no eran todavía muy precisos, lo que demoró 25 años la primera observación de Plutón, desde que fuera predicho en 1905. Estos descubrimientos también muestran que la fuerza de la gravedad actúa a gran escala, al menos su influencia llega hasta los confines más exteriores del sistema solar.

El radio de la Tierra es tan enorme que a 8 Km. de altura e! peso de un objeto disminuye en sólo algo más de 2 gr. por kilogramo (puesto que la distancia aumentó en una milésima de radio, y debe elevarse al cuadrado, es decir multiplicarse por sí misma). A 15 Km. de altura un kilogramo pierde entre 4 y 5 gr. de peso. A 100 Km. la reducción es de unos 22 gr. por Kg.; a los 1.000 Km. pasa de los 200 gr. por kilo y a los 4.500 Km. el peso decrece a la mitad. Cuanto más nos alejamos tanto menor se vuelve fa atracción.

APLICACIONES Y CONSECUENCIAS
• La gravimetría es el método de elección, entre muchos, para revelar la existencia de petróleo: éste, tres o cuatro veces más liviano que las tierras que impregna, asciende hasta colocarse sobre las cúpulas de roca densa e impermeable. El gravímetro, que consiste en esencia en un peso que tira un resorte, es capaz de señalar esas diferencias locales de densidad de masa, es decir de atracción. Se lo usa en menor escala para descubrir yacimientos de hierro, sumamente densos.

• A la gravitación se deben las mareas, las órbitas de los planetas (la atracción del Sol equilibra su tendencia a escapar en línea recta), la presencia de atmósfera en la Tierra (la Luna, de atracción muy débil, perdió la suya), y la caída de la lluvia cuando las gotas alcanzan a 1/20 de mm. de diámetro (cuando son menores, las corrientes ascendentes equilibran su peso). 9 La dificultad de un vehículo espacial para escapar de la atracción terrestre se debe en primer lugar a la fricción de la atmósfera, que es ya casi nula a los 100 Km. de altura; y en segundo lugar a la gravedad terrestre, que disminuye muy lentamente.

• Se llama relación de masa en un cohete espacial a la proporción entre la masa del proyectil a la salida y el peso útil puesto en órbita. Si dicho cociente es mayor de 8, no queda margen práctico para colocar instrumentos. De allí que los cohetes tengan varias etapas.

• Se ignora por completo la naturaleza de la gravitación y se estima que se necesitarán unos 100 años para dilucidarla y «desviarla» de alguna manera.

• Los animales sometidos a una «gravedad» elevada (centrifugadora) crecen enanos; en los astronautas sin peso el calcio tiende a emigrar de los huesos a los riñones.

• Los viajeros de un avión pesan pues éste es como una plataforma sostenida por las alas.

• Para breves ensayos de falta de gravedad existe un avión especial, el C-131, que «cae» como un ascensor que bajara velozmente.

Fuente Consultada: Notas Celestes de Carmen Núñez

Ver: Conflicto Newton – Hooke Por Las Órbitas de los Planetas

El desarrollo cientifico y grandes inventos en el siglo XX

El Desarrollo Científico y Grandes Inventos en el Siglo XX

Los inventos en el siglo XX:  Desde el siglo XVII, momento en que se sitúa el nacimiento de la ciencia moderna, el progreso científico ha sido continuo. Pero es a lo largo del siglo XX cuando la investigación y la aplicación técnica de los conocimientos científicos se han desarrollado a un ritmo tan acelerado que ha transformado radicalmente la vida de los seres humanos.

En los últimos 20 años se han realizado más descubrimientos que en el resto de la historia de la Humanidad y la incorporación de principios científicos a tecnologías aplicables a la vida cotidiana se está produciendo a una velocidad incomparable con la del pasado.

La primera mitad del siglo veinte se caracterizó por el empleo de las mismas fuentes energéticas que en el siglo anterior, con el desarrollo adicional de la electricidad industrial y la búsqueda del dominio de la energía atómica.

TEMAS CIENTÍFICOS TRATADOS EN ESTE SITIO

 

En este periodo, las principales innovaciones tecnológicas fueron: en la industria, la invención creciente de aparatos domésticos, la obtención de nuevos materiales de construcción como el hormigón armado y el cristal, de fibras sintéticas para la producción textil, y de accesorios plásticos; en medicina, el hallazgo de sustancias contra las infecciones, como la penicilina y otros antibióticos; la mejora de los conocimientos en agricultura, alimentación y técnicas de conservación de alimentos; en el transporte la producción en serie del automóvil, que se convirtió en el medio predominante de locomoción, la invención del aeroplano; en los medios de comunicación el desarrollo de la cinematografía así como de la televisión creada a partir del invento del cinescopio en los años veinte.

En su segunda mitad, se ha roto con la división entre la ciencia abstracta y la aplicación técnica, con lo que la investigación científica deriva rápidamente en aplicaciones prácticas, primero en campos reducidos y, posteriormente, en la producción industrial de bienes de consumo. Así, los progresos científicos están cada vez más en el origen de los progresos técnicos, que constituyen uno de los principales motores del crecimiento económico. Además, la ciencia ha ampliado sus campos de investigación. El desarrollo, por ejemplo, de la estadística y de la informática, ha permitido transformar los métodos de cálculo y de análisis, que cada vez son menos lineales, con mayor atención a la multiplicidad de variables, con intervención de lo aleatorio y con análisis complejos. Todo ello permite aplicar métodos científicos también en las ciencias humanas (demografía, lingüística, estadística aplicada al análisis sociológico, etc.).

Desde finales de la Segunda Guerra Mundial los estudios sobre energía atómica procedente del uranio y el plutonio, desencadenaron una acelerada carrera armamentista protagonizada principalmente por Estados Unidos y la Unión Soviética, con la consecuente amenaza para la vida en el planeta que inauguró una época de temores ante una posible destrucción masiva, pero también amplió las posibilidades de desarrollo para la ciencia, con proyectos tecnológicos a gran escala. La Guerra Fría impulsó la carrera espacial y con ella la colocación de satélites artificiales que, aparte de su función militar, revolucionaron la tecnología de telecomunicaciones y prepararon el camino para la exploración del espacio donde se ha producido un logro tecnológico espectacular, al permitir que por primera vez los hombres pudieran abandonar la biosfera terrestre y regresar a ella.

Microelectrónica. En los primeros años de la década de 1950 comenzó a desarrollarse la microelectrónica como efecto de la aparición del transistor en 1948. Sin embargo, la microelectrónica sólo fue utilizada por el público en general hasta los años setenta, cuando los progresos en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la exploración del espacio, llevó al desarrollo del circuito integrado. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque más tarde la microelectrónica se desarrolló con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.

Tecnología computacional. En relación con la microelectrónica fue de gran importancia el surgimiento de la industria computacional; con la caída de los precios y el perfeccionamiento del chip de silicio producido en serie, surgieron las computadoras personales que, al poder colocarse sobre un escritorio sin necesidad de estar vinculadas a una unidad de procesamiento mayor, pudieron realizar muchas de las tareas de las computadoras centrales que eran mucho más caras.

Al contrario del impacto social negativo que algunos temían sobre el empleo laboral, las computadoras personales exigieron una capacidad de producción totalmente nueva y crearon nuevas fuentes de trabajo, en las ventas al menudeo, en la formación y apoyo técnico, en programación de sistemas tanto para el mercado de consumo como para las tareas especializadas para servicio a clientes individuales.

Durante la cuarta generación de computadoras (1982-1989), la medicina y la comunicación lograron un avance significativo. El hardware mejoró sustancialmente con los llamados sistemas circuitales distribuidos, las memorias de burbujas y los discos ópticos, obteniendo imágenes para uso médico y creando poderosísimas herramientas para la auscultación del paciente. En la quinta generación (1990-) o generación de las máquinas inteligentes se utiliza el concepto de inteligencia artificial (lA), con velocidades enormes por segundo.

REDES E INTERNET: El medio de comunicación conocido como Internet, que ha revolucionado el nutricio de las telecomunicaciones gracias a su capacidad de transmitir y obtener información de manera instantánea a través de computadoras personales, comenzó a desarrollarse a finales de los años sesenta, en el contexto de la Guerra fría, como una red informática que a su vez conectaba redes de computadoras de varias universidades y laboratorios de investigación en Estados Unidos, bajo el patrocinio de la Agencia de Programas Avanzados de Investigación (ARPA, de acuerdo a sus siglas en inglés) del Departamento de Defensa de Estados Unidos. En 1989 fue desarrollado World Wide Web por el informático británico Timothv Berners-Lee para el Consejo Europeo de Investigación Nuclear.

En los años noventa, gracias a los avances de la llamada “supercarretera de la información” se ha dado un vertiginoso crecimiento en la cantidad de usuarios de Internet, que ha cambiado de forma sorprendente la comunicación a distancia y ha colaborado a satisfacer las necesidades creadas por el mundo globalizado, al permitir que personas e instituciones puedan compartir información y trabajar en colaboración. El contenido disponible en Internet ha aumentado con gran rapidez y variabilidad, lo que permite encontrar fácilmente cualquier información, además de que posibilita la realización de transacciones económicas de forma segura, lo que ha tratado lluevas grandes oportunidades para el comercio.

Sin embargo, el crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a los riesgos que implica. El aumento de las páginas de Web conteniendo textos y gráficos en los que se denigraba a las minorías étnicas, se fomentaba el racismo o se exponía material pornográfico, ha suscitado fuertes críticas y ha conducido a peticiones de censura dirigidas a los suministradores de Internet para que voluntariamente cumplieran con determinados criterios. Otro elemento negativo de Internet se ha manifestado en la amenaza, hecha realidad en varias ocasiones, de que personas irresponsables inserten “virus” en la red causando graves daños en los equipos computacionales en el ámbito mundial.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letras escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museos, estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuentan con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y listo.

La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza. Internet constituye un instrumento importante para la movilización de capitales, ya que éstos pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Fibras ópticas: En la llamada “era de la información” no puede dejarse de lado el papel que desde los años ochenta ha tenido en diversas aplicaciones el uso de Fibras ópticas de cristal. Dada su capacidad para transmitir imágenes, las fibras ópticas se utilizan mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

En telefonía, las fibras ópticas han sustituido progresivamente a los cables coaxiales utilizados anteriormente; los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias, de manera que ofrecen mayores posibilidades para transportar un volumen mucho mayor de información con mayor velocidad de transmisión.

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Biotecnología. En el desarrollo de la biotecnología la técnica más importante es la ingeniería genética. Ésta se originó a partir de las investigaciones sobre la estructura del ADN realizadas por Francis Crick y James Dewey Watson en 1953. En la década de 1970 se llevó a cabo la transferencia de genes, es decir, la posibilidad de insertar genes de un organismo en otro, técnica de gran potencial que ha traído importantes beneficios en la lucha contra enfermedades como la hemofilia, la diabetes, la hepatitis o el SIDA. En 1973, 20 años después de que james Watson y Francis Chick publicaron el estudio de las bases moleculares del código genético, se insertó ADN extraño en la célula de un huésped, lo cual se conoce como donación de genes. El nacimiento de la oveja Dolly en 1997 fue posible gracias a la combinación del núcleo de una célula adulta de glándula mamaria con un óvulo sin núcleo, un proceso denominado “clonación

Los avances de la ingeniería genética que sin duda son de gran importancia para la ciencia médica, han provocado reacciones contrarias por parte de personas y grupos que advierten sobre los riesgos de orden ético que implica la donación aplicada a los seres humanos, como también se ha cuestionado otra innovación biotecnológica, la fertilización in vitro, debido a lo que puede significar para los valores religiosos la manipulación de embriones humanos, situación que en algunos países ha llevado al establecimiento de restricciones de carácter legal.

La biotecnología se divide en cuatro grandes áreas: alimentación, salud, medio ambiente e industria. En el campo de la salud, uno de los más importantes resultados es la fabricación de insulina humana a partir de una bacteria (1978). La insulina es una hormona proteica que se genera en el páncreas, y por su ausencia el azúcar se concentra en la sangre; a esta deficiencia se le conoce como diabetes, enfermedad que padecen millones de personas en el mundo. Actualmente se buscan nuevos tratamientos para la curación de ciertas enfermedades, sobre todo del cáncer.

MEDICINA: La medicina es un buen ejemplo del desarrollo científico y tecnológico de nuestro tiempo. Los beneficiarios de tales adelantos no dependen del país al que pertenecen, sino de su situación socioeconómica, geográfica o hasta racial. Los estudios e implantación de órganos se deben a la aclaración de los complejos fenómenos de la inmunología, lo cual permite el uso médico de los transplantes de órganos desde 1954, fecha en que se realizó el primer transplante de riñón. En la actualidad es posible el transplante de cualquier órgano.

En 1895 se utilizaron los rayos X para estudiar internamente al paciente. Son los precursores de la imagenología actual, utilizada en la resonancia magnética y nuclear, la tomografía axial computarizada, el ultrasonido diagnóstico y la medicina nuclear en todas sus formas. Técnicas importantes son también la angiografía por sustracción digital y otras de tipo terapéutico como la angioplastía, el marcapaso artificial que se instaló por vez primera en Suecia en 1958, la circulación y la diálisis extra-corpóreas.

Otro gran avance fueron las innovaciones en endocrinología, especial el descubrimiento de la insulina, que permitió salvar a muchos diabéticos de una muerte segura. También fue decisivo el hallazgo de la cortisona, que constituye un poderoso agente antiflamatorio y antialérgico.

Con el descubrimiento de los grupos sanguíneos y su tipificación, la transfusión de sangre se convirtió en un procedimiento seguro y eficaz, completada con el desarrollo de una sustancia -la heparina– que impide la coagulación sanguínea. Comenzaron también a aplicarse terapias efectivas para trastornos neurológicos, como la epilepsia y el mal de Parkinson.

En 1955, el estadounidense Jonas Salk descubrió una vacuna contra la poliomelitis a partir del trabajo con virus muertos. Diez años después, su compatriota Albert Sabin produjo una vacuna segura de virus vivos que sustituyó a la cíe su predecesor, erradicando así la última gran plaga infantil. También se descubrió que el sistema inmune era el causante de la enfermedad por factor RH y responsable del fracaso de los transplantes de órganos, técnica intentada en 1902 por Alexis Carrel pero que cobró fuerza en 1967, cuando el doctor Christian Barnard realizó en Sudáfrica el primer trasplante de corazón.

Los trasplantes, la sustitución de huesos y tejidos, los medicamentos antirrechazo y los avances en general de la tecnología médica -aplicaciones del rayo láser, la computación y la robótica-, junto a los éxitos de la anestesiología, ofrecieron un gran desarrollo de la cirugía y, en especial, de la microcirugía. También apareció la biotecnología moderna, aplicada al desarrollo de sustancias que elevan las defensas en caso de patologías cancerígenas. Sin embargo, la revolución sanitaria ha estado marcada por la desigualdad: sólo un 16% de la población mundial goza plenamente de sus éxitos. Según la Organización Mundial de la Salud, los países industrializados, que representan un 10% de las enfermedades, consumen el 90% de los recursos sanitarios.

El descubrimiento de la fisión del uranio culminó un proceso iniciado en 1896, cuando Henri Becquerel descubrió la radioactividad. Este fenómeno físico-químico mostró que algunos elementos -llamados radiactivos-se transformaban en otros, cercanos a ellos en la tabla periódica. El gran salto cualitativo lo dio el descubrimiento, en 1938, de que la fisión, o sea, la escisión del núcleo de un átomo en otros elementos, libera gran cantidad de energía.

El estudio de esta «transmutación» posibilitó el descubrimiento de la reacción exotérmica que genera la división de un núcleo atómico en otros de menor masa por el choque con ciertas partículas, como el neutrón. Por la fisión nuclear, un núcleo pesado como el Uranio 235 se divide en dos núcleos más ligeros cuando choca con él un neutrón. Al dividirse, el núcleo del uranio libera más neutrones, que colisionan a su vez con otros átomos de uranio, creando una reacción en cadena de gran poder radioactivo y energético.

En la Segunda Guerra Mundial, estos estudios se orientaron hacia su aplicación militar. De este modo, Estados Unidos obtuvo la mayor arma de destrucción masiva: la bomba atómica.


La gran hazaña: pisar la Luna En julio de 1969, la misión espacial estadounidense Apolo 11, llevando a bordo tres astronautas, llegó a la Luna. Para dar sus primeros pasos en el satélite de la Tierra, el hombre hubo de realizar un esfuerzo tecnológico sin precedentes: fabricar un potente cohete y diseñar un módulo lunar capaz de funcionar en el espacio. El astronauta Neil Armstrong camina sobre la superficie lunar.

Efectos negativos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos aspectos destructivos y perjudiciales derivados de la tecnología, y se argumenta que ello es consecuencia de la incapacidad de los gobiernos y las industrias para predecir o valorar los posibles efectos negativos del desarrollo acelerado de los productos tecnológicos.

La contaminación atmosférica, que proviene de muchas fuentes, principalmente de las centrales térmicas que queman combustibles fósiles, de los desastres nucleares y de los tubos de escape de los automóviles, está provocando el “efecto invernadero” o calentamiento de la superficie;

• los recursos naturales, incluso los no renovables como el petróleo, se están usando por encima de sus posibilidades;

• la destrucción masiva de selvas y bosques, que puede tener a largo plazo graves efectos en el clima mundial.

• los gases contaminantes, emitidos por los automóviles y las industrias, están provocando el adelgazamiento de la capa de ozono, lo que conduce a intensificar la radiación ultravioleta con graves peligros para la salud.

• pesticidas como el DDT amenazan la cadena alimenticia;

• la caza y pesca indiscriminadas, así como los derrames de petróleo en el mar, amenazan la supervivencia de especies animales en vías de extinción, como es el caso de la ballena;

• los residuos minerales usados por la industria están contaminando ríos, lagos y mares, así como las reservas de agua subterránea;

• el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen;

• en el aspecto social, la amenaza a ciertos valores, como la calidad de vida, la libertad de elección, la igualdad de oportunidades y la creatividad individual

Los grupos de presión ecologistas. La grave situación producida por los efectos negativos de la tecnología, ha provocado reacciones entre grupos ecologistas cada vez más influyentes, que en diversas formas se han manifestado en contra de las amenazas al medio ambiente y a la vida en el planeta. Aunque desde el siglo XIX se empezó a ejercer presión de estos grupos, logrando en Gran Bretaña la aprobación de leyes que limitaran la contaminación, en la segunda mitad del siglo veinte estos grupos comenzaron a exigir leyes más restrictivas, aunque en ocasiones eran poco realistas.

La acción de los ecologistas ha dada origen a un nuevo fenómeno político, la aparición de los partidos “verdes”, que en diversos países intentan atraer al electorado en relación al tema de la conservación del medio ambiente, concentrando su atención sobre todo en la producción de energía, cuyas industrias han presionado de dos maneras. Por un lado, han criticado a las centrales térmicas convencionales que utiliza combustibles fósiles como el petróleo, bajo el argumento de que los humos generados (compuestos sobre todo de dióxido de carbono y óxidos de nitrógeno) producen “lluvia ácida” que, a su vez, causan graves perjuicios a la vida vegetal y contaminan los ríos, además de que han sido señalados como causantes del efecto invernadero. Por otra parte, los ecologistas han organizado una tenaz resistencia contra el uso de cualquier forma de energía nuclear, sobre todo después del desastre de Chernobil.

Los gases desprendidos por el tubo de escape de los automóviles han sido señalados como otro grave factor de riesgo, con el peligro adicional de que su contenido de plomo puede afectar el desarrollo de las facultades mentales en la población infantil. Como consecuencia, muchos países han aprobado leyes destinadas a reducir gradualmente el contenido de plomo de la gasolina, con el propósito de llegar a eliminarlo totalmente.

Las constantes advertencias de estos grupos a través de los medios de comunicación, han obtenido algunas respuestas de los gobiernos a favor de reducir los contaminantes y cambiar la actitud hacia la vida animal y vegetal, buscando protegerla y detener su explotación indiscriminada.

Una alternativa que ya se ha hecho realidad en muchos países para resolver la problemática del agotamiento de los recursos naturales es el reciclado, que consiste en la transformación de los materiales sólidos o semisólidos que generan las actividades humanas, en nueva materia prima para uso industrial. Tales residuos se dividen en cuatro categorías: agrícolas, industriales, comerciales y domésticos. Además de la ventaja que el reciclado de residuos proporciona a favor de evitar el agotamiento de los recursos de la tierra, favorecen a las empresas industriales al mejorar los procesos de producción y reducir los costos de inversión.

A pesar de todas las alternativas planteadas y puestas en práctica para reducir los efectos negativos del avance tecnológico, aún falta mucho por hacer y se debe insistir una y otra vez en concientizar no sólo a los gobiernos y a las grandes empresas industriales, sino también al ciudadano común que de manera irresponsable abusa de la utilización de recursos naturales como el agua, arroja desperdicios a la vía pública y a los ríos, o por descuido provoca incendios forestales.

Es necesaria una profunda toma de conciencia sobre los graves riesgos que conlleva todo ese tipo de amenazas contra la vida en el planeta; sería paradójico y terrible que ésta llegara a su fin ya no por el estallido de una tercera guerra mundial desencadenada por los gobiernos poseedores de energía nuclear, como tanto se temió durante la Guerra fría, sino por un injustificable y fatal descuido de la especie humana en su conjunto.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

El Efecto Fotoelectrico Formulas Explicacion de la Teoría

El Efecto Fotoeléctrico  – Explicación de la Teoría – Fórmulas

Cuando Einstein recibió el Premio Nobel en 1921, fue su explicación sobre el efecto fotoeléctrico y no su artículo sobre la relatividad especial lo que se citaría. Quizá fuera debido en parte a la negativa de los científicos a aceptar la teoría especial después de tan poco tiempo. Aún así, su análisis del efecto fotoeléctrico en su artículo “Heurística de la generación y conversión de la luz” es de por sí un trabajo revolucionario. Al explicar un efecto que contradecía las creencias de su tiempo sobre la naturaleza de la luz, Einstein contribuyó a la visión global de hoy en día sobre el mundo subatómico, que no sólo el hombre de la calle, sino incluso los propios físicos tienen problemas en imaginar. (mas abajo ver: La historia del fenómeno)

EXPLICACIÓN Y FÓRMULAS DEL FENÓMENO FÍSICO DEL EFECTO FOTOELÉCTRICO

Este efecto, se trata de otro fenómeno que, al igual que la radiación de cuerpo negro, también involucra la interacción entre la radiación y la materia. Pero esta vez se trata de absorción de radiación de metales

EFECTO FOTOELECTRICO

Heinrich Hertz (1857-1894), científico alemán, fue el primero en observar el efecto fotoeléctrico, en 1887, mientras trabajaba en la generación de ondas de radio. Informó esta observación pero no se dedicó a explicarla

EFECTO FOTOELECTRICO Al incidir luz ultravioleta sobre el cátodo metálico (fotocátodo) se detecta el paso de una corriente eléctrica. Se trata de electro­nes que abandonan el cátodo (colector) y se dirigen al ánodo a través del vacío dentro del tubo. Los electrodos se hallan conec­tados a una diferencia de potencial de sólo unos pocos voltios.

 

EFECTO FOTOELECTRICO -1-

La teoría electromagnética clásica considera que la radiación de mayor intensidad (o brillo, si es visible), que corresponde a ondas de mayor amplitud, transporta mayor energía. Esta energía se halla distribuida uniformemente a lo largo del frente de onda. La intensidad es igual a la energía que incide, cada unidad de tiempo, en una unidad de superficie.

EFECTO FOTOELECTRICO -2

Con radiación ultravioleta de diferentes in­tensidades, los electrones salen del metal con la misma velocidad. La radiación más intensa arranca mayor número de electrones. Esta observación también resultaba inexplicable.

EFECTO FOTOELECTRICO -3

Con luz ultravioleta, aun de baja intensidad, los electrones son arrancados prácticamente en forma instantánea, aunque la Física clásica predecía un tiempo de retardo hasta que los átomos absorbieran la energía necesaria para expulsar el electrón. Con luz visible este fenómeno no se observa, aunque se aumente la intensidad de la luz y se ilumine durante mucho tiempo, como para que el átomo absorba bastante energía. Esta observación resultaba inexplicable.

EXPLICACION FISICA DEL FENOMENO

MAX PLANCK

Planck había llegado a la conclusión de que el traspaso de energía entre la materia y la radiación en el cuerpo negro ocurría a través de paquetes de energía. Sin embargo, no quiso admitir que la energía radiante una vez desprendida de la materia también viajaba en forma corpuscular. Es decir que siguió considerando a la radiación que se propaga como una onda clásica.

En 1905, Albert Einstein fue un paso más allá al explicar completamente las características del efecto fotoeléctrico. Para ello retomó la idea del cuanto de energía de Planck, postulando que:

 EINSTEIN

La radiación electromagnética está compuesta por paquetes de energía o fotones. Cada fotón transporta una energía E= v . h , donde v es la frecuencia de la radiación y h es la constante de Planck.

Cuando un fotón incide sobre el metal, transfiere toda su energía a alguno de los electrones. Si esta energía es suficiente para romper la ligadura del electrón con el metal, entonces el electrón se desprende. Si el fotón transporta más energía de la necesaria, este exceso se transforma en energía cinética del electrón:

Expresado en fórmula matematica es: Ecinética = h . v – Eextracción donde Eextracción es la energía necesaria para vencer la unión con el metal.

Esta teoría explica perfectamente los hechos observados:

1. Si la frecuencia de la radiación es baja (como en la luz visible), los fotones no acarrean la suficiente energía como para arrancar electrones, aunque se aumente la intensidad de la luz o el tiempo durante el cual incide.

EFECTO FOTOELECTRICO -4

Para cada tipo de material existe una frecuencia mínima por debajo de la cual no se produce el efecto fotoeléctrico.

2. Si la frecuencia de la radiación es suficiente para que se produzca el efecto fotoeléctrico, un crecimiento de la intensidad hace que sea mayor el número de electrones arrancados (por ende será mayor la corriente), pero no afecta la velocidad de los electrones.

Aumentar la intensidad de la luz equivale a incrementar el número de fotones, pero sin aumentar la energía que transporta cada uno.

3. Según la teoría clásica, habría un tiempo de retardo entre la llegada de la radiación y la emisión del primer electrón. Ya que la energía se distribuye uniformemente sobre el frente de la onda incidente, ésta tardaría al menos algunos cientos de segundos en transferir la energía necesaria. La teoría de Einstein, en cambio, predice que:

Una radiación de frecuencia adecuada, aunque de intensidad sumamente baja, produce emisión de electrones en forma instantánea.

Pasaron diez años de experimentación hasta que la nueva teoría fue corroborada y aceptada. Se determinó el valor de h a partir de experiencias de efecto fotoeléctrico y se encontró que concordaba perfectamente con el valor hallado por Planck a partir del espectro de radiación de cuerpo negro.

Desde ese momento los físicos aceptaron que, si bien la luz se propaga como si fuera una onda, al interactuar con la materia (en los procesos de absorción y emisión) se comporta como un haz de partículas. Esta sorprendente conducta es lo que se ha llamado la naturaleza dual de la luz. Esto muestra que las ideas surgidas del mundo macroscópico no son aplicables al inimaginable mundo de lo diminuto.

Ninguna rama de las ciencias físicas ha tenido tantas repercusiones filosóficas como la teoría de los cuantos, pues al descubrir un abismo, una discontinuidad radical en la estructura de la naturaleza, parece haber hallado también barreras infranqueables al entendimiento humano. Al trabajar en las oscuras interioridades del átomo, donde cada fenómeno tiene simultáneamente el doble aspecto de materia y de energía, los primeros teóricos de la física cuántica, Max Planck y Niels Bohr, descubrieron que la energía no se propaga de manera continua sino a saltos. Estos saltos o cuantos de energía configuran el sustrato de la realidad como una especie de granulado indivisible que pone en duda la continuidad de la materia.
Un lirio (arriba) y sus granos de polen (dcha.) enormemente amplificados sugieren de algún modo la realidad del mundo cuántico. Un microscopio electrónico nos revela la minuciosa estructura del polvo de polen; mas, a nivel subatómico —como se aprecia en el recuadro menor, que representa la estructura de un cristal de iridio fotografiado mediante un microscopio ultramoderno (hasta el momento, la realidad fotografiable más semejante al átomo)—, lo que parece una sólida arquitectura fija es, en realidad, un sistema de intercambios energéticos, que acaecen a velocidades inimaginables en repentinos y discontinuos saltos.

APLICACIÓN: LA CÉLULA FOTOELÉCTRICA
En 1887, Hertz había notado que la luz, al iluminar ciertas substancias, extraía de éstas partículas dotadas de carga negativa, es decir, electrones. Éste fue el efecto fotoeléctrico que hizo posible, al comienzo de nuestro siglo, el nacimiento de maravillas como la telefotografía, es decir, la transmisión a distancia de fotografías (Korn, 1907); el film sonoro (De Forest, 1923); la televisión (B.aird, 1925).

En 1888, el físico Hallwachs descubrió que un electroscopio se cargaba de electricidad cuando sus hojitas eran iluminadas por rayos ultravioletas. Este fenómeno, que fue llamado efecto Hallwachs, permitió construir un dispositivo mágico que, cuando es tocado por una luz o una radiación del mismo tipo, produce corriente eléctrica: la célula fotoeléctrica.

Esta célula fotoeléctrica está constituida por un electrodo metálico cubierto por una substancia que emite fácilmente electrones cuando  iluminada; los electrones recogidos por otro electrodo formado por una partícula metálica, y así origina una corriente eléctrica cu intensidad es proporcional a la intensidad de la iluminación, y que, natural mente, se interrumpe cuando la iluminación cesa.

La célula fotoeléctrica es de fácil construcción y muy económica, es ya uno de los aparatos funda mentales de la civilización mecánico Tiene una infinidad de aplicaciones y ejecuta trabajos realmente prodigiosos. Por ejemplo, supongamos que hay que introducir cien paquetes de cigarrillos en una caja. Una cinta de goma lleva en fila los paquetes y los vuelca en la caja; una célula fotoeléctrica es iluminada con un rayo de luz que es interrumpido por el paso de cada uno de los paquetes de cigarrillos. A la misma está conectado un dispositivo que cuenta y que, al registrar cien interrupciones de luz, da orden de cambiar la caja. Se dirá que también un hombre puede hacer el mismo trabajo. Naturalmente; pero la célula puede contar cien paquetes por segundo-sin cansarse y sin equivocarse.

Las células fotoeléctricas sirven, sobre todo, en los casos en que es necesario un centinela. Así, las células señalan el paso de personas a través de puertas, disparan dispositivos de alarma, bloquean las máquinas cuando el operador se acerca a partes peligrosas, y hasta intervienen en la seguridad de nuestras casas. En efecto, todas las instalaciones de calefacción a nafta poseen una célula que controla que el hogar se mantenga encendido. Si la llama se apagara, sería peligroso continuar inyectando el combustible, de modo que si la célula no ve el resplandor de la llama, detiene el flujo.

HISTORIA DEL EFECTO FOTOELÉCTRICO
El primer investigador que mencionó un efecto fotoeléctrico superficial fue Hertz, en 1887. Un año después, Hallwachs, basándose en los resultados de Hertz, encontró que una lámina de cinc pulida aislada retenía una carga positiva, puesta de manifiesto con un electroscopio, pero, sin embargo, perdía una carga eléctrica negativa, si bajo las mismas condiciones era iluminada por la luz de un arco de carbón.

Demostró también que sólo la luz ultravioleta era la responsable de este efecto. Más adelante, Elster y Geitel demostraron que había algunos metales (sodio, potasio) que eran sensibles a la luz visible, y fueron capaces de construir células fotoeléctricas muy sencillas. Ellos establecieron que la corriente fotoeléctrica a través de sus células era directamente proporcional a la intensidad de luz dentro de un cierto intervalo.

A fines del siglo XIX (en 1899), P. Lenard y J. J. Thomson, independientemente, demostraron que los portadores de electricidad negativa arrancados de las superficies metálicas eran electrones. Por su parte, Lenard demostró que la energía de los electrones arrancados no dependía de la intensidad de la luz, mientras que el número de electrones era proporcional a dicha intensidad. Estos resultados, que no podían ser explicados por la teoría ondulatoria de la luz, llevaron a Einstein a formular una nueva teoría sobre la naturaleza de la luz, en 1905.

Einstein sugirió que la luz podía considerarse como compuesta por pequeñísimos corpúsculos, cuantos de luz o fotones, cada uno de los cuales tenía una cantidad de energía igual a h v, donde h era la famosa constante de Planck,  y v  la  frecuencia  de  la luz.

Cuando la luz era absorbida por el metal, el corpúsculo luminoso desaparecía como tal, pero transfería su energía al electrón dentro del metal, con el cual había chocado, y éste entonces podía escapar si la energía del corpúsculo de luz era superior a la energía con que el electrón estaba unido al metal. Por esta teoría, Einstein recibió, años más tarde, el premio Nobel.

La intensidad de un rayo luminoso viene dada por el número de fotones; por lo tanto, cuanto mayor sea la intensidad, mayor será la energía total que llegue a la superficie del metal. Sin embargo, no importa el número de fotones que choquen con la superficie, porque, si su energía individual es baja, no pueden arrancar ni un solo electrón.

Cuando la energía de los fotones es individualmente superior al umbral, entonces cada uno puede arrancar un electrón y, en este caso, cuanto más intensa sea la iluminación, mayor será el número de electrones arrancados y más intensa la corriente fotoeléctrica. Los materiales como el selenio se utilizan para los fotómetros porque tienen un umbral bastante bajo, y todos los fotones de luz visible tienen suficiente energía para liberar electrones.

Es posible obtener materiales que sean sensibles incluso a la luz infrarroja recubriendo sus superficies de un modo especial. Si se oxida cesio metálico de manera especial, y se deposita sobre una película muy delgada de plata, toda la estructura de la superficie se altera y hace falta una pequeña cantidad de energía para arrancar un electrón.

Este tipo de material puede utilizarse en instrumentos para registrar la recepción de luz infrarroja invisible. Desde el punto de vista de aplicación del efecto fotoeléctrico, la combinación de la célula fotoeléctrica con el amplificador termoiónico ha proporcionado un mecanismo sensible a la luz, que hizo posible la realización de adelantos científicos tales como la televisión, el cine sonoro y la transmisión de fotografías por telégrafo.

Ondas y paquetes
La luz se compone de «paquetes» básicos de energía, llamados fotones. Bajo ciertas circunstancias, éstos actúan como si fuesen objetos sueltos. En condiciones distintas, la luz se comporta como una onda continua de energía. Otra de sus características es que si, por ejemplo, una persona parada a 10 m de distancia de una lámpara, se aleja a 20 m de ésta, la luz que recibirá no será la mitad, sino la cuarta parte de la que recibía en un principio. Ello se debe a que la luz se propaga en círculos, y al duplicarse la distancia tiene que cubrir cuatro veces la misma área. La fuerza de gravedad disminuye de igual manera y, según proponen los científicos, también se desplaza en forma de partículas, de ondas o de ambas; aunque ninguna de éstas ha sido descubierta todavía. Así que la paradoja subsiste: pese a saber exactamente lo que hace la gravedad y poder predecir sus efectos con precisión, se desconoce lo que es en realidad. La más familiar de las fuerzas que gobiernan el universo resulta ser la más misteriosa.

.(leer mas sobre la historia del fenómeno)

Formula de Heron Area del Triangulo Biografia Heron de Alejandria

Fórmula de Herón – Área del Triángulo – Biografía

HERON DE ALEJANDRÍA:

HERON DE ALEJANDRÍA:

Herón de Alejandría (s. I ó II d.C.) fue el inventor de la máquina de vapor. A partir del siglo XVIII muchas máquinas empezaron a funcionar gracias a la energía que se obtiene del vapor de agua.

Diecisiete siglos antes, Herón de Alejandría ya utilizó las posibilidades energéticas del vapor. Su «máquina de vapor» era una esfera hueca a la que se adaptaban dos tubos curvos.

Cuando hervía el agua en el interior de la esfera, ésta giraba a gran velocidad como resultado de la ley de acción y reacción, que no fue formulada como tal hasta muchos siglos más tarde. Pero a nadie se le ocurrió darle al invento más utilidad que la de construir unos cuantos juguetes.

Podemos decir que el mayor de los experimentadores de la antigüedad fue ciertamente Herón. quien escribió sus obras alrededor del año 130 antes de Jesucristo.

Buen matemático, Herón adopta la división del círculo en 360 grados propuesta por Hiparco de Bitinia; excelente pedagogo, funda una auténtica escuela politécnica en Alejandría con una sección consagrada únicamente a los estudiantes dedicados a la investigación.

Para Herón no existe el vacío absoluto y el aire es un cuerpo de gran elasticidad susceptible de presión y depresión. Así explica los aparatos de succión como la pipeta, los recipientes de desagüe constante y las fuentes intermitentes.

Da la explicación de la ventosa y. al igual que Filón, emplea una máquina de aire caliente para impulsar el agua. Herón se ha hecho célebre sobre todo por su eolípila que, por primera vez, utilizaba la fuerza expansiva del vapor de agua y el principio de la reacción.

Este aparato ha sido descrito multitud de veces. Recordemos que se trata de un huevo de cerámica colocado entre dos pivotes laterales y provisto de dos tuberías acodadas. Se calienta el agua que hay en el interior de este huevo y al escaparse el vapor por las tuberías hace que el huevo gire sobre sus pivotes.

En mecánica. Herón resuelve por medio de engranajes el problema de Arquímedes consistente en levantar 1.000 kg. con ayuda de 5 kg. Construye el paralelogramo de las velocidades, inventa el principio del funicular, estudia los misterios del plano inclinado y los de la fricción.

En nuestros días, algunos pioneros del automóvil han aplicado su dispositivo de rueda de fricción para asegurar a los vehículos una transmisión automática. Con todos estos ingenios, Herón demuestra que «lo que se gana en fuerza se pierde en forma de tiempo».

Por otra parte, enuncia la ley de la inercia y encuentra que la fuerza es proporcional a la masa de lo que se mueve y a la velocidad de que está animado. Es ya la prefiguración del gran principio de la mecánica clásica:F= m.a

Los constructores de obras de arte deben a Herón unas tablas de medidas utilizables en el montaje de las bóvedas y en la perforación de túneles y pozos. Los aficionados a la anécdota están intrigados por los autómatas que el gran físico construía para distraerse: curruca que bate las alas y canta cuando se empujan las puertas de un templo, funcionamiento de puertas accionadas por el aire caliente que se eleva del fuego de los sacrificios, etc.

Dejando aparte estas distracciones, hemos de ver en Herón un maestro en el arte de las medidas y un fundador de la mecánica general.

La ingeniosidad mecánica de los alejandrinos aparece en la reconstrucción de estos autómatas hecha por el padre Kircher en su obra «Oedipus Aegyptiacus» publicada en Roma en el siglo XVII y basada en los escritos de Herón. Los científicos están divididos en cuanto a la estimación de la potencia motriz que los movía. Puede suponerse que los pesos, los sifones y la presión del aire caliente están para algo.
El pájaro que mueve las alas  ha podido ser accionado por medio de pesas, las clepsidras  estaban animadas por una corriente de agua cuidadosamente regulada, mientras que el aire calentado por las velas hacía brotar la leche de los senos de la diosa .
https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

En su Métrica demostró la fórmula de su nombre:
FORMULA DE HERON PARA CALCULO DE ÁREA DE CUALQUIER TRIANGULO:

AREA=formula de HerónDonde: a,b,c son lo lados del triangulo,   s es el semi-perimetro s=(a+b+c)/2

Para el área de un triángulo, donde a, b y c representan sus tres lados y s su semi-perímetro. La fórmula, que constituye el principal mérito matemático de Herón, es fácil de demostrar con ayuda de trigonometría.

Herón de Alejandría (c. 20-62 d.C.), matemático y científico griego, pero puede considárselo como un ingeniero. Su nombre también podría ser Hero (aproximadamente 18 escritores griegos se llamaron Hero ó Herón, creándose cierta dificultad a la hora de su identificación). Herón de Alejandría nació probablemente en Egipto y realizó su trabajo en Alejandría (Egipto).

En nuestros días, el renombre de Herón se debe, sobre todo, a sus deliciosos tratados sobre autómatas griegos y juguetes hidráulicos, como la paradójica «fuente de Herón» donde un chorro de agua parece desafiar la ley de la gravedad, pues brota más alta que su venero.

Escribió al menos 13 obras sobre mecánica, matemáticas y física. Inventó varios instrumentos mecánicos, gran parte de ellos para uso práctico: la aelípila, una máquina a vapor giratoria; la fuente de Herón, un aparato neumático que produce un chorro vertical de agua por la presión del aire y la dioptra, un primitivo instrumento geodésico.

EJEMPLO ONLINE DE LA FORMULA DE HERON: