Modelo Atómico de Ruthenford

Teoría Cinética de los Gases Ideales Modelo Molecular Resúmen

El comportamiento análogo de todos los gases sugiere que su estructura debe ser la misma. Como que los gases son muy compresibles, sus moléculas deben estar muy separadas y como que los gases tienden a expandirse hasta ocupar el máximo volumen posible, sus moléculas deben hallarse en un movimiento incesante.

DESCRIPCIÓN BÁSICA: La teoría cinética de los gases supone que éstos están constituidos por diminutas partículas (moléculas) en constante movimiento. A igualdad de condiciones, la velocidad promedio con que se mueven las moléculas varía de gas a gas, siendo la regla que cuanto mayor sean las partículas, tanto menor será su velocidad, pero para un gas determinado, la velocidad promedio con que se mueven sus moléculas depende de su temperatura. Si el gas es calentado, sus moléculas reciben energía para acelerar su movimiento.

La temperatura no es sino una medida de la energía promedio de las moléculas. Además, estas moléculas son consideradas perfectamente elásticas. Como están en continuo movimiento, chocan continuamente entre sí y rebotan. Ahora bien, si dejamos caer al suelo una pelota de goma, rebotará más de una vez, pero con cada rebote se elevará menos del suelo. En otras palabras, la pelota pierde energía cada vez que da un bote, Pero las moléculas no pierden ninguna energía cuando chocan entre sí y rebotan.

El movimiento molecular explica el comportamiento de los gases cu-relación al aumento de temperatura y cambios de presión. A una cierta temperatura y presión el mismo número de moléculas de cualquier gas ocupa el mismo volumen. Pero si aumenta la temperatura del gas sus moléculas habrán adquirido la energía necesaria para moverse más rápido. Chocan más rápido y rebotan más lejos, en otras palabras, ocupan más espacio, pero si no se les permite ocupar mayor espacio, es decir, si el recipiente es rígido, la presión del gas aumentará.

Esto es comprensible, porque la presión del gas sobre las paredes es simplemente la fuerza ejercida por las moléculas que chocan contra ellas. Si las moléculas aceleran, golpearán las paredes del recipiente con mayor fuerza.

EXPLICACIÓN FÍSICA CONCEPTUAL

Uno de los fenómenos referentes al comportamiento de los gases que indica el camino más acertado para investigar su naturaleza es el movimiento browniano, observado en 1827 por el escocés Robert Brown y que consiste en una agitación desordenada, en zigzag, ejecutada por las partículas que se hallan en suspensión en los líquidos o en los gases.

Cuanto menor es la partícula observada, más claramente se pone de manifiesto su estado de movimiento desordenado permanente y cuanto mayor es la temperatura tanto mayor es la violencia de dicho movimiento.

El movimiento browniano sugiere un estado de continua agitación de las moléculas que constituyen los cuerpos materiales. Todo parece indicar que la materia está formada por partículas muy pequeñas en movimiento incesante. Esta teoría de las moléculas en constante agitación se denomina teoría cinética de la materia y sus dos postulados fundamentales son:

a) Las moléculas están en constante movimiento.
b) El calor es una manifestación del movimiento de las moléculas.

APLICANDO ESTOS POSTULADOS A LOS GASES: Cuando Boyle descubrió en 1661 su sencilla ley experimental sobre el comportamiento de los gases, trató de idear un modelo que interpretara coherentemente la naturaleza del gas. Ése fue el comienzo de la teoría cinética, desarrollada por Daniel Bernoulli, James Joule, Rudolph Clausius, Ludwig Boltzmann y Albert Einstein, entre otros científicos. Esta teoría se propone dar una explicación microscópica de las leyes macroscópicas experimentales.

Las hipótesis de las que parte son simples:

1) Un gas consiste en un conglomerado de partículas (átomos o moléculas) que responden a las leyes de la Mecánica newtoniana. En un gas perfecto pueden despreciarse las fuerzas atractivas entre las moléculas. Así pues, las moléculas pueden considerarse independientes unas de otras.

2) La enorme cantidad de partículas se mueven caóticamente y están tan separadas entre sí que su propio volumen es despreciable frente al que ocupa todo el gas.

3) No existen fuerzas apreciables sobre las partículas salvo las que operan durante los choques elásticos entre sí y contra las paredes.

4) En un conjunto de moléculas dado, en un instante determinado, las moléculas poseen distintas velocidades y, por tanto, sus energías cinéticas también son distintas. Se admite, sin embargo, que la energía cinética media de todas las moléculas es directamente proporcional a la temperatura absoluta del gas.

RESPECTO A LAS MAGNITUDES FÍSICA ES:

• La presión de un gas: lo que llamamos la presión de un gas no es más que el resultado de todo el conjunto de choques que las moléculas efectúan sobre las paredes de un recipiente.

•  La temperatura, es según lo dijo Boltzmann: «La temperatura es la medida de la agitación de los átomos». A alta temperatura los átomos se hallan muy agitados y a baja temperatura están más calmados.

EXPLICACIÓN DE LA TEORÍA: Es razonable que, dado que las partículas están tan separadas, las fuerzas intermoleculares sean solamente las de los choques. Como los choques son elásticos, entonces se conserva la cantidad de movimiento y también la energía cinética.

Entre choque y choque, las moléculas viajan con movimiento rectilíneo y uniforme, de acuerdo con las leyes de Newton. Las colisiones son de muy corta duración. Es decir que la energía cinética se conserva constante, ya que el breve tiempo en que ésta se transforma en energía potencial (durante el choque) se puede despreciar.

A partir de estos supuestos, la teoría explica el comportamiento conocido de los gases y hace predicciones que luego son constatadas experimentalmente, lo que le confiere validez científica.

Para describir el comportamiento del gas no es imprescindible la historia individual de cada partícula, sino que se recurre a la estadística para interpretar las variables macroscópicas como cierto promedio de propiedades microscópicas.

Por ejemplo, la presión se interpreta microscópicamente como el efecto resultante de millones de partículas chocando azarosamente y ejerciendo pequeñas fuerzas irregulares contra las paredes del recipiente. ¿Por qué la fuerza que un gas encerrado ejerce sobre la pared del recipiente es perpendicular a su superficie?.

 Como todas las posiciones y velocidades son igualmente probables, el bombardeo sobre la pared proviene de todas las direcciones y sentidos. Las fuerzas ejercidas en dirección paralela a la pared en uno y otro sentido tienden en promedio a anularse. Pero las fuerzas ejercidas en dirección perpendicular, por el contrario, se sumarán, ya que ninguna partícula colisiona desde el lado exterior de la pared.

La temperatura se interpreta como una medida de la energía cinética media por molécula. Al calentar un gas, aumentamos la agitación molecular, elevando la velocidad media de las partículas. Si disminuye la temperatura del gas, se puede licuar. Es coherente que la energía cinética media de una partícula líquida sea menor que la correspondiente a una partícula gaseosa.

En 1827, el botánico inglés Robert Brown (1773-1858) constató, por primera vez, que partículas pequeñas de materia inerte, suspendidas en un líquido y observadas con un microscopio presentan una agitación azarosa y permanente dependiente de la temperatura. La explicación de este fenómeno se logró ochenta años después.

El descubrimiento del movimiento browniano permitió un desarrollo posterior más profundo de la teoría cinética. El movimiento de los gránulos observados a través del microscopio se interpretó como la ampliación del movimiento de las pequeñísimas moléculas invisibles a la lente.

Basándose en un estudio cuantitativo del movimiento browniano, la teoría cinética permite calcular, entre otros múltiples resultados, el número de moléculas contenidas en un volumen dado, a cierta temperatura y presión, para todos y cualquier gas.

DEMOSTRACIÓN DE LA ECUACIÓN DE ESTADO A PARTIR DE LA TEORÍA CINÉTICA DE LOS GASES:

La ecuación de estado de los gases, PV = nRT, puede deducirse de la teoría cinética estudiando el aumento de presión que se produce en un gas a consecuencia de los impactos de las moléculas. En efecto, consideremos un gas encerrado en una caja. Su presión es proporcional al número de choques moleculares por segundo sobre cada cm2 de la pared de la caja y proporcional también al impulso mecánico o variación de la cantidad de movimiento de cada impacto. La presión total será, pues, igual al producto del número de impactos por el impulso mecánico.

El movimiento de cualquier molécula puede ser descompuesto en tres componentes dirigidas según cada una de las tres aristas de la caja, de donde se deduce que el efecto sobre cada una de las paredes es el mismo que si cada tercera parte de las moléculas se moviese perpendicularmente a cada par de caras opuestas.

Así, N/3 moléculas chocarán con una cara determinada de la caja cúbica, siendo N el número total de moléculas contenidas en la caja. Entre cada dos impactos sucesivos la molécula deberá recorrer en los sentidos de ida y vuelta la longitud de la arista de la caja cúbica, l.

Es decir, la distancia entre dos impactos consecutivos recorrida por la molécula es 2.l. Como que la velocidad media de las moléculas es V cm/s, el tiempo transcurrido en segundos entre dos choques consecutivos será t = 2.l/V y, por tanto, el número de choques por segundo con la pared del recipiente será V/2.l.

Así pues, podemos concluir que el número de impactos que se producirán sobre una cara de la caja por segundo será de:

 Pero como el área de la cara es l2, el número de impactos por cm2 y por segundo que se producirán será :



Ahora bien, como el volumen V de la caja es l3, tendremos que el número total de impactos por cm2 y por segundo será:


Para obtener el impulso total de cada impacto hay que tener en cuenta que el impulso mecánico es igual a la variación de la cantidad de movimientos. En toda colisión en la que una molécula de masa m y velocidad v rebote de la pared con igual velocidad absoluta pero en sentido contrario, la cantidad de movimiento variará de un valor inicial mv a un valor final – mv. Es decir, la variación de la cantidad de movimiento es de 2mv.

Pero tal como se indicó anteriormente, Presión=Fuerza/Área= N° de Impactos/Área . s

Impulso de cada impacto:


Ahora bien, la energía cinética media de las moléculas y la temperatura absoluta del sistema están relacionadas por la expresión:

Donde k=1,3805 . 1016 erg./K. molécula es la constante de Boltzmann. Sustituyendo el valor de:

En la ecuación precedente se obtiene:

Pero como el número N de moléculas es igual a: 6,023 . 1023  . n , siendo n el número de moles , resulta

que es la ecuación de estado de los gases ideales,

Puede comprobarse sin dificultad que la constante universal de los gases, R, es el producto de la constante k de Boltzmann por el número de Avogadro. Es decir, R = 6,023 • 1023- k.

RESÚMEN DE LOS POSTULADOS DE LA TEORÍA CINÉTICA DE LOS GASES:

UN POCO DE HISTORIA…

Demócrito había dicho que los átomos se hallan en continuo movimiento, agitados de manera desordenada en todos los sentidos. Unas veces, decía, colisionan unos con otros y se pegan como dos bólidos que se dan de frente y se meten uno en otro; otras veces el encuentro termina en una unión que da origen a «sustancias» líquidas o sólidas.

Hacia finales del siglo XIX se descubrió lo esencial de las leyes sobre el comportamiento de los gases, la manera en que se combinan, se mezclan, qué presión ejercen sobre las paredes del recipiente donde se contienen, etc.

Así pues, es natural que en esta época se haya tratado de conocer todas estas propiedades partiendo de la idea de los átomos y de las moléculas que por aquel entonces salía a la luz, es decir, de profundizar en las ideas de Demócrito, pero de una manera un poco más precisa y un poco más cuantitativa.

Si la materia, en este caso el gas, está formada por miles de millones de partículas o de átomos, ¿cómo se pueden explicar, partiendo de sus supuestas propiedades las observaciones de los químicos? Dicho de otro modo, ¿cómo a partir de la descripción microscópica de la materia, de las estructuras elementales de las moléculas, se puede construir una teoría que permita explicar propiedades macroscópicas, que son las propiedades con las que trabajan los químicos, desde Gay-Lussac hasta Avogadro pasando por Dalton, hasta llegar a los químicos actuales? ¿Cómo se puede pasar de las fórmulas químicas al campo del químico que sintetiza nuevos productos? Era menester volver a las fuentes.

Daniel Bernouilli, un genovés miembro de una prestigiosa dinastía científica, abrió el camino a finales del siglo XVIII. Especialista de esa nueva rama de las Matemáticas llamada cálculo de las probabilidades, Bernouilli comprendió muy pronto que, para estudiar una población de átomos en número muy elevado, la mejor manera de lograrlo era hacer un modelo de su comportamiento de manera estadística y definir de ese modo el comportamiento de un átomo medio. Pero si es cierto que se le deben a él las primeras ideas en la materia, también es cierto que su trabajo no llegó a un resultado definitivo.

Hacia finales del siglo XIX es cuando se desarrollará realmente la Física estadística, en medio de debates tumultuosos y bastante violentos desde el punto de vista intelectual. Y ello es así porque esta Física estadística topaba de lleno con dos prejuicios sólidamente enraizados en los espíritus. Agarrándose al primero, algunos, como ya hemos dicho, se oponían a la idea de átomos y de moléculas so pretexto de que nadie los había visto. Y otros, apoyados en el segundo, rechazaban la utilización del cálculo de probabilidades. ¿Cómo la naturaleza, decían, cuyas leyes son perfectamente claras y están perfectamente determinadas, podría obedecer al cálculo de probabilidades, al azar, «esa máscara de nuestra ignorancia», como diría más tarde con humor Emile Borel, gran probabilista francés?

Tres hombres, tan distintos como excepcionales, son los que van a construir esta Física estadística.

James Clark Maxwell Ludwig Boltzmann Josiah Willard Gibbs

James Clark Maxwell, el autor de la grandiosa teoría de la unificación electromagnética, el gentleman escocés de Cambridge, una de las leyendas de la Física. El es quien dará la señal de partida calculando la distribución de las velocidades de las partículas de un gas. Maxwell será un gran matemático, pero un atomista desapasionado. Desgraciadamente morirá en plena batalla en 1918.

Ludwig Boltzmann es un austríaco más joven que Maxwell, a quien admira y venera. Es un hombre caprichoso, matemático brillante, intelectual-mente ambicioso, con imaginación y con técnica a la vez, pero también es exageradamente impresionable, con frecuencia indeciso (por tres veces aceptará y rechazará después el puesto de profesor en Berlín, donde enseña el gran físico alemán Helmholtz, todo ello en el plazo de dos años), directo —según algunos, demasiado directo— en sus relaciones sociales. Sin embargo, él será quien pondrá los cimientos.

Josiah Willard Gibbs. Este es un norteamericano  Fue profesor en la Universidad de Yale. Aunque era reservado y solitario —se cuenta de él que un día, hablando con un colega, se enteró de que los profesores de Yale estaban remunerados, ¡cosa que él ignoraba!— será él quien instalará la Física estadística y hará la síntesis con la Termodinámica. Es una verdadera pena que Gibbs y Boltzmann no se encontraran jamás, que por dos veces fallara su encuentro. Porque parece ser que Gibbs fue uno de los pocos contemporáneos que entendía los artículos de Boltzmann, lo que suponía en él una gran experiencia matemática, además de una lucidez introspectiva considerable, dado lo abigarrados y difíciles que eran los artículos de Boltzmann.

Fuente Consultada:
Un Poco de Ciencia Para Todo el Mundo Claude Allégre
Elementos de Física y Qumica Maiztegui-Sabato
Guía de Apoyo Para El Estudiante Tomo: Física.

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos. Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías>. Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro. Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia. Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas. En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea. La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político. En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil. En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

Riesgos del Uso de Uranio en la Centrales Atomicas Ventajas Riesgos

Riesgos del Uso de Uranio en la Centrales Atómicas

DESCRIPCIÓN DEL PROCESO DE LIBERACIÓN DE ENERGÍA POR UN ÁTOMO:
La liberación de la energía nuclear:
En un trozo de uranio 235, un neutrón rompe Un núcleo y expulsa, por ejemplo, dos neutrones. Estos, al romper dos núcleos, producen en la segunda generación cuatro neutrones, los que a su vez liberan ocho neutrones en la tercera generación tras desintegrar cuatro núcleos. La cuarta generación origina dieciséis, la décima mil veinticuatro, la vigésima más de un millón, la trigésima mil millones. Así, cual un alud, el número de los proyectiles crece en progresión geométrica. Como una generación de neutrones sólo dura un pequeñísimo intervalo de tiempo —una fracción infinitesimal de un segundo— todos los núcleos (2,5 x 1024) presentes en un kilogramo de uranio estarían casi instantáneamente desintegrados.

El funcionamiento normal de las centrales nucleares esparce por todo el mundo un repugnante espectro de substancias letales que no podrán nunca ser contenidas de modo seguro y que el ambiente natural no puede absorber de modo seguro. Por fortuna, la energía nuclear es tan innecesaria como injustificada: podemos satisfacer las necesidades de electricidad del mundo sin una sola central nuclear de fisión, si atemperamos de modo razonable nuestra demandas de energía.

Las únicas centrales que existen actualmente utilizan la fisión. La fusión, una tecnología que podría revolucionar la vida sobre la Tierra si se logran superar a un coste competitivo las barreras científicas que lo impiden, no existirá, suponiendo que así sea, hasta finales de siglo.

La energía de la fisión se debe a la liberación de calor que se produce cuando los átomos de uranio, bombardeados por partícula» atómicas llamadas neutrones, absorben un neutrón y se dividen dando elementos más ligeros, como estroncio y yodo. La división de lo» átomos de uranio libera también otros neutrones que repiten el pro ceso, en una reacción en cadena.

Se crean también elementos mas pesados cuando algunos de los átomos de uranio 238 en lugar de dividirse se transforman en plutonio 239, absorbiendo un neutrón. Muchos de los elementos creados a consecuencia de la fisión son inestables, es decir, que pierden energía rápidamente emitiendo partícula», Estas emisiones, llamadas radioactividad, son peligrosas para lo» seres vivos porque pueden desorganizar los genes y los tejidos.

La energía de fisión tiene la característica única entre todos los sistemas de obtención de energía, de añadir a los niveles del fondo natural cantidades de radiación equivalente, lo que no hace ninguna otra tecnología. El calor liberado en la fisión, se utiliza para convertir agua en vapor, que una vez proyectado sobre las paletas de una turbina eléctrica crea electricidad por la rotación de una bobina dentro de un campo magnético.

Este proceso ha fascinado a los científicos, los ingenieros y burócratas, debido principalmente a un hecho asombroso: la fisión de unos 30 gramos de uranio libera la misma energía aproximadamente que la combustión de 100 toneladas de carbón. Muchas personas a la caza de esta milagrosa cornucopia de energía, han cernido los ojos a los problemas y consecuencias que la fisión trae para nuestro ambiente.

Los partidarios de la fisión nuclear aseguran que es asegura, barata y limpia con respecto al medio ambiente», y que sus riesgos son aceptables. Mantienen que la fisión es una tecnología probada, disponible, y «en producción», mientras que otras energías de recambio no producirán energía con la rapidez necesaria para satisfacer nuestras necesidades.

La Energía Nuclear aporta un 33% de la energía consumida en Europa, de manera limpia, sin emisiones de gases de efecto invernadero y causantes de la lluvia ácida y sin perjudicar la capa de ozono. Además las centrales nucleares producen cantidades muy pequeñas de residuos sólidos en proporción a las grandes cantidades de electricidad que producen y el efecto de las emisiones líquidas y gaseosas en el medio ambiente es inapreciable. Otro problema distinto, es donde almacenar los residuos que se producen, residuos con vidas media muy largas.

Por otro lado la Energía Nuclear no está sujeta a cambios en las condiciones climáticas, sino que las centrales nucleares operan 24 horas al día durante los 365 días del año, lo que supone una gran garantía de suministro. Además no sufre fluctuaciones imprevisibles en los costes y no depende de suministros del extranjero, lo que produce precios estables a medio y largo plazo.

Los que defienden energías de recambio están en total desacuerdo y aseguran que si se dispusiera de sólo una pequeña fracción de los fondos dedicados actualmente a la fisión nuclear, se podrían crear en unos pocos años industrias energéticas de recambio seguras, industrias que proporcionarían tanta energía como la que se obtiene de la fisión. Señalan especialmente que el desarrollo de «energías menos duras» ha sido perjudicado por la enorme sangría de recursos que la fisión nuclear ha impuesto a los fondos de investigación energética de los EE.UU.

Los problemas más serios de la fisión se deben a que una sola central nuclear de fisión de gran tamaño produce tanta radioactividad de vida prolongada como la explosión de 1.000 bombas atómicas de Hiroshima. Y se cree que la exposición de las personas a la radiación aumenta el riesgo de cáncer, de daños genéticos, enfermedades del corazón y muchas otras dolencias. Parece ser que en los niños que todavía no han nacido, la radiación aumenta los riesgos de defectos congénitos y retraso mental. Pero a pesar de esto, la Comisión de energía atómica (AEC), ha anunciado planes para autorizar la instalación de 1.000 centrales nucleares en los próximos 25 años.

El contaminante radioactivo más peligroso de los muchos que producen los reactores, es el plutonio. Se trata de una sustancia artificial, que no existe de modo natural en la Tierra, y que es el ingrediente explosivo de las armas nucleares. Es tan mortal, que tres cucharadas de plutonio contienen suficiente radioactividad para inducir el cáncer en más de 500 millones de personas, según el Dr. John W. Gofman, codescubridor del uranio 233.

En su opinión se trata de la sustancia más tóxica de la Tierra, y una mota infinitesimal, más pequeña que un grano de polen, produce cáncer si se respira o se traga con el agua. Y, sin embargo, el funciona-miento de 2.000 reactores producirá 400.000 kilos de este material cada año: un desecho para el cual no existen sistemas de recolección. Hay que guardar el plutonio en depósitos con una vigilancia sin falla por los menos durante 250.000 años, más de 125 veces la duración de toda la era cristiana, a no ser que se dé un gran paso en la tecnología de los deshechos radioactivos.

Hay que guardar también el plutonio para evitar que sea robado con fines terroristas. Se necesitan sólo unos pocos kilos de plutonio para fabricar una bomba que borraría del mapa ciudades como San Francisco, Nueva York o Moscú. Estas destrucciones pueden llevarse a cabo con una facilidad escandalosa. Un estudio secreto de la AEC informó que dos físicos que acababan de finalizar su carrera fueron capaces de diseñar una bomba atómica recurriendo únicamente a las obras accesibles al público.

Vivimos una época en la que casi cualquier país o grupo de presión con unos pocos científicos capacitados, puede convertirse en potencia nuclear, creando un riesgo terrible de guerra o accidente nuclear Si éstos fuesen los únicos peligros que presenta la energía de fisión, constituirían motivo suficiente para abandonarla.

Entre otros problemas están la falta de técnicas seguras de almacenamiento para los deshechos nucleares de alto nivel, la posibilidad de que se produzcan fugas catastróficas de radioactividad de las centrales nucleares, y emisiones normales radioactivas.

— Cuando sus recipientes sufren alteraciones normales escapan al medio ambiente deshechos de alto nivel, y los que critican el sistema aseguran que parte de los deshechos se ha incorporado al agua del suelo. Los deshechos se ven expuestos dentro de sus tanques a la acción de saboteadores, terremotos, guerras o accidentes; una sola de estas causas, bastaría para dejar sueltas de golpe cantidades colosales de radioactividad.

— Las medidas de protección destinadas a proteger al público contra accidentes nucleares serios, no se han puesto nunca a prueba de modo completo y en condiciones reales de funciona miento. La explosión de una central podría causar miles de muertos y daños por valor de 17.000 millones de dólares, según la AEC. (caso de Chernobyl en 1986 y Japón en 2010)

— La fuga de sólo un mínimo por ciento de la radioactividad del núcleo de un reactor, podría convertir en inhabitable una zona del tamaño de California.

— Aparte de los accidentes, las centrales de fisión emiten de modo normal radioactividad por los gases de sus chimeneas y por el agua de deshecho. Según cálculos realizados por eminentes cien tíficos, los límites federales legales para este tipo de radiación son tan altos que si cada persona en el país se viera expuesta a los límites de radiación permitidos, se producirían cada año, 32.000 fallecimientos más por cáncer y leucemia y de 150.000 a 1.500.000 fallecimientos genéticos adicionales. El coste-anual para la seguridad social de las enfermedades inducidas genéticamente ha sido calculado por el especialista en genética, premio Nobel, Joshua Lederberg, en 10.000 millones de dólares.

cuadro central nuclear

Cuadro funcionamiento de una central nuclear

Central Nuclear Atucha I

La Fision o Desintegracion Nuclear La Energia del Atomo de Uranio

TEORÍA ATÓMICA: FISIÓN NUCLEAR O ATÓMICA

TEORÍA ATÓMICA: FISIÓN NUCLEAR O ATÓMICA

Los fundamentos de la física atómica

DESCRIPCIÓN DEL PROCESO DE LIBERACIÓN DE ENERGÍA POR UN ÁTOMO:
La liberación de la energía nuclear:
En un trozo de uranio 235, un neutrón rompe Un núcleo y expulsa, por ejemplo, dos neutrones. Estos, al romper dos núcleos, producen en la segunda generación cuatro neutrones, los que a su vez liberan ocho neutrones en la tercera generación tras desintegrar cuatro núcleos.

La cuarta generación origina dieciséis, la décima mil veinticuatro, la vigésima más de un millón, la trigésima mil millones.

Así, cual un alud, el número de los proyectiles crece en progresión geométrica. Como una generación de neutrones sólo dura un pequeñísimo intervalo de tiempo —una fracción infinitesimal de un segundo— todos los núcleos (2,5 x 1024) presentes en un kilogramo de uranio estarían casi instantáneamente desintegrados.

La rapidez con que se establece y se propaga la reacción en cadena dilataría y haría explotar la masa con extrema violencia antes que todos los núcleos hubiesen podido ser fragmentados. Si se admite que sólo el 10% de los átomos participa en la reacción, la enorme cantidad de energía liberada equivale a la producida por la explosión de 2000 toneladas de trinitrotolueno.

En la foto de arriba se encuentran compartiendo una información física Albert Einstein y Leo Szilard.
El doctor Leo Szilard, fue a quien se le ocurrió mientras esperaba el cambio de un semáforo en la intersección de Southampton Row en Londres, la ideas de producir una reacción nuclear controlada, bombardeando núcleos con neutrones. Por puro juego, y no por ningún impulso agresivo, el físico bajito y gordo, húngaro de nacimiento, visualizó una reacción atómica en cadena mientras deambulada por la ciudad en aquel dorado septiembre de 1933, dedicado a sus pasatiempos favoritos: pensar y pasear.

En forma de calor, mil novecientos millones de grandes calorías estarían disponibles, constituyendo el centro de la volatilización de toda materia presente. En una fracción infinitesimal de segundo, la temperatura se elevaría a centenares de miles de grados en el lugar de la explosión, engendrando un espantoso vendaval cuyos efectos destructores —merced a la propagación de la onda de compresión— semejarían a la devastadora barrida de una gigantesca marca.

En vísperas de la Segunda Guerra Mundial, todas estas posibilidades no pasaban de ser meras previsiones teóricas, a las cuales, sin embargo, el comienzo del conflicto bélico iba a conferir excepcionales alcances. Hacia fines de 1940, cuando el secreto militar comenzó a volver impenetrable el velo que cubría las investigaciones sobre la energía nuclear, la utilización de la misma para producir una bomba parecía todavía un objetivo muy lejano e incluso utópico. Sin duda se sabía que el uranio 235 era particularmente sensible a la “fisión” y que ofrecía una sección eficaz mayor a los neutrones lentos que a los rápidos; se habían desarrollado métodos para producir neutrones lentos; se habían elaborado procedimientos para separar el uranio 235 de su isótopo corriente; se había logrado aislar dos elementos transuránicos, el neptunio y el plutonio, y se reconocía que este último era también “fisionable” en circunstancias semejantes a las del uranio 235.

Además, se habla adquirido la certeza de que en la “fisión”, al menos un neutrón rápido —y en término medio dos o tres— era emitido por el núcleo. Sin embargo, a pesar del conjunto de tales progresos, todavía nadie había logrado producir una reacción autosustentada. Algunos investigadores incluso se preguntaban si la naturaleza acepta someterse a las exigencias de los teóricos. Tal vez la reacción en cadena era, en general, irrealizable. Pero las dudas terminaron por disiparse definitivamente el 2 de diciembre de 1942: ENRICO FERMI había realizado en Chicago, por primera vez, una reacción nuclear autosostenida.

El dispositivo construido en Chicago consistía en una pila de ladrillos de grafito puro que incluía trozos de uranio, separados por distancias regulares conforme a un esquema geométrico. El grafito servía de sustancia moderadora destinada a frenar mediante choques elásticos los neutrones que salen dotados de elevadas velocidades de la ruptura nuclear del uranio 235. Algunos de los neutrones penetran en el isótopo pesado U-238, otros vuelven a ser capturados por el isótopo liviano U-235, puesto que ambos están presentes en los trozos de metal de la pila. Los proyectiles que golpean el U-238 provocan su transformación, que termina por dar origen al plutonio, mientras neutrones capturados por núcleos de U-235 producen la “fisión” de éstos, expulsando neutrones que siguen provocando nuevas rupturas.

Así, la pila produce a la vez materia “fisionahle” (plutonio) y libera energía al desintegrar núcleos. Agreguemos que para el arranque no se necesita detonador ni ningún otro dispositivo especial; los neutrones de origen cósmico existentes en la atmósfera, o neutrones errantes que provienen de la explosión espontánea de un átomo de uranio, son suficientes para iniciar la reacción. Una condición indispensable para el funcionamiento de la pila es su volumen, que debe superar cierto tamaño crítico. De lo contrario el número de neutrones que escapan por la superficie de la pila no permite que se establezca la cadena de las reacciones. Para el autosostenímiento de la cadena es menester, además, que cada neutrón incidente produzca al menos un nuevo neutrón apto para determinar a su vez la ruptura de un núcleo, siendo en este caso el “factor de multiplicación” igual a la unidad.

La cadena se extingue si dicho factor resulta inferior a uno; en cambio, si es considerablemente superior, la liberación continua y lenta de la energía se transforma en un proceso explosivo, convirtiendo a la pila en una bomba. Tan peligrosa proliferación de neutrones es contrarrestada introduciendo en la masa de grafito láminas de materia absorbente (cadmio) que permiten mantener constante la velocidad de la reacción y “controlar” el nivel energético de la pila mediante un dispositivo automático. Tales fueron, a grandes rasgos, las fundamentales características de la pila de FERMI, arquetipo de todos los reactores.

Al principio la pila de FERMI engendró, en forma de calor, una potencia de 0,5 vatio; poco después aumentó su nivel de energía hasta llegar a 200 vatios. Con tal reducido poder, una pila debería funcionar varios miles de años para producir la cantidad de plutonio requerida en la fabricación de una sola bomba. Mas una conquista no puede medirse en vatios. La posibilidad de liberar energía nuclear en escala macroscópica estaba magníficamente demostrada. Si bien la distancia que separa la pila experimental de Chicago de la bomba experimental de Alamogordo era muy superior a la existente entre la rudimentaria máquina de vapor de NEWCOMEN y la locomotora de STEPHENSON, el largo camino fue recorrido en el breve intervalo de treinta meses gracias al formidable potencial tecnológico de los Estados Unidos, y al esfuerzo de un verdadero ejército de científicos, técnicos y trabajadores. El 6 de agosto, la pavorosa explosión que arrasó la ciudad de Hiroshima anunció al mundo que el hombre disponía de nuevas y tremendas fuerzas aprisionadas desde eternidades en las entrañas de la materia.

“En el interior de una bomba de fisión —escribe uno de los principales constructores de la bomba, ROBERT OPPENHEIMER (1904-1967)—, se materializa un lugar con el cual ningún otro

El factor de multiplicación es el cociente del número de los nuevos neutrones producidos y el número inicial de los neutrones primitivos.
En la pila de FERMI el factor de multiplicación era igual a 1,007.

puede ser comparado. Al explotar la bomba se producen temperaturas más elevadas que las que reinan en el centro del Sol; su carga está constituida por materias que normalmente no existen en la naturaleza y se emiten radiaciones (neutrones, rayos gamma, electrones) de una intensidad que no tiene precedentes en la experiencia humana. Las presiones que se obtienen equivalen a billones de veces la presión atmosférica. En el sentido más primario y más sencillo, es perfectamente cierto que con las armas atómicas el hombre ha creado situaciones nuevas.”

En pilas y bombas de uranio (o plutonio), la energía se produce por la ruptura de un elemento muy pesado en fragmentos menos pesados. Sin embargo, para producir enormes cantidades de energía no es éste el proceso que la naturaleza elige. Las estrellas prefieren la fusión a la “fisión”; como ya dijimos, transforman en gigantesca escala —por síntesis de elementos livianos— una parte de su materia nuclear en energía radiante. Tan sólo las prodigiosas reservas energéticas, cuyo depósito son los núcleos, pueden permitir al Sol irradiar en forma de luz y calor, año tras año, tres quintillones (3 x 1030) de grandes calorías.

Este torrente de energía solar fluye por lo menos desde hace cuatrocientos o quinientos millones de años, puesto que las pruebas aportadas por la flora y fauna paleozoicas sugieren que las condiciones climáticas de la Tierra no han cambiado esencialmente desde aquella remotísima era primaria. Mas ¿cuál es la transformación nuclear capaz de alimentar tan formidable despliegue energético, que equivale por segundo a una pérdida de cuatro millones de toneladas de masa solar? No cabe duda de que la transformación del elemento más común del universo, el hidrógeno en helio (el elemento que sigue al hidrógeno en la Tabla Periódica), podría suministrar la fuente energética de la radiación solar.

En efecto, la síntesis del helio a partir de los constituyentes de su núcleo está acompañada —como hemos explicado al tratar la energía de la unión nuclear— por la pérdida de una parte de las masas que intervienen, siendo liberada la masa desaparecida —de acuerdo con la equivalencia einsteniana— en forma de energía radiante. Sin embargo, el mecanismo de la supuesta transmutación no había dejado de ser enigmático hasta que HANS BETHE, hacia 1940, propuso su hipótesis del ciclo del carbono.

Las enormes temperaturas que reinan en el interior del Sol —veinte millones de grados en la región central— confieren a las partículas de la masa solar —y especialmente a los protones a velocidades tan elevadas que éstas pueden penetrar en los núcleos de elementos livianos y transmutarlos. Así, el núcleo ordinario de carbono, bombardeado por un protón, se transforma al capturarlo en un isótopo del nitrógeno que se desintegra. En cinco reacciones consecutivas engendran con la emisión de dos electrones positivos varios isótopos de carbono, de nitrógeno y de oxígeno. Bombardeados éstos a su vez por núcleos de hidrógeno, conducen finalmente a la formación del helio.

La excepcional característica de este ciclo, que convierte cuatro núcleos de hidrógeno en un núcleo de helio, es la reaparición del carbono inicial en la última reacción, que se encuentra así regenerado. Desempeña el papel de catalizador y puede ser utilizado innumerables veces, hasta que todo el hidrógeno solar haya sido transmutado en helio, asegurando así las reservas energéticas del Sol durante miles de millones de años. A idénticas o análogas reacciones termonucleares deben sus caudales de energía también otras estrellas.

No cabe duda de que el ciclo de carbono, productor de la energía solar, representa el primordial proceso físico-químico del universo desde la perspectiva de la historia humana. Sin las reacciones termonucleares, que se realizan en el interior del Sol, la vida no habría podido surgir sobre la superficie de la Tierra, donde los fenómenos biológicos, desde la fotosíntesis de la clorofila de los vegetales hasta el metabolismo en el organismo de los animales y del hombre, son tributarios de la radiación solar. Es un hecho realmente notable que el carbono —sustancia básica de la materia viva— desempeñe también el papel de catalizador en el grandioso proceso cósmico que dio origen primario a todas las actividades vitales en la naturaleza terrestre.

La síntesis de elementos livianos a partir del hidrógeno ha dejado de ser privilegio de las masas estelares desde hace algunos años. Reacciones termonucleares, productoras de la fusión de núcleos, suministran la fuente energética a la novísima arma: la bomba de hidrógeno. Desde luego, el ciclo de BETHE, que genera helio en las profundidades del globo solar es demasiado lento y complicado para el uso militar.

Es probable que la transmutación de una masa de los dos isótopos pesados del hidrógeno, el deuterio y el tritio, en helio, esté en la base de la liberación de energía realizada por la nueva bomba. Para establecer las formidables temperaturas (varios millones de centígrados) capaces de desencadenar la reacción se utiliza la ruptura del uranio o del plutonio: la bomba de “fisión” sirve de detonador a la superbomba de fusión. El modelo de ésta, utilizado por los expertos estadounidenses en las pruebas de Enivetock, a fines de 1952, superaba doscientas veces el poder (es decir, la cantidad de energía liberada) de la bomba de Hiroshima, según estimaciones extraoficiales.

No cabe duda de que la posibilidad de borrar de la superficie del globo cualquiera de las grandes metrópolis de la Tierra mediante la explosión de una bomba o a lo sumo de muy pocas bombas está, desde ahora, dentro de los alcances del hombre. El uso de esta arma en un conflicto bélico significaría la abdicación de la razón humana y equivaldría a una tentativa de suicidio del homo sapiens.

PARA SABER MAS…
1938:SE DESCUBRE LA FISIÓN NUCLEAR

A mediados de los anos treinta, físicos de Alemania, Francia e Italia competían por ser los primeros en conseguir romper un átomo. El físico francés Frédéric Joliot-Curie había iniciado la carrera al declarar que «las reacciones nucleares en cadena» conducían a la «liberación de enormes cantidades de energía aprovechable».

En 1935 había sido galardonado con el Premio Nobel (junto con su mujer, Irene Joliot-Curie) por el descubrimiento de la radiactividad artificial. En Berlín, un equipo de investigación compuesto por Otto Hahn, Fritz Strassmann y Lise Meitner empezó a bombardear átomos de uranio con neutrones. Los científicos esperaban que el proceso diera lugar a elementos radiactivos más pesados similares al uranio. En vez de esto, a finales de 1938, Hahn y Strassmann (Meitner, judía austríaca, había huido a Suecia después de que Hitler invadiera Austria en marzo) se sorprendieron al descubrir que su bombardeo sobre el uranio había dado lugar a un elemento mucho más ligero que el uranio, llamado bario.

Hahn y Strassmann enviaron sus resultados a Meitner, a Estocolmo, donde ella y su sobrino, el físico Otto Frisen, investigaron el misterio. Llegaron a la conclusión de que el núcleo del uranio, en vez de emitir una partícula o un pequeño grupo de partículas, como se suponía, desarrollaba una «cadena» y luego se rompía en dos fragmentos ligeros prácticamente iguales, cuyas masas, unidas, pesaban menos que el núcleo original del uranio. La diferencia de peso se convertía en energía.

Meitner dio el nombre de «fisión» al proceso. Joliot-Curie descubrió que la fisión del uranio producía la liberación de neutrones adicionales que, a su vez, podían ser utilizados para romper otros átomos de uranio. Se habían establecido las condiciones para el tipo de reacción en cadena que daría lugar a la bomba atómica.

Durante la guerra, Hahn y Strassmann permanecieron en Alemania. Hahn fue capturado por los aliados en la primavera de 1945 y, mientras se hallaba detenido en Inglaterra, se enteró de que había ganado el Nobel de Química de 1944. Cuando aceptó el premio, el sentimiento de que había realizado un gran descubrimiento científico estaba empañado a causa de que la fisión había hecho posible la destrucción de Hiroshima y Nagasaki. Después de la guerra, Hahn defendió con gran pasión el control de las armas nucleares.

Fuente Consultada: Historia de la Ciencia Desidero Papp

La Maquina de Dios Acelerador de Particulas Mas Grande del Mundo

La Máquina de Dios Acelerador de
Partículas Mas Grande del Mundo

ACELERADOR DE PARTÍCULAS: Los aceleradores de partículas son máquinas de grandes proporciones que aceleran partículas subatómicas a altísimas velocidades. Luego de movilizarse a gran velocidad las partículas abandonan la máquina para chocar contra el blanco. Dichas partículas o bien fragmentan los átomos del blanco, o bien resultan incorporadas por esos átomos, dando lugar a la formación de átomos más grandes.

Los aceleradores de partículas son las principales herramientas que los físicos nucleares usan para el estudio de la estructura del núcleo del átomo. Normalmente el núcleo contiene varios tipos de partículas, y muchas otras pueden producirse bombardeando los blancos con partículas aceleradas.

El estudio de las partículas elementales o partículas fundamentales, es decir de las partes más simples de la materia, se denomina física de la partículas o física de alta energía. Las partículas alcanzan una energía elevadísima cuando se las acelera en estos aparatos. Los físicos esperan alcanzar una comprensión integral de la naturaleza de la materia ,fisionando el núcleo de los átomos o creando de este modo núcleos nuevos. La mayoría de los aceleradores de partículas son enormes máquinas.

El conducto donde las partículas se aceleran puede ser recto o circular. El acelerador lineal de la Universidad de Stanford, en California, tiene un tubo central recto de 3,2 kilómetros (2 millas) de largo. En los laboratorios de la CERN (European Organization for Nuclear Research), en las afueras de Ginebra, Suiza, se proyecta un acelerador circular de 2,2 kilómetros de diámetro (1,4 millas). A su término quedará a horcajadas sobre el límite con Francia.

El poder de los aceleradores se mide en ELECTRON-VOLTIOS (eV) que es la cantidad de energía infundida a las partículas para acelerarías. Pero las grandes máquinas son tan poderosas que su energía se mide en GeV (gigaelectronvoltio). Un GeV es igual a 1000 millones de eV. Más tarde, se aumentará la potencia de la máquina del CERN y con el tiempo podrá alcanzar los 1000 GeV. Cada máquina puede consumir tanta electricidad como una ciudad entera!

El acelerador de partículas más poderoso jamás construido podría hacer algunos descubrimientos notables, como confirmar la existencia de la materia invisible o de las dimensiones espaciales adicionales, una vez que empiece a funcionar en agosto.

La “Máquina de Dios”, como se ha dado en llamar al Gran Colisionador de Hadrones (LHC), tiene por también por finalidad la de desentrañar los enigmas del origen del Universo, es decir, cómo fue que se creó la materia y qué pasó con la antimateria en el momento del Big Bang. Considerado el experimento científico más ambicioso de la historia, el LHC intentará identificar con total certeza los ladrillos fundamentales con que se construyeron las estrellas, los planetas y hasta los seres humanos.

QUE ES UN ACELERADOR DE PARTÍCULAS? Estas enormes máquinas aceleran partículas cargadas (iones) mediante campos electromagnéticos en un tubo hueco en el que se ha hecho el vacío, y finalmente hacen colisionar cada ion con un blanco estacionario u otra partícula en movimiento. Los científicos analizan los resultados de las colisiones e intentan determinar las interacciones que rigen el mundo subatómico. (Generalmente, el punto de colisión está situado en una cámara de burbujas, un dispositivo que permite observar las trayectorias de partículas ionizantes como líneas de minúsculas burbujas en una cámara llena de líquido.)

Las trayectorias de las partículas aceleradas pueden ser rectas, espirales o circulares. Tanto el ciclotrón como el sincrotrón utilizan un campo magnético para controlar las trayectorias de las partículas. Aunque hacer colisionar las partículas unas contra otras puede parecer inicialmente un método un tanto extraño para estudiarlas, los aceleradores de partículas han permitido a los científicos aprender más sobre el mundo subatómico que ningún otro dispositivo.

El primer acelerador circular se llamó: ciclotrón. El físico estadounidense Ernest O. Lawrence fue galardonado con el Premio Nobel de Física en 1939 por el invento y desarrollo del ciclotrón, un dispositivo para acelerar partículas subatómicas. Lawrence desarrolló el ciclotrón, el primer acelerador circular. Es una especie de acelerador lineal arrollado en una espiral. En vez de tener muchos tubos, la máquina sólo tiene dos cámaras de vacío huecas, llamadasdes, cuya forma es la de dos D mayúsculas opuestas entre sí.

Un campo magnético producido por un potente electroimán hace que las partículas se muevan en una trayectoria curva. Las partículas cargadas se aceleran cada vez que atraviesan el hueco entre las des. A medida que las partículas acumulan energía, se mueven en espiral hacia el borde externo del acelerador, por donde acaban saliendo.

Según la fórmula de Einstein E = mc² la masa es un tipo de energía. Esto significa que la energía puede transformarse en masa y viceversa. En los aceleradores de partículas ésto es utilizado para transformar energía cinética en masa, en una colisión de partículas. De este modo, nuevas partículas pueden ser creadas en las colisiones de partículas con altas velocidades relativas.  En la búsqueda de nuevas partículas pesadas es importante ser capaz de acelerar partículas a altas energías. A mayor energía de las partículas originales, partículas más pesadas pueden ser creadas en las colisiones de partículas.

HISTORIA:
PRIMEROS PASOS Y AVANCES CON LA APLICACIÓN DE ESTA MAQUINA…

Organización Europea para la Investigación Nuclear, institución europea de investigación cuya sede se encuentra en la ciudad suiza de Meyrin (situada en las proximidades de Ginebra, en la frontera entre Francia y Suiza). Es más conocida por las siglas CERN, correspondientes al nombre con que fue fundada en 1954: Conseil Européen pour la Recherche Nucléaire (Consejo Europeo para la Investigación Nuclear).

En el CERN se han construido aceleradores desde los 1950. Hoy existe un gran sistema de aceleradores lineales y circulares. Algunos de los aceleradores más antiguos se usan aún para iniciar la aceleración de partículas antes de ser enviadas a los aceleradores más largos. El sistema de aceleradores del CERN puede acelerar electrones, positrones, protones y diferentes tipos de iones.

Vista Area del CERN

Imagen de Abajo: El LEP (Large Electrón-Positrón Collider), en servicio desde 1989 en la frontera francosuiza, cerca de Ginebra, es el mayor acelerador del mundo y lo seguirá siendo por lo mucho tiempo. Está destinado a estudiar las partículas   de   muy   altaenergía producidas en el transcurso de colisiones entre un haz de electrones y otro de positrones que circulan en sentidos opuestos. Situado en un túnel circular (de 26,7 km. de longitud y 3,8 m. de diámetro interior), el anillo de sección rectangular (5 cm x 20 cm) está enterrado a una profundidad comprendida entre 50 y 175 m. Lo rodean 3.368 imanes de curvatura, 1 300 imanes de focalización y 128 cavidades aceleradoras de alta frecuencia que suministran 400 millones de voltios de tensión aceleradora por vuelta.

En cuatro puntos, el túnel se ensancha en salas de 27 m. de diámetro y 70 m. de longitud donde se encuentran los dispositivos experimentales destinados a detectar las partículas producidas y a determinar sus características. Loselectrones y los positrones sufren la acción de tres aceleradores sucesivos y penetran en el LEP con una energía de 22 GeV. Cada haz es acelerado hasta 50 GeV, por lo que en cada colisión se ponen en juego 100 GeV. Las partículas, inyectadaspor paquetes de 5 billones, giran durante horas y recorren miles de millones de kilómetros; en cada vuelta, se producen sólo unas pocas colisiones entre los dos haces de 1 mm3 de sección.

LEP en suiza

El 14 de julio de 1989, aniversario de la toma de la Bastilla toda Francia celebró el bicentenario del comienzo de la Revolución. A las 16.30 del mismo día, los físicos del CERN, centro internacional de investigación sobre física de las partículas situado en Ginebra, celebraban la entrada en funcionamiento del LEP (Large Electron Positron Collider), la mayor máquina científica construida hasta entonces.

Alojado en un túnel circular de unos 27 km de diámetro (casi todo bajo territorio francés), el LEP es un acelerador que provoca colisiones de partículas a muy alta velocidad, para conseguir elevadísimas energías. Es capaz de crear las condiciones que reinaban una fracción de segundo después de la gran explosión que supuestamente dio origen al universo, así como de provocar la formación de partículas y determinar efectos que no se han producido desde entonces.

En especial, los físicos esperaban crear partículas Z, cuya existencia había sido predicha en los años 60, en el marco de la teoría que unifica el electromagnetismo con la fuerza nuclear débil. Las partículas Z, portadoras de esta fuerza débil, se observaron por primera vez a mediados de agosto de aquel año y la evaluación de los primeros resultados estaba lista para fines de octubre.

El LEP fue la culminación de casi diez años de planificación y construcción, a un coste situado en torno a los 80.000 millones de pesetas. En el momento en que el LEP entraba en funcionamiento, Estados Unidos proyectaba construir en Texas una máquina todavía más gigantesca, el Superconducting Supercollider (SSC), con una circunferencia de 84 Km. y un coste estimado de más de 100.000 millones de pesetas. Sin embargo, si llegara a hacerse realidad, este proyecto podría constituir fácilmente el fin del recorrido en este sentido, ya que los físicos están dirigiendo actualmente su atención a nuevas tecnicas con máquinas lineales en lugar de circulares.

El CERN, fundado en 1953, fue desde el comienzo una empresa cooperativa con la participación de 14 países europeos. Físicos de otros paises, entre ellos la Union Soviética, Japón y Estados Unidos, han participado posteriormente en sus programas de investigación. Fue uno de los indicios de un nuevo movimiento paneuropeo, reflejado también en las esferas económica y política. Europa no carecía de talentos científicos, como lo demuestra el éxito continuado en la obtención del premio Nobel, pero en muchos campos los países individuales no podían en modo alguno competir con Estados Unidos.

No era sólo un problema financiero sino de disponibilidad de personal científico cualificado. Ante la falta de oportunidades en sus países, los científicos europeos. Y En el Fermillab, (imagen abajo) en Illinois (EE UU), una carretera marca los 6km de circunferencia del anillo subterráneo del acelerador de partículas del laboratorio. En 1913, el Fermllab perfeccionó sus instalaciones Instalando Imanes superconductores yen 1990 producía todavía los rayes de protones mas energéticos del mundo.

Cedían a la atracción de Estados Unidos, que les ofrecía mayores salarios y mejores instalaciones. Esta tendencia era particularmente notable en el campo de las ciencias físicas, el ámbito de los proyectos de la “gran ciencia”,. La cooperación científica en Europa adquirió un nuevo impulso en 1973 con el ingreso de Gran Bretaña, Irlanda y Dinamarca en la Comunidad Económica Europea. Entre las nuevas iniciativas figuraban la Agencia Espacial Europea (fundada en 1975) y el centro multidisciplinario de investigación de la CE (15-FRA), con sede en Italia.

Pero en la ciencia, como en otras actividades humanas, las tendencias y las necesidades cambian, y las estrategias deben modificarse en consecuencia. En Gran Bretaña, por ejemplo, el gran laboratorio de investigación sobre energía atómica de Harwell (motivo de orgullo nacional durante la euforia de la posguerra e importante factor de negociación en el intercambio de información con Estados Unidos) tuvo que ser reorganizado y, en cierto modo, ganarse el sustento mediante contratos con la industria.

Por el contrario, el proyecto experimental IET (Ioint European Toros), destinado a producir energía mediante la fusión de núcleos ligeros, como en el interior del Sol, comenzó a funcionar en 1983, en la cercana localidad de Culham. Pero incluso este proyecto fue perdiendo el favor de la opinión pública cuando los movimientos ecologistas (opuestos a toda forma de energía nuclear) ganaron fuerza e influencia, sobre todo teniendo en cuenta que los resultados del programa se podrían medir más en décadas que en años.

El primer gran acontecimiento científico de los años 90 fue la puesta en órbita del telescopio espacial Hubble, en abril de 1990, después de veinte años de planificación. Pero su supuesta capacidad de «ver el universo con una profundidad diez veces mayor que la empleada anteriormente» no impresionó a quienes se oponían a una inversión de 1.300 millones de dólares para un proyecto de investigación pura, entre los que se encontraban muchos científicos con presupuestos escasos. Al mismo tiempo, comenzó la reevaluación del programa del Supercollider.

Si bien la exploración de las partículas más recónditas del átomo y de las regiones más remotas del universo ha seguido cautivando la imaginación popular, también ha sido intensa la actividad en otros campos de las ciencias físicas. De hecho, el progreso en estos dos campos habría sido imposible sin los avances logrados en muchos otros terrenos. Incluso las disciplinas clásicas de la física han demostrado ser capaces de proporcionar nuevas sorpresas.

En el campo del magnetismo, conocido desde la antigüedad, el descubrimiento de imanes líquidos ha abierto nuevas perspectivas. Estos imanes consisten en diminutas partículas de materiales magnéticos como, por ejemplo, ciertos óxidos de hierro, dispersos en un líquido como en los coloides corrientes, las partículas no se separan del líquido. Cada una actúa como un pequeño imán permanente y puede también conferir notables propiedades al líquido, denominado normalmente ferro fluido.

EL LHC: El acelerador LEP estuvo operativo entre 1989 y 1195. Entonces fue desmantelado para dar espacio para un nuevo acelerador en el mismo túnel. El nombre del nuevo acelerador es Gran Colisionador Hadrónico,LHC. LHC, al contrario de LEP, colisionará haces consistentes en protones. Las colisiones, mucho más energéticas,14 TeV, serán posibles reemplazando los electrones y positrones de LEP por protones.

Cientificos Argentinos Colaboradores

DATOS DEL “GRAN COLISIONADOR DE HADRONES”
Inicio de la construcción 1994
Construido por: CERN
Ubicación: Frontera Suiza-Francesa
Costo 6200 millones de euros
Científicos Comprometidos 10.000 científicos de 500 Universidades
Científicos Argentinos Ocho
Países Que Intervienen Cuarenta
Dimensiones 27 Km. de Diámetro
Profundidad Entre 50 y 125 metros
Temperatura de Trabajo 272 Bajo Cero °C
Aceleración Conseguida 99,9999999 de la Velocidad de la luz
Campo Magnético Logrado 100.000 veces el de la Tierra

OBJETIVOS DEL EXPERIMENTO:

  •     Descubrir qué es realmente la masa.
  •     Descubrir qué es la materia oscura (que ocupa más del 95% de la masa del Universo)
  •     Descubrir cuántas son las partículas totales del átomo.
  •     Descubrir la existencia o no de las partículas supersimétricas
  •     Descubrir por qué no hay más antimateria.
  •     Descubrir cómo era la materia durante los primeros segundos que siguieron al Big Bang.

EL BOSON DE HIGG: A una velocidad muy cercana a la de la luz, dos conjuntos de protones circulan en sentido inverso: cuando chocan, se generan, brevemente, partículas enormes. La última que así se descubrió, en el Fermi, en 1995, llamada quark top, tiene 174 veces la masa de un protón. Esas partículas, que ya no existen en la Tierra, existieron en el Universo, en las milésimas de segundo posteriores al Big Bang; las altísimas energías de aquellos instantes son reproducidas por el Colisionador. Así, investigar estas partículas fugaces equivale a investigar los primeros instantes del Universo.

Pero el propósito no es tanto saber qué pasó entonces, sino saber qué pasa ahora: poner a prueba las teorías básicas de la física. Entre aquellas partículas, interesa especialmente una, llamada bosón de Higgs, que tendría entre 130 y 200 veces la masa de un protón: su existencia es requerida por el “modelo estándar”, que, de las cuatro fuerzas consideradas fundamentales en la naturaleza –el electromagnetismo, la gravedad y, en el interior de los átomos, las fuerzas “fuerte” y “débil”–, explica todas menos la gravedad. (ampliar sobre el tema)

Naturaleza de la Materia

Biografia de Gauss Carl Los mas importantes matematicos de la historia

Biografía de Gauss Carl
Importantes Matemáticos de la Historia

Gauss Carl Grandes Matemáticos de la Historia

Junto a Arquímedes y Newton, Gauss es sin duda uno de los tres genios de la historia de las Matemáticas. Sus aportaciones en todos los campos matemáticos fueron increíbles, aunque algunos de sus descubrimientos tuvieran que esperar más de un siglo para ser valorados debidamente.

Las aportaciones de Gauss en todos los campos de la Matemática son inestimables: Teoría de números, Astronomía, Magnetismo, Geometría, Análisis…

Cualquier gran descubrimiento matemático a lo largo de este siglo encuentra detrás la alargada sombra de Gauss. Sólo en Francia otra figura es capaz de hacerle sombra, Cauchy, dando paso, o mejor obstaculizando, a dos jóvenes genios: Abel y Galois.

CARL FRIEDRICH GAUSS
El príncipe de las matemáticas
….cuando el famoso viajero y aficionado a las ciencias barón Alexander von Humboldt preguntó a Laplace quién era el más grande matemático de Alemania, Laplace replicó Plaff. “Y entonces Gauss, ¿qué?”, preguntó el asombrado von Humboldt. “Oh, – dijo Laplace-, Gauss es el mayor matemático del mundo.”

SU VIDA
Nacido en Brunswic, el 30 de abril de 1777, de familia humilde. Su padre se opuso siempre a que su hijo tuviera una educación adecuada a sus posibilidades. Sin embargo, cuando su padre murió en 1806, Gauss ya había realizado una obra inmortal. En el lado opuesto, su madre Dorothea Benz y el hermano de ésta, Friedrich, fueron fundamentales en la educación y posterior carrera del genio.

El apoyo de su madre y tío pudieron con la intención de su padre de mantener a Gauss en la gnorancia. Tan grande fue el cariño que Gauss sintió por su madre que se ocupó de ella los últimos 20 años de la vida de ésta despreocupándose de su fama y carrera.


Son muchas las anécdotas que muestran la precocidad intelectual del pequeño Gauss. Con tres años se permitió corregir los cálculos que realizaba su padre cuando éste laboraba la nómina de sus empleados.. Con anterioridad ya había aprendido a leer. Destacaba también su capacidad para el cálculo mental

A los siete años ingresó en su primera escuela, dirigida por un tal Büttner, personaje que no destacaba precisamente por sus dotes pedagógicos. De esta época se cuenta que a los 10 años , cuando fue admitido en la clase de aritmética, sorprendió a todos por la rapidez y procedimiento seguido en la resolución de un problema del tipo “Halla la suma de los 100 primeros números enteros”.

Gauss agrupó los números en 50 parejas de números que sumaban 101 La sorpresa de Büttner fue tal, que de su propio bolsillo, regaló al joven el mejor texto asequible de Matemáticas.

La casualidad hizo que el joven ayudante de su maestro, Johann Martín Bartel, fuera también un apasionado de las matemáticas. Ambos pasaron muchas horas juntos estudiando, ayudándose en las dificultades y ampliando demostraciones. En esta época se producen sus primeros trabajos sobre el teorema del binomio.

El propio Batels, por medio de algunos de sus influyentes amigos, consiguió presentar a Gauss al Duque de Brunswic, Carl Wilhelm Ferdinand en 1791. A partir de entonces el duque se encargó de pagar la educación de Gauss.

En Febrero de 1792 Gauss ingresó en el colegio Carolino, donde estudió durante tres años, conociendo la obra de Euler, Lagrange y, sobre todo, los Principia de Newton. Cuando dejó el colegio, en Octubre de 1795, aún no había decidido si se dedicaría a las matemáticas o a la filología.

En 1796, un mes antes de cumplir los 19 años, Gauss consiguió la construcción de un polígono regular de 17 lados con regla y compás , como se exigía en la Geometría desde Grecia. Algunos autores consideran este hecho fundamental para que Gauss se decidiera por las matemáticas y no por la filología.

A los 19 años había descubierto por si solo un importante teorema de la teoría de los números, la ley de la reciprocidad cuadrática. Después de su regreso a Brunswic en 1799, el duque tuvo que ser convencido para seguir con su ayuda económica a Gauss. Como contrapartida debió presentar su tesis doctoral en la Universidad de Helmstedt. En su tesis Gauss dio la primera demostración del teorema fundamental del álgebra..

Quizás la obra más importante publicada por Gauss sean las Disquisitiones Arithmeticae de 1801. A partir de aquí las matemáticas puras dejan de ser el único objetivo para Gauss y comienza a interesarse por la astronomía, dedicándole la mayor parte de su tiempo durante 20 años. y no faltándole los detractores que le ridiculizaron por “malgastar”su tiempo en el cálculo de órbitas de planetas menores.

En 1809 publicó sus segunda obra maestra, Teoría del movimiento de los cuerpos celestes que giran alrededor del Sol en secciones cónicas.

El 9 de octubre de 1805, un aumento de su pensión permitió que se casara con Johanna Ostoff. De este feliz matrimonio (Gauss lo considera así en una carta dirigida a su amigo Wolfgang Bolyai), nacieron tres hijos, José , Minna y Luis, el primero de los cuales heredó la capacidad de su padre para los cálculos mentales. Sin embargo 4 años después, con el nacimiento de Luis, su esposa murió. Al año se volvió a casar con Minna Waldeck, amiga íntima de su primera mujer, con la que tuvo dos hijos y una hija.

Su benefactor, el duque Fernando, quedó mortalmente herido tras enfrentarse a las tropas napoleónicas al frente de las fuerzas prusianas. Después de regresar a Brunswic y tras ser humillado por el propio Napoleón, el duque debió huir, muriendo en la casa de su padre en Altona, el 10 de Noviembre de 1806. La pérdida de su patrón obligó a Gauss a buscar algún medio de vida. La solución no tardó en llegar y en 1807 fue nombrado director del observatorio de Göttingen con la única obligación, si fuera necesario, de dar cursos de matemáticas a los estudiantes de la universidad. La enseñanza no fue una tarea que agradara a Gauss, solamente con buenos matemáticos se sentía cómodo impartiendo sus lecciones. En esta época debió soportar la presión de los invasores franceses y pagar una contribución involuntaria de 2000 francos a la caja de guerra de Napoleón (su orgullo no le permitió aceptar algunas donaciones para poder pagar esta multa).

A pesar de su capacidad en materias como estadística, seguros y aritmética política, Gauss no ocupó nunca un cargo político. Además de su dedicación a la Ciencia tenía sus hobbies en la lectura de la literatura europea y clásica, en su interés crítico por la política mundial, en su dominio de lenguas extranjeras y de nuevas ciencias como la botánica y la mineralogía.

Desde 1821 hasta 1848 Gauss trabajó en Geodesia. Entre 1830 y 1840 se dedicó a la física matemática, concretamente electromagnetismo, magnetismo terrestre la teoría de la atracción según la ley de Newton. Los últimos años de su vida, entre 1841 y 1855, los dedicó al “análisis situs” y a la geometría asociada a funciones de variable compleja.

Después de 20 años en los que a penas había salido de Göttingen, en junio de 1854 salió para visitar la construcción del ferrocarril entre su ciudad y Cassel. Los caballos se desbocaron y fue despedido fuera del carruaje, aunque no tuvo ningún daño, si sufrió un fuerte “shock”. Después de recuperarse llegó a presenciar la inauguración del ferrocarril a Göttingen.

A principios de 1855 comenzaron a aparecer los síntomas de su última enfermedad. Con dificultades, siguió trabajando hasta que murió pacíficamente el 23 de febrero de 1855.

SU OBRA
Las contribuciones de Gauss a las matemáticas van desde la más pura teoría de números hasta los problemas prácticos de astronomía, magnetismo y topografía. Realizó grandes aportaciones en todas las ramas de las matemáticas en las que trabajó. Llegó a publicar alrededor de 155 títulos, sin embargo se caracterizó por no presentar los trabajos que no creyera haber pulido hasta la perfección.

El polígono
Dejando de lado las curiosas anécdotas de su infancia, la primera aportación de Gauss a las matemáticas fue la construcción del polígono regular de 17 lados. Los primeros en tratar el tema, la escuela geométrica ligada a Pitágoras, Eudoxo, Euclides y Arquímedes, impusieron para las construcciones geométricas la condición de que sólo podría utilizarse regla y compás.

Gauss no sólo logró la construcción del polígono de 17 lados, también encontró la condición que deben cumplir los polígonos que pueden construirse por este método: El número de sus lados ha de ser potencia de dos o bien, potencia de 2 multiplicada por uno o más números primos impares distintos del tipo llamado números primos de Fermat.

Gauss demostró este teorema combinando un razonamiento algebraico con otro geométrico. Esta técnica utilizada para la demostración, se ha convertido en una de las más usadas en matemáticas: trasladar un problema desde un dominio inicial ( la geometría en este caso) a otro (álgebra) y resolverlo en este último.

Las Disquisiciones
En 1801, cuando contaba con 24 años, Gauss publicó su primera gran obra “Disquisitiones Arithmeticae”, obra tan importante para la teoría de los números como la obra de Euclides para la geometría. Además de organizar lo ya existente sobre los números enteros, Gauss aportó ideas propias. Fundamentó su teoría a partir de una aritmética de números congruentes que utilizó en la demostración de importantes teoremas, quizás el mas famoso de todos y el favorito de Gauss sea la ley de reciprocidad cuadrática, que Gauss llamó teorema áureo. En esta obra se muestra claramente una tendencia en todo el trabajo de Gauss, en sus demostraciones se elimina toda traza que pueda hacer ver el proceso que las ha hecho posibles. Esto ha sido un elemento negativo para las generaciones siguientes que han tenido muchos problemas para comprender los métodos empleados por Gauss.

No se puede dejar sin señalar la aportación de Gauss a la teoría de números complejos. Después de que en el Renacimiento se asignaran a estos números propiedades místicas y descripciones caprichosas, Gauss fue más práctico y los represento geométricamente mediante puntos en el plano, además de aceptarlos y emplearlos como objetos matemáticos puros. En 1811 Gauss demostró el hoy llamado teorema de Cauchy (él no llegó nunca a publicarlo). También elaboró un método para descomponer los números primos en producto de números complejos.

Un nuevo planeta

El descubrimiento del “nuevo planeta”, llamado posteriormente Ceres, el primer día del siglo XIX por el astrónomo Giuseppe Piazzi, sedujo enormemente al joven matemático. Era necesario determinar con exactitud la órbita de Ceres para ponerlo de nuevo al alcance los telescopios, Gauss acepto este reto y Ceres fue redescubierto un año después, en el lugar que el había predicho con sus detallados cálculos. Su técnica consistió en demostrar como las variaciones en los datos de origen experimental podían representarse mediante una curva acampanada (hoy conocida como campana de Gauss). También utilizó el método de mínimos cuadrados. Parecido éxito tuvo en la determinación de la órbita del asteroide Pallas, teniendo en cuenta en sus cálculos, las perturbaciones producidas por los otros planetas del sistema solar.

Gauss y la Geodesia
Hacia 1820 Gauss comenzó a trabajar en geodesia (determinación de la forma y tamaño de la tierra), tanto de forma teórica como e forma práctica. En 1821 se le encargo, por parte de los gobiernos de Hannover y Dinamarca, el estudio geodésico de Hannover. A tal fin Gauss ideó el heliotropo, instrumento que refleja la luz del Sol en la dirección especificada, pudiendo alcanzar una distancia de 100 Km y haciendo posible la alineación de los instrumentos topográficos.

Trabajando con los datos obtenidos en sus observaciones elaboró una teoría sobre superficies curvas, según la cual, las características de una superficie se pueden conocer midiendo la longitud de las curvas contenidas en ella. A partir de los problemas para determinar una porción de superficie terrestre surgieron problemas más profundos, relativos a todas las superficies alabeadas, terminándose por desarrollar el primer gran periodo de la geometría diferencial.

En el mundo del magnetismo
A partir de 1831 comenzó a trabajar con el físico Wilhelm Weber en la investigación teórica y experimental del magnetismo Ambos inventaron un magnetómetro y organizaron en Europa una red de observaciones para medir las variaciones del campo magnético terrestre. Gauss pudo demostrar el origen del campo estaba en el interior de la tierra. Gauss y Weber trabajaron también con las posibilidades del telégrafo, el suyo, fue probablemente el primero que funcionó de manera práctica, adelantándose en 7 años a la patente de Morse.

Después de su muerte se supo que Gauss había encontrado la doble periodicidad de las funciones elípticas.

Gauss se encuentra entre los primeros en dudar de que la geometría euclídea fuese inherente a la naturaleza humana. El axioma de las paralelas, básico en la geometría euclídea, había sido objeto de estudio a lo largo de siglos, intentándose demostrar a partir de los restantes axiomas de Euclides sin resultado alguno. Algunas de sus anotaciones hacen ver que Gauss pensaba que podría existir una geometría en la que no se verificase el axioma de las paralelas. En 1820, Janos Bolyai, llegó a la conclusión de que la demostración del teorema de las paralelas era imposible y comenzó a utilizar una nueva geometría que no utilizara el axioma de Euclides. Tres años más tarde publicó sus resultados, estos fueron acogidos de manera muy fría por el propio Gauss, señalando que él ya había llegado a esas conclusiones muchos años antes.

La característica principal de la obra de Gauss, especialmente en matemática pura es haber razonado con lo particular como si fuera general.

SU ÉPOCA
LA REVOLUCIÓN INDUSTRIAL.

La primera gran revolución industrial tuvo lugar en Inglaterra, a finales del siglo XVIII. Supuso el paso de una economía agrícola a otra caracterizada por procesos de producción más mecanizados El trabajo se trasladó de la fabricación de productos primarios a la de bienes manufacturados y servicios.

Se crearon grandes fábricas para sustituir a los pequeños talleres familiares. Estas fábricas se concentraron en áreas geográficas reducidas, iniciándose las migraciones desde las zonas rurales a las nuevas áreas industriales. Esta nueva estructura económica tuvo como consecuencia la aparición de nuevas clases sociales.

La Revolución Industrial supuso, al principio, una reducción del poder adquisitivo de los trabajadores y una pérdida de calidad en su nivel de vida. Más tarde, se tradujo en un aumento de la calidad de vida de toda la población del país industrializado.

LA REVOLUCIÓN FRANCESA.
Entre los años 1789 y 1799 se desarrolló en Francia una revolución que términó con el derrocamiento de Luis XVI y la proclamación de la I República, con lo que se pudo poner fin al Antiguo Régimen en este país. Entre las causas que tuvieron como consecuencia este cambio social podemos destacar los excesivos impuestos y el empobrecimiento de los trabajadores, la incapacidad de las clases gobernantes (nobleza y clero) para hacer frente a los problemas de Estado y la agitación intelectual alentada por el Siglo de las Luces.

Actualmente se tienden a minimizar las razones sociales y se consideran las razones políticas como principales causantes de la revolución.

Toma de la Bastilla, 12 de julio de 1789; Se considera la toma de la Bastilla, el 12 de julio de 1789 como punto de arranque de la revolución. La creada Asamblea nacional constituyente aprobó una legislación por la que quedaba abolido el régimen feudal y señorial y se suprimía el diezmo. En otras leyes se prohibía la venta de cargos públicos y la exención tributaria de los estamentos privilegiados. La Asmblea pasó después a elaborar una constitución fundada en los principios de Libertad, Igualda y Fraternidad.
El primer borrador fue aprobado por el propio monarca el 14 de julio de 1790. En octubre de 1793 Luis XVI fue guillotinado.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton La Fuerza de Gravedad
La Atracción Terrestre

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

El rol de las manzanas en la elaboración de la teoría de la gravedad de Newton puede ser tan anecdótico como la manzana que originó la expulsión de Eva del Paraíso, la manzana de París que desencadenó la Guerra de Troya o la manzana de Guillermo Tell.

La vinculación entre la fuerza que mantiene a la Luna orbitando alrededor de la Tierra y la que provoca la caída de los cuerpos librados a su propio peso, es en cambio mucho menos anecdótica y forma parte de la obra de Newton (1642-1727), publicada en los Principia (Philosophiae Naturalis Principia Matematica) de 1687, quien le dio sustento matemático y físico, basándose en el andamiaje experimental proporcionado por Kepler y en el esquema de pensamiento elaborado por Galileo.

Hoy, las mismas ideas que explican la caída de las manzanas y el movimiento orbital de los planetas, este enorme edificio intelectual cuya construcción comenzó hace más de 400 años, son utilizadas por los modernos vehículos espaciales para recorrer el espacio interplanetario y han permitido que un producto humano, el Voyager 2, se encuentre ya fuera de los confines de nuestro sistema planetario, vagando por el medio interestelar.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalUno de los problemas que presentaba el movimiento de la Tierra para el sentido común era por qué los cuerpos tirados hacia arriba caen esencialmente sobre el lugar desde el que fueron arrojados si durante su trayectoria en el aire no deberían seguir el movimiento de la Tierra. Galileo introdujo el concepto de inercia, que permite resolver esta aparente paradoja.

La inercia es la tendencia que posee todo cuerpo en movimiento a continuar en movimiento (como el caso de un jinete cuyo caballo se detiene súbitamente). Una piedra arrojada desde el mástil de un barco en movimiento cae al pie del mismo y no detrás, ya que comparte el movimiento del barco. Es sencillo entender con este principio por qué los pájaros, las nubes y la atmósfera en general no quedan detrás de la Tierra en movimiento.

La experiencia nos muestra que los objetos están inmóviles a menos que alguna fuerza actúe sobre ellos. Cualquier objeto abandonado a sí mismo, si no se mueve permanecerá quieto y si se está moviendo llegará finalmente a su estado “natural” de reposo: una pelota picando alcanzará cada vez una altura menor hasta que finalmente terminará por detenerse; si la pelota está rodando se detendrá al cabo de un tiempo, a no ser que alguien la empuje o que se mueva sobre un plano inclinado.

La Luna y los planetas, en cambio, han permanecido en movimiento a través de los siglos y éste parece ser su estado “natural”; es necesario entonces encontrar cuál es la fuerza que les impide quedarse quietos o qué los hace diferentes de los objetos que existen sobre la Tierra. La aparente contradicción entre los estados “natural” de los distintos cuerpos fue atacada científicamente por primera w por Galileo y Newton.

La clave de su resolución está en distinguir distintos tipos de movimiento y en reconocer que no hay nada de particular e el estado de reposo. Newton enunció las leyes que permiten describir el movimiento de los cuerpos. La primera ley establece que un cuerpo en repos. o que se mueve en línea recta a velocidad constante permanecerá en reposo o en movimiento uniforme a menos que sobre ellos actúe una fuerza ex terna. ¿Cómo explicar entonces que la pelota se detenga? Para frenar o acelerar un cuerpo, es decir para apartarlo de su movimiento rectilíneo uniforme es necesario aplicar una fuerza. En el caso de la pelota, esta fuerza se llama fricción o rozamiento y es un proceso muy complicado que todos hemos usado alguna vez, por ejemplo para frenar la bicicleta apoyando unen el suelo.

Isaac Newton comprendió que no había nada que explicar respecto de la velocidad uniforme, lo que requiere explicación son los cambios de velocidad, o más precisamente de momento, siendo éste proporcional a la velocidad (la constante de proporcionalidad es la masa del cuerpo); es decir, cómo cambia la velocidad en presencia de una fuerza. Estos cambios de velocidad, llamados aceleración, ocurren no sólo si la velocidad aumenta o disminuye, sino también si se modifica la dirección del movimiento.

Si viajáramos dentro de una caja cerrada con movimiento rectilíneo uniforme, según el principio de relatividad de Newton, no nos daríamos cuenta de que nos movemos, necesitaríamos alguna referencia externa. Si la caja se detiene, en cambio, o si se modifica su velocidad, reconoceríamos este cambio de movimiento

Una manera de medir la aceleración es utilizar flechas para representar la velocidad de un cuerpo: la dirección de la flecha indica el sentido del movimiento y su longitud, la magnitud de la velocidad. Comparando las flechas de velocidad en dos instantes distintos, la diferencia entre ambas representa la aceleración.

Cuando un automóvil que viaja en línea recta aumenta (o disminuye) su velocidad, la aceleración (o desaceleración) está en la misma dirección del movimiento Pero cuando el auto dobla en una curva, aunque mantenga su velocidad constante, la diferencia de direcciones de las flechas de velocidad en dos posiciones distintas sobre la curva indicará una aceleración no nula. Esto es exactamente lo que sucede en el movimiento planetario: la flecha de aceleración de los planetas apunta siempre hacia el Sol. Allí está la causa del movimiento: los planetas están “cayendo” permanentemente hacia el Sol, de la misma manera en que los objetos caen hacia la Tierra  si son abandonados a su propio peso: la flecha de aceleración de una manzana madura que ya no es sostenida por la rama del árbol apunta hacia el centro de la Tierra.

Esta idea de la caída de los planetas hacia el Sol o de la Luna hacia la Tierra, no parece muy adecuada ya que no vemos caer a estos cuerpos. Sin embargo hay que pensar que si los planetas no estuvieran cayendo se alejarían cada vez más del Sol, siguiendo una trayectoria rectilínea. En realidad fue Borelli (1608-1679), contemporáneo de Newton, quien observó que un cuerpo en movimiento circular mostraba una tendencia a alejarse del centro, la que, en el caso de los planetas, debía suponerse balanceada por algún tipo de atracción hacia el Sol. Aparece así por primera vez la idea de que el movimiento de los planetas debía explicarse no por una fuerza actuante en la dirección en que se mueven, sino por una fuerza dirigida hacia el Sol, es decir perpendicular a la dirección del movimiento. Independientemente del aspecto planetario este problema podría reducirse a estudiar bajo qué condiciones un cuerpo puede girar con velocidad circular uniforme.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalSupongamos que el punto A de la figura  representa la posición de un cuerpo con movimiento uniforme en un círculo centrado en 0. En este instante el cuerpo se está moviendo en dirección tangente al círculo (su velocidad se indica con la flecha AB). En consecuencia, de acuerdo a la primera ley de Newton, si se abandona el cuerpo a sí mismo, en ausencia de todo otro cuerpo, seguirá moviéndose en la misma dirección (es decir, a lo largo de AB) y un momento más tarde se encontrará en B. Pero en realidad se encuentra en c, sobre el círculo. Por lo tanto debe haber habido alguna influencia que hizo “caer” el cuerpo de B a C, acercándolo al centro 0. La curvatura de las órbitas de los planetas y los satélites mide el apartamiento respecto de la trayectoria rectilínea que seguirían si no hubiera otros cuerpos que causaran la desviación.

Galileo dedujo la relación (las leyes) entre las distancias recorridas por los cuerpos y los tiempos empleados en recorrerlas, para distintos tipos de movimientos (rectilíneo uniforme, uniformemente acelerado, curvilíneo). Construyó así la tabla de datos que, junto a las leyes de Kepler, permitieron a Newton encontrar el principio físico y matemático sobre el que se sustentan.

Para imprimir a un cuerpo una aceleración se necesita una fuerza proporcional a ella. El factor de proporcionalidad, de acuerdo a la segunda ley de Newton, es la masa del cuerpo: necesitamos realizar el doble de esfuerzo para mover un cuerpo cuya masa es el doble de la de otro.

Partiendo del descubrimiento de Galileo de que todos los cuerpos caen con igual aceleración, independientemente de sus masas (el Supuesto experimento realizado en la Torre de Pisa), se puede concluir, usando la segunda ley de Newton que las fuerzas que los atraen son proporcionales a Sus masas. Es la fuerza de gravedad que actúa sobre los cuerpos en caída libre y la aceleración provocada por ella es la aceleración de la gravedad: g=GM/R2.

G es una constante conocida como la constante de gravitación universal o constante de Newton M se refiere a la masa del cuerpo que provoca la aceleración y R es la distancia entre éste y el cuerpo atraído. La tercera ley de Newton se expresa entonces matemáticamente como

F=(GmM)/R2     (1)

Así, la fuerza ejercida por la Tierra (de masa M) sobre la Luna (cuya masa representamos por m) será mucho mayor que la ejercida por la Tierra sobre una manzana (de masa mucho menor que la de la Luna), y la atracción gravitatoria entre dos manzanas será perfectamente despreciable. Utilizando los datos de que disponía sobre la Luna, su distancia a la Tierra y su período de traslación Newton advirtió que la fuerza de atracción entre dos cuerpos satisface una ley de cuadrado inverso, es decir, disminuye como el cuadrado de la distancia que los separa, como indica la fórmula (1). Esta ecuación resume el contenido de su tercera ley o ley de gravitación universal.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton obtuvo así que la fuerza de gravedad en la Luna era menor que sobre la Tierra (un objeto de 70 Kg. sobre la Tierra pesaría 10 Kg. en la Luna) Las diferencias entre la aceleración gravitatoria en las superficies de los planetas y en sus satélites (consecuencia de sus distintos tamaños y masas) han dado lugar a una prolífica literatura de ciencia ficción. Se ha propuesto por ejemplo un ingenioso juego de baseball en Deimos (satélite de Marte) donde la velocidad impresa a una pelota por un bateador profesional sería suficiente para lanzarla en órbita alrededor del satélite.

El bateador podría retirarse a tomar unos mates (si fuera argentino) y volver a las 2 horas, cuando la pelota ha regresado de su órbita para lanzarla nuevamente en sentido opuesto o simplemente recuperarla. Más allá de la diversión, la fuerza gravitatoria de un planeta es una medida de su capacidad, por ejemplo, para retener una atmósfera.

Si la fuerza de gravedad en la Tierra hubiera sido distinta, las formas de vida que se han desarrollado sobre nuestro planeta también hubieran diferido en su evolución y aspecto. En las actuales condiciones, las aves vuelan porque mantienen el mismo peso posible: sus huesos son huecos y sus cerebros de capacidad ínfima. Si la gravedad fuera menor estarían seguramente mejor equipadas y ocuparían tal vez un puesto más alto en la jerarquía de las especies.

La manzana y la luna from alexiscb on Vimeo.

La fuerza del niño es menor que la del adulto y la atracción de la Tierra o gravedad, que resta igual impulso a ambos proyectiles, hace que el primero alcance menor altura y caiga antes hacia la Tierra. Existe una velocidad, llamada velocidad “de escape”, muy difícil de calcular porque depende de muchos factores, que permite a un proyectil lanzado verticalmente escapar definitivamente a la decreciente atracción terrestre.

Según la ley de inercia, los proyectiles lanzados por el hombre y el niño proseguirían en línea recta y con velocidad uniforme. Pero la fuerza de gravedad hace que simultáneamente vayan cayendo hacia el mar, según curvas que dependen de su velocidad inicial. Las estrellas, que forman las nebulosas o galaxias, que son como las islas del universo, no se apartan unas de otras debido a la fuerza de la gravitación, pero tampoco se concentran en una sola masa debido a la fuerza centrífuga de sus enormes velocidades individuales, que tienden a hacerlas evadir en línea recta. La galaxia gira como un sistema solar

El radio de la Luna es sólo un cuarto de! de la Tierra; su densidad relativa, 0,6 de la de ésta. Multiplicando ambas cantidades deducimos que la atracción de la Luna alcanza únicamente a la sexta parte de la gravedad de la Tierra. Un atleta que puede saltar a sólo 2 m. de altura en la Tierra, llegará a 12 m. en la Luna. Por otra parte, el peso de su cuerpo será seis veces menor, y el esfuerzo de su corazón para que su sangre vuelva desde los pies hasta la aurícula derecha, o para irrigar su cerebro, será también menor.

Una vez enunciados estos principios, Newton debía demostrar que de ser exactos, las órbitas de los planetas obedecerían las leyes experimentales de Kepler. Resolviendo las ecuaciones diferenciales que se obtienen aplicando las fórmulas newtonianas al movimiento planetario es posible deducir, con bastante exactitud, las 3 leyes keplerianas. Para elaborar su teoría Newton necesitó desarrollar la matemática del cálculo diferencial de la cual no disponía y esto fue lo que demoró la publicación de su obra.

Esta es una situación que se encuentra a menudo en física: al no contar con las herramientas matemáticas necesarias para afrontar un problema físico, muchas veces esta disciplina motivó el desarrollo de partes de las matemáticas que posteriormente encuentran aplicación en otras áreas.

Aunque las órbitas planetarias están relativamente bien descriptas por las leyes de Kepler, de acuerdo con la ley de gravitación universal habrá perturbaciones producidas por la presencia de otros planetas en el sistema solar y de los satélites naturales.

Estas perturbaciones, proporcionales al cuadrado de sus distancias mutuas hacen que el camino de los planetas oscile alrededor de una elipse media. Silos planetas fueran mucho más masivos o si estuvieran mucho más próximos entre sí, su movimiento no podría ser descripto, ni siquiera en una primera aproximación por las leyes de Kepler (obtenidas de la llamada aproximación de dos cuerpos, que en este caso son el Sol y el planeta). Habría que resolver el denominado problema de N cuerpos, donde N se refiere al Sol, el planeta y los otros cuerpos que perturban. Los movimientos resultantes serían muy complejos.

La aplicación de la ley de la gravitación universal de Newton permitió descubrir dos planetas, Neptuno y Plutón, demostrando así su capacidad, no sólo de explicar los fenómenos observados sino también su enorme poder predictivo. El descubrimiento de un cuerpo celeste, a 4 mil millones de kilómetros de la Tierra, mediante un simple cálculo matemático, representa un hito fundamental en la historia de la ciencia. Desde fines del siglo XVIII los astrónomos tenían problemas en conciliar sus cálculos con las posiciones observadas de Urano. Aplicando la tercera ley de Newton a un supuesto cuerpo perturbador de la órbita fue posible calcular la masa y la Posición de este hipotético objeto con suficiente precisión como para descubrir Neptuno.

Los cálculos teóricos fueron publicados por U. J. Leverrier (1811-1877) en junio de 1846 y el nuevo planeta fue observado efectivamente el 23 de septiembre siguiente en el Observatorio de Berlín. El entusiasmo provocado por este descubrimiento motivó la búsqueda de un posible noveno planeta. Los datos sobre la órbita de Neptuno no eran todavía muy precisos, lo que demoró 25 años la primera observación de Plutón, desde que fuera predicho en 1905. Estos descubrimientos también muestran que la fuerza de la gravedad actúa a gran escala, al menos su influencia llega hasta los confines más exteriores del sistema solar.

El radio de la Tierra es tan enorme que a 8 Km. de altura e! peso de un objeto disminuye en sólo algo más de 2 gr. por kilogramo (puesto que la distancia aumentó en una milésima de radio, y debe elevarse al cuadrado, es decir multiplicarse por sí misma). A 15 Km. de altura un kilogramo pierde entre 4 y 5 gr. de peso. A 100 Km. la reducción es de unos 22 gr. por Kg.; a los 1.000 Km. pasa de los 200 gr. por kilo y a los 4.500 Km. el peso decrece a la mitad. Cuanto más nos alejamos tanto menor se vuelve fa atracción.

APLICACIONES Y CONSECUENCIAS
• La gravimetría es el método de elección, entre muchos, para revelar la existencia de petróleo: éste, tres o cuatro veces más liviano que las tierras que impregna, asciende hasta colocarse sobre las cúpulas de roca densa e impermeable. El gravímetro, que consiste en esencia en un peso que tira un resorte, es capaz de señalar esas diferencias locales de densidad de masa, es decir de atracción. Se lo usa en menor escala para descubrir yacimientos de hierro, sumamente densos.

• A la gravitación se deben las mareas, las órbitas de los planetas (la atracción del Sol equilibra su tendencia a escapar en línea recta), la presencia de atmósfera en la Tierra (la Luna, de atracción muy débil, perdió la suya), y la caída de la lluvia cuando las gotas alcanzan a 1/20 de mm. de diámetro (cuando son menores, las corrientes ascendentes equilibran su peso). 9 La dificultad de un vehículo espacial para escapar de la atracción terrestre se debe en primer lugar a la fricción de la atmósfera, que es ya casi nula a los 100 Km. de altura; y en segundo lugar a la gravedad terrestre, que disminuye muy lentamente.

• Se llama relación de masa en un cohete espacial a la proporción entre la masa del proyectil a la salida y el peso útil puesto en órbita. Si dicho cociente es mayor de 8, no queda margen práctico para colocar instrumentos. De allí que los cohetes tengan varias etapas.

• Se ignora por completo la naturaleza de la gravitación y se estima que se necesitarán unos 100 años para dilucidarla y “desviarla” de alguna manera.

• Los animales sometidos a una “gravedad” elevada (centrifugadora) crecen enanos; en los astronautas sin peso el calcio tiende a emigrar de los huesos a los riñones.

• Los viajeros de un avión pesan pues éste es como una plataforma sostenida por las alas.

• Para breves ensayos de falta de gravedad existe un avión especial, el C-131, que “cae” como un ascensor que bajara velozmente.

Fuente Consultada: Notas Celestes de Carmen Núñez

Ver: Conflicto Newton – Hooke Por Las Órbitas de los Planetas

El Efecto Fotoelectrico Formulas Explicacion de la Teoría

Cuando Einstein recibió el Premio Nobel en 1921, fue su explicación sobre el efecto fotoeléctrico y no su artículo sobre la relatividad especial lo que se citaría. Quizá fuera debido en parte a la negativa de los científicos a aceptar la teoría especial después de tan poco tiempo. Aún así, su análisis del efecto fotoeléctrico en su artículo “Heurística de la generación y conversión de la luz” es de por sí un trabajo revolucionario. Al explicar un efecto que contradecía las creencias de su tiempo sobre la naturaleza de la luz, Einstein contribuyó a la visión global de hoy en día sobre el mundo subatómico, que no sólo el hombre de la calle, sino incluso los propios físicos tienen problemas en imaginar. (mas abajo ver: La historia del fenómeno)

EXPLICACIÓN Y FÓRMULAS DEL FENÓMENO FÍSICO DEL EFECTO FOTOELÉCTRICO

Este efecto, se trata de otro fenómeno que, al igual que la radiación de cuerpo negro, también involucra la interacción entre la radiación y la materia. Pero esta vez se trata de absorción de radiación de metales

EFECTO FOTOELECTRICO

Heinrich Hertz (1857-1894), científico alemán, fue el primero en observar el efecto fotoeléctrico, en 1887, mientras trabajaba en la generación de ondas de radio. Informó esta observación pero no se dedicó a explicarla

EFECTO FOTOELECTRICO Al incidir luz ultravioleta sobre el cátodo metálico (fotocátodo) se detecta el paso de una corriente eléctrica. Se trata de electro­nes que abandonan el cátodo (colector) y se dirigen al ánodo a través del vacío dentro del tubo. Los electrodos se hallan conec­tados a una diferencia de potencial de sólo unos pocos voltios.

 

EFECTO FOTOELECTRICO -1-

La teoría electromagnética clásica considera que la radiación de mayor intensidad (o brillo, si es visible), que corresponde a ondas de mayor amplitud, transporta mayor energía. Esta energía se halla distribuida uniformemente a lo largo del frente de onda. La intensidad es igual a la energía que incide, cada unidad de tiempo, en una unidad de superficie.

EFECTO FOTOELECTRICO -2

Con radiación ultravioleta de diferentes in­tensidades, los electrones salen del metal con la misma velocidad. La radiación más intensa arranca mayor número de electrones. Esta observación también resultaba inexplicable.

EFECTO FOTOELECTRICO -3

Con luz ultravioleta, aun de baja intensidad, los electrones son arrancados prácticamente en forma instantánea, aunque la Física clásica predecía un tiempo de retardo hasta que los átomos absorbieran la energía necesaria para expulsar el electrón. Con luz visible este fenómeno no se observa, aunque se aumente la intensidad de la luz y se ilumine durante mucho tiempo, como para que el átomo absorba bastante energía. Esta observación resultaba inexplicable.

EXPLICACION FISICA DEL FENOMENO

MAX PLANCK

Planck había llegado a la conclusión de que el traspaso de energía entre la materia y la radiación en el cuerpo negro ocurría a través de paquetes de energía. Sin embargo, no quiso admitir que la energía radiante una vez desprendida de la materia también viajaba en forma corpuscular. Es decir que siguió considerando a la radiación que se propaga como una onda clásica.

En 1905, Albert Einstein fue un paso más allá al explicar completamente las características del efecto fotoeléctrico. Para ello retomó la idea del cuanto de energía de Planck, postulando que:

 EINSTEIN

La radiación electromagnética está compuesta por paquetes de energía o fotones. Cada fotón transporta una energía E= v . h , donde v es la frecuencia de la radiación y h es la constante de Planck.

Cuando un fotón incide sobre el metal, transfiere toda su energía a alguno de los electrones. Si esta energía es suficiente para romper la ligadura del electrón con el metal, entonces el electrón se desprende. Si el fotón transporta más energía de la necesaria, este exceso se transforma en energía cinética del electrón:

Expresado en fórmula matematica es: Ecinética = h . v – Eextracción donde Eextracción es la energía necesaria para vencer la unión con el metal.

Esta teoría explica perfectamente los hechos observados:

1. Si la frecuencia de la radiación es baja (como en la luz visible), los fotones no acarrean la suficiente energía como para arrancar electrones, aunque se aumente la intensidad de la luz o el tiempo durante el cual incide.

EFECTO FOTOELECTRICO -4

Para cada tipo de material existe una frecuencia mínima por debajo de la cual no se produce el efecto fotoeléctrico.

2. Si la frecuencia de la radiación es suficiente para que se produzca el efecto fotoeléctrico, un crecimiento de la intensidad hace que sea mayor el número de electrones arrancados (por ende será mayor la corriente), pero no afecta la velocidad de los electrones.

Aumentar la intensidad de la luz equivale a incrementar el número de fotones, pero sin aumentar la energía que transporta cada uno.

3. Según la teoría clásica, habría un tiempo de retardo entre la llegada de la radiación y la emisión del primer electrón. Ya que la energía se distribuye uniformemente sobre el frente de la onda incidente, ésta tardaría al menos algunos cientos de segundos en transferir la energía necesaria. La teoría de Einstein, en cambio, predice que:

Una radiación de frecuencia adecuada, aunque de intensidad sumamente baja, produce emisión de electrones en forma instantánea.

Pasaron diez años de experimentación hasta que la nueva teoría fue corroborada y aceptada. Se determinó el valor de h a partir de experiencias de efecto fotoeléctrico y se encontró que concordaba perfectamente con el valor hallado por Planck a partir del espectro de radiación de cuerpo negro.

Desde ese momento los físicos aceptaron que, si bien la luz se propaga como si fuera una onda, al interactuar con la materia (en los procesos de absorción y emisión) se comporta como un haz de partículas. Esta sorprendente conducta es lo que se ha llamado la naturaleza dual de la luz. Esto muestra que las ideas surgidas del mundo macroscópico no son aplicables al inimaginable mundo de lo diminuto.

Ninguna rama de las ciencias físicas ha tenido tantas repercusiones filosóficas como la teoría de los cuantos, pues al descubrir un abismo, una discontinuidad radical en la estructura de la naturaleza, parece haber hallado también barreras infranqueables al entendimiento humano. Al trabajar en las oscuras interioridades del átomo, donde cada fenómeno tiene simultáneamente el doble aspecto de materia y de energía, los primeros teóricos de la física cuántica, Max Planck y Niels Bohr, descubrieron que la energía no se propaga de manera continua sino a saltos. Estos saltos o cuantos de energía configuran el sustrato de la realidad como una especie de granulado indivisible que pone en duda la continuidad de la materia.
Un lirio (arriba) y sus granos de polen (dcha.) enormemente amplificados sugieren de algún modo la realidad del mundo cuántico. Un microscopio electrónico nos revela la minuciosa estructura del polvo de polen; mas, a nivel subatómico —como se aprecia en el recuadro menor, que representa la estructura de un cristal de iridio fotografiado mediante un microscopio ultramoderno (hasta el momento, la realidad fotografiable más semejante al átomo)—, lo que parece una sólida arquitectura fija es, en realidad, un sistema de intercambios energéticos, que acaecen a velocidades inimaginables en repentinos y discontinuos saltos.

APLICACIÓN: LA CÉLULA FOTOELÉCTRICA
En 1887, Hertz había notado que la luz, al iluminar ciertas substancias, extraía de éstas partículas dotadas de carga negativa, es decir, electrones. Éste fue el efecto fotoeléctrico que hizo posible, al comienzo de nuestro siglo, el nacimiento de maravillas como la telefotografía, es decir, la transmisión a distancia de fotografías (Korn, 1907); el film sonoro (De Forest, 1923); la televisión (B.aird, 1925).

En 1888, el físico Hallwachs descubrió que un electroscopio se cargaba de electricidad cuando sus hojitas eran iluminadas por rayos ultravioletas. Este fenómeno, que fue llamado efecto Hallwachs, permitió construir un dispositivo mágico que, cuando es tocado por una luz o una radiación del mismo tipo, produce corriente eléctrica: la célula fotoeléctrica.

Esta célula fotoeléctrica está constituida por un electrodo metálico cubierto por una substancia que emite fácilmente electrones cuando  iluminada; los electrones recogidos por otro electrodo formado por una partícula metálica, y así origina una corriente eléctrica cu intensidad es proporcional a la intensidad de la iluminación, y que, natural mente, se interrumpe cuando la iluminación cesa.

La célula fotoeléctrica es de fácil construcción y muy económica, es ya uno de los aparatos funda mentales de la civilización mecánico Tiene una infinidad de aplicaciones y ejecuta trabajos realmente prodigiosos. Por ejemplo, supongamos que hay que introducir cien paquetes de cigarrillos en una caja. Una cinta de goma lleva en fila los paquetes y los vuelca en la caja; una célula fotoeléctrica es iluminada con un rayo de luz que es interrumpido por el paso de cada uno de los paquetes de cigarrillos. A la misma está conectado un dispositivo que cuenta y que, al registrar cien interrupciones de luz, da orden de cambiar la caja. Se dirá que también un hombre puede hacer el mismo trabajo. Naturalmente; pero la célula puede contar cien paquetes por segundo-sin cansarse y sin equivocarse.

Las células fotoeléctricas sirven, sobre todo, en los casos en que es necesario un centinela. Así, las células señalan el paso de personas a través de puertas, disparan dispositivos de alarma, bloquean las máquinas cuando el operador se acerca a partes peligrosas, y hasta intervienen en la seguridad de nuestras casas. En efecto, todas las instalaciones de calefacción a nafta poseen una célula que controla que el hogar se mantenga encendido. Si la llama se apagara, sería peligroso continuar inyectando el combustible, de modo que si la célula no ve el resplandor de la llama, detiene el flujo.

HISTORIA DEL EFECTO FOTOELÉCTRICO
El primer investigador que mencionó un efecto fotoeléctrico superficial fue Hertz, en 1887. Un año después, Hallwachs, basándose en los resultados de Hertz, encontró que una lámina de cinc pulida aislada retenía una carga positiva, puesta de manifiesto con un electroscopio, pero, sin embargo, perdía una carga eléctrica negativa, si bajo las mismas condiciones era iluminada por la luz de un arco de carbón.

Demostró también que sólo la luz ultravioleta era la responsable de este efecto. Más adelante, Elster y Geitel demostraron que había algunos metales (sodio, potasio) que eran sensibles a la luz visible, y fueron capaces de construir células fotoeléctricas muy sencillas. Ellos establecieron que la corriente fotoeléctrica a través de sus células era directamente proporcional a la intensidad de luz dentro de un cierto intervalo.

A fines del siglo XIX (en 1899), P. Lenard y J. J. Thomson, independientemente, demostraron que los portadores de electricidad negativa arrancados de las superficies metálicas eran electrones. Por su parte, Lenard demostró que la energía de los electrones arrancados no dependía de la intensidad de la luz, mientras que el número de electrones era proporcional a dicha intensidad. Estos resultados, que no podían ser explicados por la teoría ondulatoria de la luz, llevaron a Einstein a formular una nueva teoría sobre la naturaleza de la luz, en 1905.

Einstein sugirió que la luz podía considerarse como compuesta por pequeñísimos corpúsculos, cuantos de luz o fotones, cada uno de los cuales tenía una cantidad de energía igual a h v, donde h era la famosa constante de Planck,  y v  la  frecuencia  de  la luz.

Cuando la luz era absorbida por el metal, el corpúsculo luminoso desaparecía como tal, pero transfería su energía al electrón dentro del metal, con el cual había chocado, y éste entonces podía escapar si la energía del corpúsculo de luz era superior a la energía con que el electrón estaba unido al metal. Por esta teoría, Einstein recibió, años más tarde, el premio Nobel.

La intensidad de un rayo luminoso viene dada por el número de fotones; por lo tanto, cuanto mayor sea la intensidad, mayor será la energía total que llegue a la superficie del metal. Sin embargo, no importa el número de fotones que choquen con la superficie, porque, si su energía individual es baja, no pueden arrancar ni un solo electrón.

Cuando la energía de los fotones es individualmente superior al umbral, entonces cada uno puede arrancar un electrón y, en este caso, cuanto más intensa sea la iluminación, mayor será el número de electrones arrancados y más intensa la corriente fotoeléctrica. Los materiales como el selenio se utilizan para los fotómetros porque tienen un umbral bastante bajo, y todos los fotones de luz visible tienen suficiente energía para liberar electrones.

Es posible obtener materiales que sean sensibles incluso a la luz infrarroja recubriendo sus superficies de un modo especial. Si se oxida cesio metálico de manera especial, y se deposita sobre una película muy delgada de plata, toda la estructura de la superficie se altera y hace falta una pequeña cantidad de energía para arrancar un electrón.

Este tipo de material puede utilizarse en instrumentos para registrar la recepción de luz infrarroja invisible. Desde el punto de vista de aplicación del efecto fotoeléctrico, la combinación de la célula fotoeléctrica con el amplificador termoiónico ha proporcionado un mecanismo sensible a la luz, que hizo posible la realización de adelantos científicos tales como la televisión, el cine sonoro y la transmisión de fotografías por telégrafo.

Ondas y paquetes
La luz se compone de “paquetes” básicos de energía, llamados fotones. Bajo ciertas circunstancias, éstos actúan como si fuesen objetos sueltos. En condiciones distintas, la luz se comporta como una onda continua de energía. Otra de sus características es que si, por ejemplo, una persona parada a 10 m de distancia de una lámpara, se aleja a 20 m de ésta, la luz que recibirá no será la mitad, sino la cuarta parte de la que recibía en un principio. Ello se debe a que la luz se propaga en círculos, y al duplicarse la distancia tiene que cubrir cuatro veces la misma área. La fuerza de gravedad disminuye de igual manera y, según proponen los científicos, también se desplaza en forma de partículas, de ondas o de ambas; aunque ninguna de éstas ha sido descubierta todavía. Así que la paradoja subsiste: pese a saber exactamente lo que hace la gravedad y poder predecir sus efectos con precisión, se desconoce lo que es en realidad. La más familiar de las fuerzas que gobiernan el universo resulta ser la más misteriosa.

.(leer mas sobre la historia del fenómeno)