Las Nuevas Ciencias De Lo Diminuto

Conceptos de Fisica Cuantica y Cientificos Que La Desarrollaron

Conceptos Basicos de Fisica Cuantica

EFECTO FOTOELECTRICO
Efecto Fotoeléctrico
Radiación de un Cuerpo Negro
Radiación de un Cuerpo Negro
El Cuanto de Energía
El Cuanto de Energía

• Leyes de la Termodinámica

• Modelo Atómico de Bohr

La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía.

Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: el éter.

James Clark Maxwell (1831-1879)

En 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética.

La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta.

Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria.

Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar.

Primero fueron los rayos catódicos y la radiactividad, descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

El espacio interior del átomo:

Mientras unos científicos investigaban paralelamente el  tiempo a escala geológica y el espacio a escala universal —ambos parecían dilatarse—, otros dedicaban su atención al mundo microscópico del átomo.

A principios de siglo, muchos hombres de ciencia opinaban aún que estos estudios consistían en lucubraciones quizá sólo útiles para los químicos.

Sin embargo, pronto se supo que los átomos, aunque invisibles (sus diámetros son del orden de una diezmillonésima de milímetro), eran absolutamente reales, y se acometió seriamente la tarea de investigar su tamaño y estructura.

El físico británico J. J. Thomson detectó en 1897 los electrones con su carga eléctrica, pero sólo después de 1914 el norteamericano Robert Millikan logró aislar el electrón y medir su carga.

Rutherford utilizó partículas alfa (consistentes en dos protones y dos neutrones) en sus experimentos, 20 años antes de que el protón fuera aislado y denominado por su nombre en 1920; el neutrón, tercero de los componentes del núcleo, no fue descubierto hasta 1932. (ver: El Átomo)

Hacia la Primera Guerra Mundial ya se sabía que en el espacio interior del átomo existe un mayor vacío que en el universo astronómico: la inmensa mayoría de su masa se concentra en el núcleo, que sólo ocupa una diezmilésima parte del volumen total, modelo atómico conocido, como Modelo de Rutherford.

modelo atómico conocido, como Modelo de Rutherford. 

Si el sol, por ejemplo, fuera del tamaño de una pelota de golf, Plutón, el planeta más lejano, se hallaría a 188 metros de distancia.

Pero si el núcleo de un átomo fuera la citada pelota, sus electrones exteriores se hallarían a unos 1.070 metros.

A pesar de la complejidad existente en el interior del átomo, su exploración progresó con sorprendente rapidez.

Transcurrieron 11 años desde que en 1895 el físico francés Henri Becquerel descubrió la radiactividad natural hasta que Boltwood la utilizó para calcular la edad de la Tierra.

Antoine Becquerel:Descubridor de la Radioactividad del Uranio-Historia –  BIOGRAFÍAS e HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA

Otros 11 años después, Rutherford hizo realidad el sueño de los alquimistas y transformó unos elementos en otros.

Aunque la fisión atómica no llegaría hasta mucho más tarde, ya antes de 1920 algunos físicos extendieron aún más su mirada: hacia el proceso de fusión atómica –aun mas poderoso-, fundamento del sol y de todas las estrellas del universo.

LA FÍSICA CUÁNTICA: El cuanto de Planck y el modelo atómico de Bohr

El modelo atómico de RUTHERFORD tenía en realidad una capital deficiencia.

Una partícula cargada, un electrón, desplazándose en el interior del átomo, debía –según la física clásica-emitir energía, radiar.

Perdiendo así continuamente energía, su trayectoria se estrecharía y el electrón terminaría por precipitarse en el núcleo atómico.

En una palabra, el átomo se aniquilaría a sí mismo.

El modelo de RUTHERFORD, salido del experimento y admirable desde tantos puntos de vista, venía a chocar con una fundamental exigencia de la electrodinámica maxwelliana.

Aceptar el primero era rechazar en el dominio microcósmico tal electrodinámica de MAXWELL.

La física no podía salir del dilema más que al precio de una infracción.

En realidad, el instrumento que iba a permitir «salvar los fenómenos» estaba ya formado desde hacía más de una década.

Sólo era preciso emplearlo.

PLANCK MAXAl buscar la solución de un problema especial -la distribución de la energía en la radiación del cuerpo negro-, el físico alemán MAX PLANCK (1858-1947) llegó, en 1900, a una conclusión muy general.

La energía radiante, admitió PLANCK, no es emitida por su fuente ni absorbida por la materia en forma de flujo continuo infinitamente divisible, sino de manera discontinua, en pequeños manojos, en cantidades finitas.

Todo ocurre como si, después de haber emitido un tren de ondas, el átomo se detuviera antes de enviar otro.

La radiación, y en general cada intercambio energético, posee una estructura discontinua, variando a saltos, escalonadamente, siendo cada peldaño el producto de la frecuencia de la radiación considerada y de una constante de la naturaleza: la célebre constante de PLANK.

Estos escalones o granos de energía son los cuantos.

Con los cuantos de PLANCK se introduce en la ciencia una nueva idea, por completo desconocida de los investigadores clásicos y mucho más revolucionaria que la relatividad einsteniana.

En efecto, desde NEWTON, la imagen física del mundo del estaba basada en la convicción de que los fenómenos de la naturaleza son continuos.

Natura nonfacit saltus: la naturaleza no da saltos, repitieron físicos y filósofos de los siglos pasados, PLANCK y sus adeptos declararon que la naturaleza no da saltos.

————-  00000 ————

planck y ruthenford

MAX PLANCK había avanzado en 1900 la hipótesis de que la energía era emitida y absorbida por cuantos, paquetes de energía cuyo valor está ligado a la frecuencia f de la radiación por medio de una constante h (llamada «constante.de Planck»): E = hf.

Esta idea pareció menos absurda cuando Einstein, cinco años después, explicó de la misma manera el efecto fotoeléctrico, descubierto por H. Hertz en 1886, consistente en el desprendimiento de un flujo de electrones por un metal sometido a una radiación ultravioleta.

Para Einstein, los corpúsculos luminosos son portadores de una energía proporcional a su frecuencia, que comunican a los electrones de los átomos metálicos.

————-  00000 ————

La constante de PLANCK, el cuanto elemental h, es el que mide los saltos en los intercambios de energía; su valor numérico es sumamente pequeño: 6,55 x 10-27.

Utilizando una imagen grosera podría decirse que la relación del número uno con el número h es -más o menos- la de la masa del globo terráqueo con la masa de una cabeza de alfiler.

La pequeñez del cuanto elemental es la que nos esconde en los intercambios energéticos -por ejemplo, en la emisión y absorción de un rayo de luz- la intermitencia, el carácter cinematográfico del fenómeno.

Visto que todos los fenómenos sólo son intercambios cíe energía, el cuanto elemental está presente en todos los acontecimientos físicos. Esta universalidad es la que da inmenso alcance al descubrimiento de Planck.

En los razonamientos del físico alemán el cuanto era un ente teórico, inventado para resolver las dificultades de un problema especial, pero ALBERT EINSTEIN lo aplicó en 1905 a la luz para explicar el fenómeno de la fotoelectricidad, y ARTHUR COMPTON puso experimentalmente, en 1922, fuera de duda la realidad física del cuanto.

Pero en el intervalo entre estos dos éxitos, un joven dinamarqués, NIELS BOHR (1885-1962), realizó la hazaña decisiva: reunió la teoría cuántica de PLANCK con el modelo atómico de RUTHERFORD.

«Si los electrones que circulan en los átomos -declaró BOHR en 1913- no satisfacen las leyes de la electrodinámica clásica, es porque obedecen a las leyes de la mecánica cuántica.

Sin duda, giran en torno del núcleo atómico, pero circulan únicamente sobre órbitas tales que sus impulsos resultan determinados por múltiplos enteros de la constante de PLANCK.

Los electrones no radian durante todo el tiempo en que describen sus órbitas; solamente cuando el electrón salta de una órbita a otra, más cercana del núcleo, lanza un cuanto de luz, un fotón.»

Emitidos por los átomos de gases incandescentes, son los fotones los que engendran las rayas espectrales, y BOHR tuvo el portentoso acierto de poder explicar las rayas del hidrógeno.

En efecto, las longitudes de onda de estas líneas espectrales se vuelven calculables a partir del modelo de átomo cuantificado por BOHR, que interpreta también el origen de los espectros elementales engendrados por los rayos X, espectros cuya importancia acababa de ser puesta en evidencia por el joven físico inglés HENRY GWYN JEFFREYS MOSELEY (1887-1915).

Para dar más clara cuenta de algunas particularidades de los espectros el físico alemán ARNOLD SOMMERFELD (1868-1951) reemplazó en el modelo de BOHR las trayectorias circulares de los electrones por órbitas elípticas, sometiendo además los electrones a la mecánica relativista.

Dos holandeses, SAMUEL GOUDSMIT (1902) y GEORGE UHLENBECK (1900), en 1952 dotaron de movimiento rotatorio al electrón, introduciendo una nueva característica, el «spin«, que poseen las partículas y cuya importancia no es menor que la de sus masas o de sus cargas.

Esta nueva magnitud, numéricamente ligada a la constante de PLANCK, da cuenta no sólo de las propiedades magnéticas de los corpúsculos atómicos, sino también del comportamiento que ponen en evidencia cuando integran un conjunto numeroso de partículas.

borhComo el modelo atómico de RUTHERFORD, también el de BOHR (imagen izq.) se asemejaba pues a un minúsculo sistema planetario, pero con la esencial diferencia de que en el átomo bohrianolos electrones sólo podían circular sobre trayectorias cuantificadas, como si una misteriosa policía microcósmica les hubiese prohibido las demás.

¿Por qué un electrón puede solamente mantenerse sobre una trayectoria permitida por la constante de PLANCK BOHR había dejado la interrogante sin respuesta. Fue el teórico francés LOUIS DE BROGLIE (1892-1987) quien dio en 1923 la contestación.

Cada electrón, explicó DE BROGLIE, va acompañado por un tren de ondas y circula sólo en órbitas de tamaño tal que el tren de ondas pueda caber en ellas, es decir, pueda cerrarse. Si no se cerrara, las ondas sucesivas se neutralizarían, destruyéndose.

Por ello, la circunferencia de una órbita tiene que ser un múltiplo entero de la longitud de la onda que acompaña al electrón.

Ahora bien, DE BROGLIE muestra que las únicas órbita compatibles con las aludidas ondas estacionarias son idéntica con las órbitas cuantificadas de los electrones en el modelo de BOHR.

Viene a ser éste un admirable descubrimiento que explica por qué, en el interior del átomo, ciertas trayectorias son «permitidas» mientras que otras «permanecen prohibidas».

ERWIN SCHRODINGERAsociar al movimiento del electrón -corpúsculo material- una onda; ligar indisolublemente lo discontinuo con lo continuo, es la gran idea que surge de la mecánica ondulatoria de DE BROGLIE, a la cual el austríaco ERWIN SCHRODINGER (1887-1961) -imagen izq. – y el inglés PAUL DIRAC (1902-1983) iban a dar andamiaje matemático y base más amplia.

Ya antes, en la teoría ondulatoria de la luz, que sirvió fielmente a la física durante el siglo XIX, se había introducido el cuanto luminoso o fotón corpuscular; la onda era indispensable para explicar algunos fenómenos; el corpúsculo, no menos imprescindible para explicar otros.

A esta doble imagen de la luz se agregó, con DE BROGLIE (imagen der.) , la doble imagen de la materia, cuyos corpúsculos intraatómicos están inseparablemente ligados a las ondas.DE BROGLIE

La onda dirige y pilotea los corpúsculos, y éstos materializan las ondas.

Ambas son dos caras complementarias de la realidad y representan la doble faz del mundo físico.

En efecto, la realidad de las ondas de la materia no dejó ya lugar a dudas: CLINTON J. DAVISSON (1881-1958) y LESTER H. GERMER (1896) lograron demostrar en 1927 que un haz de luz de corpúsculos electrónicos se difracciona de la misma manera como lo hace un haz de luz o de rayos X.

Con este veredicto de la experiencia desapareció la clásica diferencia entre luz y materia, tan distintas en la imagen que el siglo pasado se forjaba del mundo físico como son vida y muerte en el mundo biológico.

Enlaces de Interes:

Principales Cambios Científicos

Gran experimento La Máquina de Dios

Las Nuevas Ciencias De Lo Diminuto

La Historia de la Energía Nuclear

La Ciencia Atómica En el Siglo XX

Las radiaciones del núcleo atómico, alfa , beta y gamma

El Cuanto de Energia:Fisica Cuantica, La Constante de Planck

El Cuanto de Energía – Fisica Cuántica Constante de Planck

► EXPLICACIÓN CIENTÍFICA DEL CONCEPTO DEL CUANTO DE ENERGÍA:

Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía.

Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias.

Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas.

Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante.

Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Planck Recibió el Premio Nobel Fisica Por El Efecto Fotoeléctrico –  BIOGRAFÍAS e HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA

Todo comenzó con una investigación en un campo más bien marginal.

El Instituto alemán de pesas y medidas deseaba crear un patrón de referencia para las nuevas lámparas eléctricas, y pidió al físico Wilhelm Wien (1864-1928) que estableciera una relación entre la temperatura de un horno (un «cuerpo negro») y la radiación que emitía.

De la misma manera que un pedazo de hierro al calentarse pasa del «rojo» al «blanco» antes de emitir radiación ultravioleta si su temperatura aumenta, Wien observó experimentalmente que el máximo de radiación emitida por el cuerpo negro se desplazaba también hacia el violeta.

Y cuando el profesor Max Planck, de la universidad de Berlín, trató de elaborar una teoría explicativa de la curva de Wien, se encontró con la desagradable sorpresa de que la única forma de hacerlo era imaginar que el horno no emitía esa radiación de manera continua, sino en cantidades discretas, esto es, en cuantos de energía.

Planck avanzó esta hipótesis con reticencia, precisando que se trataba sólo de un artificio de cálculo.

Fue Einstein quien, cinco años después, demostró la realidad física de los cuantos.

1905: Año Maravilloso Trabajos y Descubrimientos de Einstein – BIOGRAFÍAS e  HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA

► EXPLICACIÓN:

Para fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos.

Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien.

La Física clásica había llegado a un límite que no podría superar.

MAX PLANCKUn científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.

Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los

EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potenciaemitida y µ  es la longitud de onda

cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así.

Esta fórmula se resistía a ser deducida de los principios clásicos.

Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba.

Era el siguiente:

Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).

(Nota: la letra v es griega y se la pronuncia nu)

El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.

Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.

En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.

Según la teoría clásica de las ondas electromagnéticas, éstas transportan energía en forma continua y no en paquetes discretos o cuantos.

Vemos que la luz de una vela llena una habitación con un flujo constante de energía.

Sin embargo, la cuantización implicaría una emisión espasmódica de la luz, como si la vela parpadeara, encendiéndose y apagándose intermitentemente (que es en realidad lo que ocurre en el nivel microscópico!).

El mismo Planck no podía creer que esto fuera así.

Pasarían algunos años hasta que el cuanto de energía fuera aceptado como una realidad.

Calculemos el valor del cuanto de energía para una onda electromagnética de la región visible de frecuencia 5. 1O14 Hz (amarillo):

E = h . v 6,63. 1O34 J. s . 5. 1014 Hz = 3,3. 1019 J.

Este valor de energía es diminuto.

La energía que libera una pequeña luciérnaga, por ejemplo, contiene miles de millones de cuantos.

Esto hace que la cuantización de la energía de las ondas electromagnéticas no tenga efectos macroscópicos, pero sí tiene peso cuando se estudian fenómenos a escala atómica.

► HACIA LA MECÁNICA CUÁNTICA

Estas ideas de Planck y Bohr se van a difundir, a ampliar y después a revolucionar con la llegada de una nueva Mecánica, la Mecánica Cuántica, que deriva directamente de ellas.

Gracias a esta revolución conceptual se va a tener que renunciar a cualquier descripción determinista de la realidad para acogerse a una descripción en términos de probabilidad.

Así es como se llegó a la conclusión de que no se puede conocer al mismo tiempo la posición y la velocidad de una partícula.

Se va a demostrar también que cualquier medida perturba el fenómeno que quiere estudiar.

Es el famoso principio de incertidumbre de Heisenberg.

En resumidas cuentas, con la Mecánica cuántica se entra en un nuevo mundo palpitante, misterioso y extraño que se ha explorado sobre bases matemáticas sólidas entre los años 1925-1930, bajo el impulso de sabios cuyos nombres son ya legendarios, como el austríaco Erwin Schródinger, el alemán Werner Heisenberg, el suizoalemán Wolfgang Pauli, el inglés de Cambridge Paul Dirac, todo bajo el impulso constante de Niels Bohr, y a pesar del escepticismo de Albert Einstein. Pero ésa es otra historia, casi una epopeya.

Einstein había visto antes que nadie todas las implicaciones de la Mecánica cuántica. Pero por razones filosóficas, y casi teológicas, no podía aceptarla. Es el famoso ¡«Dios no juega a los dados»!

Sobre lo que nosotros queremos insistir aquí es que muchos fenómenos pueden quedar sencillamente explicados —o al menos claramente expuestos— partiendo del átomo de Bohr ligeramente modificado.

No cabe duda de que se trata de una primera aproximación, que no corresponde a la realidad tal como la concebimos hoy en día, pero tiene la ventaja de evitar el despliegue matemático y la complejidad intelectual inherentes a la Mecánica cuántica (que, si se quiere captar su espíritu, necesita larguísimos cálculos, ya que el mundo de lo infinitamente pequeño obedece a reglas específicas muy diferentes de las que gobiernan nuestra experiencia cotidiana).

► LOS NIVELES DE ENERGÍA

En cada átomo, en cada molécula, existen niveles de energía en los que pueden «situarse» los electrones.

Esos niveles se corresponden con los cuanta y por lo tanto están, como hemos dicho, separados por intervalos vacíos, lo mismo que los peldaños de una escalera.

Los electrones no pueden hallarse más que en esos niveles, lo mismo que nuestros pies no se pueden colocar más que en los peldaños de la escalera.

Naturalmente, esto es la representación del átomo bajo el punto de vista de la energía.

Bajo el punto de vista del espacio, el electrón se mueve sin cesar, gira en torno al núcleo, pero en una órbita impuesta por los niveles de energía autorizados.

Esos niveles de energía no pueden «contener» más que un número finito de electrones.

Por ejemplo, el primer nivel de energía de un átomo, el primer peldaño, no puede llevar más que dos electrones, el segundo es un peldaño doble que, en total, no puede contener más que 8 electrones (2 + 6), etcétera.

¿Cómo puede situarse un electrón en esta escalera?

Se llenan los peldaños comenzando por abajo, según el principio de energía mínima, pasando poco a poco de uno a otro.

Así es como, en cada átomo estable, hay niveles de energía llenos.

El último nivel lo está más o menos completamente.

Pero por encima del último nivel lleno hay otros niveles (otros peldaños de la escalera) totalmente vacíos.

A estos niveles se les llama niveles «excitados».

¿Puede un electrón abandonar un nivel de energía que ocupa normalmente (y que se llama el nivel estable) para pasar a un nivel de energía excitado?.

Pues sí, pero para eso hay que proporcionarle la energía suficiente para que logre saltar de un nivel a otro.

Pero cuidado, es menester que la energía que se le comunica sea exactamente la que corresponde a la diferencia de energía que existe entre los dos peldaños, lo que se llama el «cuantum» justo de energía.

¿Y esos electrones excitados situados en órbitas libres van a permanecer allí?

Respuesta: sí, pero no por mucho tiempo.

Los niveles de excitación no son los niveles de equilibrio para los electrones.

Así pues, éstos van a tener tendencia a caer los niveles de energía habituales (hogar, dulce hogar) y, por lo tanto, a volver a ellos.

Cuando lo hacen, la energía tiene que conservarse.

La caída de un electrón de un nivel elevado hacia uno más bajo va a ir acompañada de una liberación de energía, por ejemplo mediante la emisión de una luz cuya longitud de onda (el color) será exactamente igual a la de la luz que ha excitado el átomo.

Fuente Consultada: Un Poco de Ciencia Para Todos Claude Allégre

Radiacion Cuerpo Negro, Explicación del Fenómeno Físico:Simple y Sencillo

La Radiación Cuerpo Negro
Explicación Sencilla del Fenómeno

RADIACIÓN DE UN CUERPO NEGRO: A medida que se iba develando la compleja estructura del átomo, los investigadores veían que estaba más cerca

Sin embargo, al intentar explicar la radiación térmica emitida por un cuerpo caliente, los físicos se encontraron con un problema que se resistía a encuadrarse dentro de los conocimientos de la Física clásica (la Mecánica de Newton y el electromagnetismo de Maxwell).

Fue el comienzo del fin de una forma de ver el mundo.


Espectro de una lámpara incandescente del Helio

En las cercanías de un objeto muy caliente, como una estufa o un leño encendido nuestra piel percibe el calor que nos llega en forma de ondas infrarrojas.

Pero no sólo los cuerpos muy calientes emiten ondas electromagnéticas: en realidad, todo cuerpo cuya temperatura sea superior al cero absoluto lo hace.

Para las temperaturas que percibimos cotidianamente, la mayor parte de la energía se emite en el rango infrarrojo y un poco en el visible.

En general, un cuerpo sólido emite todo un espectro de ondas.

 

Tengamos en cuenta que lo que se quiere investigar es la radiación que emite un cuerpo y no la que refleja al ser iluminado.

El espectro de dos cuerpos cualesquiera, a la misma temperatura, difiere dependiendo del material y de la forma que tengan.

Para estudiar el problema de la radiación se eligió un cuerpo patrón ideal, que emitía y absorbía energía con eficiencia máxima, llamado cuerpo negro.

Consistía en una cavidad con un pequeño orificio por donde salía la radiación a analizar, cuando las paredes se calentaban hasta una temperatura determinada.

Independientemente del material con que estén fabricados, los espectros de los cuerpos negros a la misma temperatura son idénticos.

Experimentalmente se habían hallado los espectros de emisión de cuerpos negros a diversas temperaturas.

Y se observaron dos características importantes:

E aumenta proporcionalmente con  T4

1. A medida que la temperatura aumenta, la cantidad de energía emitida es mayor. En particular, la energía aumenta proporcionalmente a la cuarta potencia de la temperatura absoluta (ley de Stefan-Boltzmann):

2. Un cuerpo emite mayor cantidad de energía en una longitud de onda determinada. A medida que la temperatura aumenta esta longitud de onda se hace más pequeña, cumpliéndose la ley de Wien:

µmáxima T = constante

Ley de Wein: Energía radiante por un objeto caliente a distintas longitudes de onda

Temas Relacionados

Historia de la Fisica Moderna Los Descubrimientos y Evolución

Fisica Cuantica:Teoria del Cuanto de Energia

Teoría del Campo Unificado

Resumen de la Teoria Atomica Historia y Fundamentos

El Conocimiento Científico La Fisica y de la Naturaleza

Biografia de Max Planck:

Historia del Número Pi Determinacion de su valor a través del tiempo

Historia del Número Pi Determinación de su valor a través del tiempo

Cualquier esfuerzo práctico por dividir el diámetro de un círculo en su propia circunferencia solo puede resultar en fracaso.

Tal procedimiento sólo puede ser teórico en su naturaleza, e intentar obtener su valor «racional» solo conllevará a frustración. La frustración que se retrata a lo largo de la historia en el esfuerzo de la humanidad por medir lo inconmensurable.

Intentar inscribir una línea recta (el diámetro de un círculo) en otra línea curva (el perímetro del mismo) es intentar una alteración a la naturaleza, una alteración imposible que siquiera los ordenadores modernos están en condiciones de realizar.

Ya en la antigüedad, los calculistas advirtieron que todos los círculos conservaban una estrecha relación entre su perímetro y su radio pero… ¿Puede este vínculo ser considerado como un número «racional»? Es decir: ¿Puede conocerse con exactitud esta relación, o debemos limitarnos a dar aproximaciones?.

Sólo desde el siglo XVII la relación se convirtió en un número y fue identificado con el nombre «Pi» (de periphereia, nombre que los griegos daban al perímetro de un círculo), pero largo fue el camino hasta aceptar que Pi era un irracional, como infinita es la posibilidad de encontrarle un nuevo decimal.

A lo largo de la historia, la expresión de Pi ha asumido muchas variaciones. Uno de los mas antiguos textos matemáticos, el papiro de Rhind, (1700 años antes de nuestra era) nos muestra al escriba Ahmés cotejando la evaluación del área de un círculo inscrito en un cuadrado.

La biblia le asigna el valor 3, en Babilonia 3 1/8; los egipcios 4(8/9)²; Siddhantas 3,1416; Brahmagupta 3,162277; y en China 3,1724. Sin embargo, como era de esperarse, fue en Grecia donde la exacta relación entre el diámetro y el perímetro de una circunferencia comenzó a consolidarse como uno de los mas llamativos enigmas a resolver. Un contemporáneo de Sócrates, Antiphon, inscribe en el círculo un cuadrado, luego un octógono e imagina doblar el número de lados hasta el momento en que el polígono obtenido coincida prácticamente con el círculo. Brisón, por la misma época, hizo intervenir los polígonos circunscriptos.

Después de los trabajaos de Hipócrates y de Euxodo, Euclides precisa, en sus Elementos los pasos al límite necesarios y desarrolla el método de exhaución, consistente en doblar, al igual que Antiphon, el número de lados de los polígonos regulares inscritos y circunscritos y en mostrar la convergencia del procedimiento.

Arquímedes reúne y desarrolla estos resultados. Muestra que el área de un círculo es el semiproducto de su radio por su circunferencia y que la relación de la circunferencia al diámetro está comprendida entre 223/71 = 3,14084 y 22/7 = 3,14285.

Obtiene luego para las áreas y los perímetros de los polígonos regulares, inscritos y circunscritos, de n y 2n lados, relaciones de recurrencia de forma notable, que permiten calcular pi con una aproximación dada; este método de cálculo recibió el nombre de «algoritmo de Arquímedes».

Con el renacimiento, los trabajos de ciclometría se multiplican. Purbach construye una tabla de senos de 10′ en 10′ y adopta para Pi el valor 377/120 = 3,14666…. Los siglos XV y XVI se destacan por el desarrollo de la trigonometría, bajo el impulso de Copérnico y Kepler. Rhaeticus construye una tabla de senos en la que se incluye a Pi con 8 decimales exactos. Adrien Romain (1561-1615) obtiene 15 decimales y Ludolph de Colonia (1539-1610) llega hasta 32. Según su deseo, estos 32 decimales fueron grabados en su tumba, pero en su país la posteridad lo recompensó mucho mejor pues se dio a pi el nombre de «número de Ludolph».

Pronto la proeza de Ludolph se vió opacada por lo perfeccionamientos logrados por Snell (1580-1626) y Huyghens (1629-1655). El primero halla que el arco x está comprendido entre: 3 sen x /( 2 + cos x) y 1/3.(2 sen x + tg x) mientras que el segundo, cuya obra ha sido calificada como modelo de razonamiento geométrico, da la expresión (sen² x tg x)1/3 Con su método, Snell obtuvo 34 decimales exactos, partiendo del cuadrado y doblando 28 veces el número de los lados. Huyghens, en cambio, calcula Pi con 9 decimales exactos utilizando simplemente el polígono de seis lados.

El cálculo infinitesimal dió fórmulas notables que, al aportar métodos de cálculo nuevos y mucho mas potentes, separó en cierto modo a Pi de sus origenes geométricos y aclaró el papel fundamental que que juega en todo el análisis matemático.

El matemático francés Viete obtuvo, a fines del siglo XVI, la primer fórmula de Pi por medio de un producto infinito convergente que no hace figurar mas que a los número 1 y 2. Gregory en 1670 desarrolla la fórmula del Arco tangente que, para x = 1 da la fórmula de Leibniz: PI/4 = 1 – (1/3) + (1/5) -…

Como caso particular, cabe mencional a Euler, a quien le debemos la costumbre de designar por Pi a la relación circunferencia : diámetro y quien en 1775 calculó su valor, con 20 decimales, en una hora por medio de la fórmula:

Pi/4 = 5 arc tg 1/7 + 8 arc tg 3/79. Sin embargo, su mayor descubrimiento es el de un cierto parentesco entre Pi y otros números no menos importantes en la matemática, como lo son el número e, i, como así los lazos que existen entre las funciones circulares seno y coseno, y la función exponencial ex: ésta es periódica y su período imaginario es 2 i Pi.

Estas verdades son el resultado común de varias corrientes de ideas. Los logaritmos inventados por el escocés Neper (1550-1617), no solamente tuvieron gran importancia para los cálculos numéricos; la función, nula para x = 1, que admite como derivada a 1/x ofrece un sistema de logaritmos particularmente interesantes desde el punto de vista teórico: los conocidos logaritmos neperianos.

 El mas constante entre todos aquellos que se abocaron al cómputo de Pi fue el matemático inglés William Shanks, quien luego de un arduo trabajo que le demandó nada menos que veinte años, obtuvo 707 decimales en 1853. Desafortunadamente, Shanks cometió un error en el 528º decimal, y apartir de ése todos los restantes están mal. En 1949 John Von Neumann utilizó la computadora electrónica ENIAC, y luego de setenta horas de trabajo obtuvo 2037 cifras decimales. Tiempo después, otra computadora consiguió 3.000 decimales en sólo 13 minutos. Hacia 1959, una computadora británica y otra gala lograron las primeras 10.000 cifras.

En 1986 David H. Bailey extrajo 29.360.000 cifras en un Cray-2 de la Nasa utilizando el algoritmo de Ramanujan de convergencia cuártica. Finalmente, en 1987, Kanada consiguió mas de 100 millones de cifras se podrían conseguir facilmente 2.000 millones de cifras usando en exclusiva un superordenador durante una semana. En resumen, ya es prácticamente posible tantas cifras como se requiera, y el único impedimento aparente es debido al tiempo que un ordenador pueda tardar en conseguirlos.

Lo cierto es que sólo cuatro decimales de Pi con suficiente precisión bastan para las necesidades prácticas. Con 16 decimales se obtiene, con el espesor aproximado de un cabello, la longitud de una circunferencia que tenga por radio la distancia media de la tierra al sol.

Si reemplazamos el sol por la nebulosa mas lejana y el cabello por el corpúsculo mas pequeño conocido por los físicos, no harian falta mas que 40 decimales. Entonces ¿Que necesidad existe para buscar tantas cifras? Quizá ninguna necesidad práctica, pero el hombre no se resigna aún a aceptar cosas que no pueda llegar a comprender, como por ejemplo el infinito.

Evolución de Pi a través del tiempo

 Persona/pueblo         Año Valor

Biblia ~ 550 AC 3

Egipto ~ 2000 AC 3.1605

China ~1200 A.C. 3

Arquimedes ~300 AC 3.14163

Ptolomeo ~200 AC. 377/120 = 3.14166…

Chung Huing ~300 AC. raiz cuad.(10)

Wang Fau 263 A.C. 157/50 = 3.14

Tsu Chung-Chi ~500 A.C. 3.1415926<Pi<3.1415929

Aryabhata ~500 3.1416

Brahmagupta ~600 raiz cuad.(10)

Fibonacci 1220 3.141818

Ludolph van Ceulen 1596 35 decimales 

Machin 1706 100 decimales 

Lambert 1766 Nombró a Pi irracional

Richter 1855 500 decimales 

Lindeman 1882 Nombró a Pi trascendente

Ferguson 1947 808 decimales 

Ordenador Pegasus 1597 7.840 decimales 

IBM 7090 1961 100.000 decimales 

CDC 6600 1967 500.000 decimales 

Cray-2 (Kanada) 1987 100.000.000 decimales 

Univ. de Tokio 1995 4.294.960.000 decimales

  Volver Arriba 

Riesgos del Uso de Uranio en la Centrales Atomicas

Riesgos del Uso de Uranio en la Centrales Atómicas

DESCRIPCIÓN DEL PROCESO DE LIBERACIÓN DE ENERGÍA POR UN ÁTOMO:

La liberación de la energía nuclear: En un trozo de uranio 235, un neutrón rompe Un núcleo y expulsa, por ejemplo, dos neutrones.

Estos, al romper dos núcleos, producen en la segunda generación cuatro neutrones, los que a su vez liberan ocho neutrones en la tercera generación tras desintegrar cuatro núcleos.

La cuarta generación origina dieciséis, la décima mil veinticuatro, la vigésima más de un millón, la trigésima mil millones.

Así, cual un alud, el número de los proyectiles crece en progresión geométrica.

Como una generación de neutrones sólo dura un pequeñísimo intervalo de tiempo —una fracción infinitesimal de un segundo— todos los núcleos (2,5 x 1024) presentes en un kilogramo de uranio estarían casi instantáneamente desintegrados.

El funcionamiento normal de las centrales nucleares esparce por todo el mundo un repugnante espectro de substancias letales que no podrán nunca ser contenidas de modo seguro y que el ambiente natural no puede absorber de modo seguro.

Por fortuna, la energía nuclear es tan innecesaria como injustificada: podemos satisfacer las necesidades de electricidad del mundo sin una sola central nuclear de fisión, si atemperamos de modo razonable nuestra demandas de energía.

Las únicas centrales que existen actualmente utilizan la fisión.

La fusión, una tecnología que podría revolucionar la vida sobre la Tierra si se logran superar a un coste competitivo las barreras científicas que lo impiden, no existirá, suponiendo que así sea, hasta finales de siglo.

La energía de la fisión se debe a la liberación de calor que se produce cuando los átomos de uranio, bombardeados por partícula atómicas llamadas neutrones, absorben un neutrón y se dividen dando elementos más ligeros, como estroncio y yodo.

La división de los átomos de uranio libera también otros neutrones que repiten el pro ceso, en una reacción en cadena.

Se crean también elementos mas pesados cuando algunos de los átomos de uranio 238 en lugar de dividirse se transforman en plutonio 239, absorbiendo un neutrón.

Muchos de los elementos creados a consecuencia de la fisión son inestables, es decir, que pierden energía rápidamente emitiendo partícula»,

Estas emisiones, llamadas radioactividad, son peligrosas para lo» seres vivos porque pueden desorganizar los genes y los tejidos.

La energía de fisión tiene la característica única entre todos los sistemas de obtención de energía, de añadir a los niveles del fondo natural cantidades de radiación equivalente, lo que no hace ninguna otra tecnología.

El calor liberado en la fisión, se utiliza para convertir agua en vapor, que una vez proyectado sobre las paletas de una turbina eléctrica crea electricidad por la rotación de una bobina dentro de un campo magnético.

Este proceso ha fascinado a los científicos, los ingenieros y burócratas, debido principalmente a un hecho asombroso: la fisión de unos 30 gramos de uranio libera la misma energía aproximadamente que la combustión de 100 toneladas de carbón.

Muchas personas a la caza de esta milagrosa cornucopia de energía, han cernido los ojos a los problemas y consecuencias que la fisión trae para nuestro ambiente.

Los partidarios de la fisión nuclear aseguran que es asegura, barata y limpia con respecto al medio ambiente, y que sus riesgos son aceptables.

Mantienen que la fisión es una tecnología probada, disponible, y «en producción», mientras que otras energías de recambio no producirán energía con la rapidez necesaria para satisfacer nuestras necesidades.

La Energía Nuclear aporta un 33% de la energía consumida en Europa, de manera limpia, sin emisiones de gases de efecto invernadero y causantes de la lluvia ácida y sin perjudicar la capa de ozono.

Además las centrales nucleares producen cantidades muy pequeñas de residuos sólidos en proporción a las grandes cantidades de electricidad que producen y el efecto de las emisiones líquidas y gaseosas en el medio ambiente es inapreciable.

Otro problema distinto, es donde almacenar los residuos que se producen, residuos con vidas media muy largas.

Por otro lado la Energía Nuclear no está sujeta a cambios en las condiciones climáticas, sino que las centrales nucleares operan 24 horas al día durante los 365 días del año, lo que supone una gran garantía de suministro.

Además no sufre fluctuaciones imprevisibles en los costes y no depende de suministros del extranjero, lo que produce precios estables a medio y largo plazo.

Los que defienden energías de recambio están en total desacuerdo y aseguran que si se dispusiera de sólo una pequeña fracción de los fondos dedicados actualmente a la fisión nuclear, se podrían crear en unos pocos años industrias energéticas de recambio seguras, industrias que proporcionarían tanta energía como la que se obtiene de la fisión.

Señalan especialmente que el desarrollo de «energías menos duras» ha sido perjudicado por la enorme sangría de recursos que la fisión nuclear ha impuesto a los fondos de investigación energética de los EE.UU.

Los problemas más serios de la fisión se deben a que una sola central nuclear de fisión de gran tamaño produce tanta radioactividad de vida prolongada como la explosión de 1.000 bombas atómicas de Hiroshima.

Y se cree que la exposición de las personas a la radiación aumenta el riesgo de cáncer, de daños genéticos, enfermedades del corazón y muchas otras dolencias.

Parece ser que en los niños que todavía no han nacido, la radiación aumenta los riesgos de defectos congénitos y retraso mental. Pero a pesar de esto, la Comisión de energía atómica (AEC), ha anunciado planes para autorizar la instalación de 1.000 centrales nucleares en los próximos 25 años.

El contaminante radioactivo más peligroso de los muchos que producen los reactores, es el plutonio.

Se trata de una sustancia artificial, que no existe de modo natural en la Tierra, y que es el ingrediente explosivo de las armas nucleares.

Es tan mortal, que tres cucharadas de plutonio contienen suficiente radioactividad para inducir el cáncer en más de 500 millones de personas, según el Dr. John W. Gofman, codescubridor del uranio 233.

En su opinión se trata de la sustancia más tóxica de la Tierra, y una mota infinitesimal, más pequeña que un grano de polen, produce cáncer si se respira o se traga con el agua.

Y, sin embargo, el funciona-miento de 2.000 reactores producirá 400.000 kilos de este material cada año: un desecho para el cual no existen sistemas de recolección.

Hay que guardar el plutonio en depósitos con una vigilancia sin falla por los menos durante 250.000 años, más de 125 veces la duración de toda la era cristiana, a no ser que se dé un gran paso en la tecnología de los deshechos radioactivos.

Hay que guardar también el plutonio para evitar que sea robado con fines terroristas.

Se necesitan sólo unos pocos kilos de plutonio para fabricar una bomba que borraría del mapa ciudades como San Francisco, Nueva York o Moscú.

Estas destrucciones pueden llevarse a cabo con una facilidad escandalosa.

Un estudio secreto de la AEC informó que dos físicos que acababan de finalizar su carrera fueron capaces de diseñar una bomba atómica recurriendo únicamente a las obras accesibles al público.

Vivimos una época en la que casi cualquier país o grupo de presión con unos pocos científicos capacitados, puede convertirse en potencia nuclear, creando un riesgo terrible de guerra o accidente nuclear Si éstos fuesen los únicos peligros que presenta la energía de fisión, constituirían motivo suficiente para abandonarla.

Entre otros problemas están la falta de técnicas seguras de almacenamiento para los deshechos nucleares de alto nivel, la posibilidad de que se produzcan fugas catastróficas de radioactividad de las centrales nucleares, y emisiones normales radioactivas.

— Cuando sus recipientes sufren alteraciones normales escapan al medio ambiente deshechos de alto nivel, y los que critican el sistema aseguran que parte de los deshechos se ha incorporado al agua del suelo. Los deshechos se ven expuestos dentro de sus tanques a la acción de saboteadores, terremotos, guerras o accidentes; una sola de estas causas, bastaría para dejar sueltas de golpe cantidades colosales de radioactividad.

— Las medidas de protección destinadas a proteger al público contra accidentes nucleares serios, no se han puesto nunca a prueba de modo completo y en condiciones reales de funciona miento. La explosión de una central podría causar miles de muertos y daños por valor de 17.000 millones de dólares, según la AEC. (caso de Chernobyl en 1986 y Japón en 2010)

— La fuga de sólo un mínimo por ciento de la radioactividad del núcleo de un reactor, podría convertir en inhabitable una zona del tamaño de California.

— Aparte de los accidentes, las centrales de fisión emiten de modo normal radioactividad por los gases de sus chimeneas y por el agua de deshecho.

Según cálculos realizados por eminentes cien tíficos, los límites federales legales para este tipo de radiación son tan altos que si cada persona en el país se viera expuesta a los límites de radiación permitidos, se producirían cada año, 32.000 fallecimientos más por cáncer y leucemia y de 150.000 a 1.500.000 fallecimientos genéticos adicionales.

El coste-anual para la seguridad social de las enfermedades inducidas genéticamente ha sido calculado por el especialista en genética, premio Nobel, Joshua Lederberg, en 10.000 millones de dólares.

cuadro esquema de un central nuclear: las etapas

Cuadro funcionamiento de una central nuclear

Central Nuclear Atucha I

Temas Relacionados

• El Atomo Composicion Energia Nuclear Electrones y Protones
• Cálculo del Radio de la Orbita en el Átomo de Hidrógeno
• El Atomo Para Niños y Principiantes
• Teoría de Desintegración Nuclear del Átomo Radioactividad
• Leyes de la Teoría Atómica
• Resumen de la Teoria Atomica

Enlace Externo: El Boson de Higgs

Nanociencia y Nanotecnologia:Que es la Nanociencia y Sus Aplicaciones

Aplicaciones de la Nanociencia y Nanotecnologia ¿Qué es la Nanociencia?

Uno de los avances mas espectaculares llevados a cabo en Física e Ingeniería en años recientes es el experimentado por la nanotecnología: la habilidad de diseñar, controlar y modificar materiales a nivel cuasi-microscópico ó “mesoscópico”.

La nanotecnología nos promete la posibilidad —largamente soñada— de influir en las propiedades de los materiales con el fin de producir materiales “inteligentes” para todo tipo de aplicaciones.

Es ahora frecuente ver en las más prestigiosas revistas científicas reportes sobre avances en diseño de microcircuitos, microestructuras artificiales y máquinas microscópicas.

Ahora es posible el crecimiento sistemático y controlado de pequeñas estructuras artificiales compuestas de varia capas delgadas de materiales diferentes, algunas de unos pocos átomos de ancho mediante técnicas, tales como los “haces moleculares epitaxiales”.

A escala comercial, quizás la aplicación mas espectacular a la fecha es el uso de la magnetoresistencia gigante, descubierta en 1998, en las cabezas lectoras de la mayoría de los discos duros de los computadores actuales.

Estos y otros avances relacionados, han provocado un explosivo interés en el tema y el término nanotecnología se ha convertido en palabra clave de muchas propuestas de investigación en ciencia de materiales e ingeniería.

ORÍGENES:

E 29 de diciembre de 1959, por ejemplo, el físico Richard Feynman -uno de los científicos más importantes del siglo XX- miró con determinación a si audiencia en una conferencia en el Instituto de Tecnología de California EE.UU., se aclaró la garganta y dijo: «Hay mucho lugar allá abajo» y lanzó no uno, sino dos desafíos a los presentes en el auditorio: le daría 1.000 dólares a aquel capaz de hacer un motor más pequeño que 8 mm3 y a quien lograra escribir los 24 volúmenes de la Enciclopedia Británica en la cabeza de un alfiler, es decir, reducir unas 25.000 veces un texto.

Casi sin querer  (o saberlo), este premio Nobel de física había abierto las puertas de lo desconocido. Había dado a luz un nuevo campo científico, de dominio íntimos, liliputienses, vírgenes: habían nacido las nanociencias.

Richard Feynman

La electrónica había encontrado su camino en la miniaturización.

Y Feynman, todo un provocador, estaba seguro de que se podía bajar incluso unos pisos más: en teoría, nada impedía manipular conjuntos de átomos, reordenarlos con suma precisión como si fueran ladrillos 1.000 millones de veces más pequeños que un metro, un «nanómetro», o sea, el tamaño de un virus.

Y hacerlo, pese a que, como muchos comprobaron más tarde, el comportamiento de la materia cambia por debajo de un cierto tamaño.

Las leyes que rigen son distintas.

El tamaño importa: en este mundo ínfimo donde las cosas no pesan casi nada, la gravedad mucho no importa.

(Fuente: Todo lo que necesitas saber sobre ciencias, Federico Kukso)

La opinión pública y la dirigencia política desconocen casi por completo el desafío de las nanotecnologias, portadoras de muchas más esperanzas y peligros que todas las tecnologías hasta hoy conocidas.

Su difusión potencial preocupa a los ciudadanos, mientras las industrias prometen el advenimiento de materiales milagrosos.

Como ya ocurrió con los organismos genéticamente modificados (OGM), el ritmo de desarrollo de sus aplicaciones es más rápido que el control de los peligros que encierran.

Qué tienen en común un neumático inteligente y una crema sol milagrosa?.

¿O una prenda de vestir isotérmica, cuyo color cambia con nuestro humor, y una pintura resistente a las manchas?.

¿O un “acero” tan liviano como el plástico y un interruptor sin cable?.

¿O las medias que no toman olor y la destrucción selectiva de una célula cancerosa? En todos los casos, se trata de aplicaciones de la nanotecnología.

Hoy se sabe cómo producir esos objetos cuyo tamaño está en el orden del millonésimo de milímetro (0,000001mm).

Constituidos por una pequeña cantidad de átomos o de moléculas, están dotados de extraordinarias características físicas, químicas o biológicas que les otorgan resistencia, flexibilidad, liviandad o capacidad de almacenamiento de información.

Esta confluencia de la materia, la electrónica y la biología se presta a aplicaciones informáticas, industriales, ambientales y médicas.

————-  00000 ————

El significado de la «nano» es una dimensión: 10 elevado a -9.

Esto es: 1 manómetro = 0,000000001 metros. Es decir, un manómetro es la mil millonésima parte de un metro, o millonésima parte de un milímetro.

También: 1 milímetro = 1.000.000 manómetros.

Una definición de nanociencia es aquella que se ocupa del estudio de los objetos cuyo tamaño es desde cientos a décimas de manómetros.

Hay varias razones por las que la Nanociencia se ha convertido en un importante campo científico con entidad propia. Una es la disponibilidad de nuevos instrumentos capaces de «ver» y «tocar» a esta escala dimensional.

A principios de los ochenta fue inventado en Suiza (IBM-Zurich) uno de los microscopios capaz de «ver» átomos.

Unos pocos años más tarde el Atomic Force Microscope fue inventado incrementando las capacidades y tipos de materiales que podían ser investigados…

En respuesta a estas nuevas posibilidades los científicos han tomado conciencia de potencial futuro de la actividad investigadora en estos campos.

La mayor parte de los países han institucionalizado iniciativas para promover la nanociencia y la nanotecnología, en sus universidades y laboratorios.

————-  00000 ————

Así, la más extendida revolución tecnológica que haya conocido la humanidad está tal vez en vías de nacer en laboratorios de Tokio, Berkeley o Grenoble.

Revolución, porque las nanotecnologias permiten eliminar la barrera entre lo real y lo virtual, entre lo vivo y lo material.

Extendida, porque la posibilidad de poner inteligencia en todas las partes de nuestro cuerpo y en nuestro medio ambiente abre perspectivas económicas infinitas, estimadas en un billón de dólares a partir de 2015.

————-  00000 ————

La palabra «nanotecnología» es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas «nanos» que permiten trabajar y manipular las estructuras moleculares y sus átomos.

En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas.

El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman

nanotecnologia

RIESGO SANITARIO

Pero esta revolución plantea una cantidad infinita de preguntas.

Los industriales, tras el escándalo del amianto y el rechazo a los OGM, tratan de desactivar las objeciones críticas mediante una concertación con algunos grupos ciudadanos.

Pero el argumento que plantea que ya vivimos en medio de nanopartículas errantes a las que se supone inofensivas—producidas por la naturaleza, la industria y los motores de vehículos— no basta para cerrar el debate sobre el peligro sanitario y, menos aun, sobre los riesgos para la libertad.

A mediados de 2006 ya se contaban 700 productos que contenían componentes nanométricos y 1.400 clases de nano partículas vendidas por unos SO productores.

A pesar de la creación de grupos de trabajo y de la organización de debates públicos en todo el mundo, el control de los riesgos —por la vía de normas, leyes y una obligación de transparencia— parece muy retrasado con respecto al ritmo de desarrollo de las aplicaciones que, por otra parte, son muchas veces desconocidas por razones de secreto industrial y, sobre todo, militar.

Se sabe, sin embargo, que su tamaño les permite a esas partículas no sólo alojarse en las vías respiratorias, sino también atravesar la piel, penetrar las células basta su núcleo, vencer membranas consideradas infranqueables o alojarse en el sistema nervioso central.

Millones de trabajadores corren el riesgo de resultar expuestos a las nanopartículas.

Ya se puede prever una acumulación en la naturaleza de “migajas” nanométricas capaces de perturbar los ecosistemas y de intoxicar al ser humano. ¿Podrá argüirse, cómo con el amianto, que no sabíamos?

LA TENTACIÓN DE FAUSTO

El riesgo para la libertad parece mucho mayor que el de la toxicidad, porque con la generalización de losnanochips se corre el riesgo de relanzar la tentación de Fausto, de crear el ser perfecto, de buen desempeño y alta resistencia.

A través del sistema de Radio Frequency Identification (RIFID) se abre la vía para vigiar a los individuos y su comportamiento.

La difusión de partículas inteligentes también puede servir para la vigilancia del medio ambiente, para la marcación antirrobo, para los sistemas de información militar o para la acción de los terroristas, de sectas y de “Estados canallas”.

Como con los OGM, que se imponen a pesar de las dudas y de las moratorias locales, las nanociencias llaman a la construcción de un sistema de responsabilidades entre quien toma las decisiones políticas, el científico, el industrial y el ciudadano.

Confirman que un Estado no puede —suponiendo que quiera hacerlo— adoptar por sí solo el principio de la protección máxima, sin correr el riesgo de ver que los demás acaparen patentes y mercados.

Se plantea así la cuestión del crecimiento de las desigualdades ente quienes dominan esta arma económica suprema y quienes no pueden hacerlo.

A CORTO PLAZO:

Nanotecnología purificadera:

El 73 por ciento del agua que hay en el mundo es salada, y el 2,7 por ciento del agua dulce que puede servir para consumo humano está contaminado por fuentes industriales.

Una solución podría llegar de parte de un proyecto que llevan a cabo el Instituto Politécnico Nacional de México, la Pontificia Universidad Javeriana de Colombia, e instituciones de Francia y España, que comenzaron a usar una tecnología que combina biotecnología y nanotecnología, para purificar aguas, incluyendo a las industriales.

El sistema se basa en nanopartículas de óxido de titanio que se colocan sobre superficies de vidrio o de cristal y después se someten a altas temperaturas para que se adhieran.

Es en presencia de luz solar o ultravioleta que se producen especies oxidantes que degradan el material orgánico en el agua contaminada.

Una prueba indica que, aplicada a un lote de 800 mililitros de agua con 1,5 gramo de nanopartículas de óxido de titanio, se removió la totalidad de los compuestos tóxicos.»

Detección Rápida del Cáncer:

Pruebas de cáncer más rápidas Científicos estadounidenses han usado con éxitonanosensores para detectar exitosamente cáncer en la sangre de los pacientes.

La prueba más reciente puede detectar concentraciones mínimas de marcadores biológicos, en el orden de una millonésima parte de gramo por mililitro, el equivalente a ser capaz de detectar un grano de sal disuelto en una piscina grande.

En vez de tener que esperar varios días los resultados del laboratorio, la prueba ofrece una lectura en minutos.

LA ESTRELLA DEL SIGLO XXI: EL GRAFENO:

Un nuevo material de ficción (un nanomaterial), 200 veces mas resistente que el acero, pero flexible, impermeable y conductor de la electricidad.

En este material los átomos están dispuestos en hojas tridimensionales: el grafeno es ultrafino -sus átomos de carbono se agrupan siguiendo un modelo parecido a un panal de abejas-, transparente, flexible, impermeable, presenta una elevada conductividad eléctrica y, encima, es doscientas veces más resistente que el acero.

«Con solo apretar un botón en un paquete de galletitas, sabremos sus ingredientes y calorías», asegura el belga Jan Genoe del Instituto Imec de Nanoelectrónica de Lovaina.

«En unos años, veremos pantallas de este material en todas partes.»

Con el grafeno, los celulares podrían volverse casi tan delgados y flexibles como el papel y prácticamente indestructibles.

También podría abrir el camino a las placas solares flexibles: los metales convencionales absorben la luz.

Por el contrario, el grafeno, incorporado en un panel solar, facilitará el aporte de energía a numerosos dispositivos.

Y hay más: «el papel electrónico enrollable -asegura uno de los descubridores del grafeno, Kostya Novoselov- podría estar disponible en 2015″.

LOS FULLERENOS, Historia

Hasta 1985 se pensó que el elemento más estudiado por el hombre, el carbono, sólo podía existir, en estado puro, en forma de diamantesustancia de gran dureza que no conduce la electricidad– y de grafito -material bastante blando y buen conductor de la electricidad-

Ese año, motivados por el descubrimiento de nuevos compuestos del carbono realizado en el espacio exterior, el químico británico Harold W. Kroto (1939- ) y los estadounidenses Robert F. Curl (1933-) y Richard E. Smalley (1943-) estudiaron el agregado de pequeños grupos de átomos de carbono llamados clusters.

Robert F. Curl                           Richard E. Smalley

Estos científicos observaron que se producía un agregado con un número máximo de 60 átomos de carbono y trataron de determinar su estructura espacial.

Luego de varios intentos para encontrar una estructura formada sólo por hexágonos la forma más común que adopta el carbono), se convencieron de que la única disposición posible era la de una pelota de fútbol, constituida por 20 hexágonos y 12 pentágonos.

Esta nueva forma natural del carbono se conoce con el nombre de futboleno, o también buckminsterfullereno debido a la similitud estructural con las formas geométricas de las cúpulas geodésicas inventadas por el arquitecto estadounidense Richard Buckminster Fuller 1895-1983).

El trabajo de estos científicos fue arduo: durante cinco años buscaron un método que permitiera crear cantidades visibles de futboleno.

Sabían que la sustancia se producía en forma natural durante la combustión del carbón, pero cuando juntaban hollín en benceno, éste se depositaba en el fondo y no se obtenía el compuesto amarillo tan buscado.

En mayo de 1990, mientras estudiaba el polvo interestelar, el físico Wolfgang Krátschmer y sus colaboradores evaporaron una barra de grafito calentándola con una corriente de helio y observaron que en el hollín había una sustancia diferente.

Años más tarde y luego de varios estudios, Krátschmer mezcló unas gotas de benceno con este hollín, y el solvente incoloro se volvió rojo. Varios estudios posteriores permitieron concluir que se trataba de una solución concentrada de fullerenos.

¡El futboleno es amarillo cuando forma una película, y rojo, cuando está en solución!

Curl y Smalley continuaron con el estudio de estas sustancias, hasta que en 1996 recibieron el premio Nobel de Química.

Tal como es común en la historia de las ciencias, a partir de este descubrimiento se abrieron nuevos campos para la investigación en terrenos muy alejados de los objetivos iniciales de los científicos.

Se han descubierto nuevos fullerenos de 60 y 70 átomos de carbono, y algunos de ellos tienen utilidad como superconductores a bajas temperaturas cuando se incorporan otros elementos a su estructura.

Finalmente, se comprobó que el futboleno es biológicamente activo y podría llegar a emplearse en la lucha contra el cáncer.

Fuente: Investigación y Ciencia, N° 183, diciembre de 1991.

LA NANOCIENCIA SE INSPIRA EN LA NATURALEZA:

Los científicos se inspiran en la naturaleza, tratando de imitar propiedades a nanoescalas que tienen algunas plantas y animales y que podrían utilizarse para fabricar nuevos materiales utilizando esas misma propiedades, por ejemplo las que siguen abajo:

nanociencia, cuadro de aplicaciones

• ►CRONOLOGÍA:

1959 El físico Richard Feynman advirtió en una conferencia en el Instituto Tecnológico de California: «A mi modo de ver, los principios de la física no se pronuncian en contra de la posibilidad de maniobrar las cosas átomo por átomo».

1980 Se estrenó la película Viaje fantástico, basada en el libro de Isaac Asimov, con Raquel Welch. Cuenta la travesía de un grupo de científicos que reducen su tamaño al de una partícula y se introducen en el interior del cuerpo de un investigador para destrozar el tumor que lo está matando.

1970 Se diseñó la primera nanoestructura: un liposoma.

1974 El japonés Norio Taniguchi utilizó por primera vez la palabra «nanotecnología» en un paper.

1981 El físico suizo Heinrich Rohrer y el alemán Gerd Binnig desarrollaron el microscopio de efecto túnel, que permite manipular átomos.

1985 El químico inglés Harold Kroto descubrió los fulerenos, macromoléculas de carbono individuales utilizadas para hacer nanotubos.

1989 Investigadores del Almadén Research Center de IBM manipularon con precisión 35 átomos de xenón para formar el logo de la empresa de informática. 1999 Aparecieron en el mercado los primeros productos con nanotecnología. 2002 Michael Crichton publicó Presa, un tecnothriiler en el que unos nanobots inteligentes escapan al control humano y se convierten en entes autónomos, autorreplicantes y peligrosos.

2010 Se creó un nanobot capaz de mover átomos y moléculas.

2012 Se desarrolló un método en impresoras 3D para la fabricación de es culturas con estructuras tan pequeñas como un grano de arena.

Naturaleza de la Materia

MAS EN INTERNET:

> Centro Nacional de Investigación Científica (CNRS): www.cnrs.fr

> Portal creado por iniciativa del Ministerio Delegado para la Investigación y las Nuevas Tecnologías: www.nanomicro.recherche.gouv.fr

> Action Group on Erosion, Technology and Concentration: www.etcgroup.org/en

> VivAgora, plataforma de protección, información y diálogo por una participación ciudadana en las decisiones científicas y técnicas:www.vivagora.org

Las radiaciones de un nucleo atomico Tipos alfa, beta y gamma

LAS RADIACIONES DE UN NÚCLEO DE UN ÁTOMO

1-Radiaciones Alfa
2-Radiaciones Beta
3-Radiaciones Gamma

atomo orbitasÁtomo, la unidad más pequeña posible de un elemento químico. En la filosofía de la antigua Grecia, la palabra «átomo» se empleaba para referirse a la parte de materia más pequeño que podía concebirse. Esa «partícula fundamental», por emplear el término moderno para ese concepto, se consideraba indestructible.

De hecho, átomo significa en griego «no divisible». El conocimiento del tamaño y la naturaleza del átomo avanzó muy lentamente a lo largo de los siglos ya que la gente se limitaba a especular sobre él.

Con la llegada de la ciencia experimental en los siglos XVI y XVII  los avances en la teoría atómica se hicieron más rápidos. Los químicos se dieron cuenta muy pronto de que todos los líquidos, gases y sólidos pueden descomponerse en sus constituyentes últimos, o elementos.

Por ejemplo, se descubrió que la sal se componía de dos elementos diferentes, el sodio y el cloro, ligados en una unión íntima conocida como compuesto químico. El aire, en cambio, resultó ser una mezcla de los gases nitrógeno y oxígeno.

Todos sabemos que el átomo constituye una especie de sistema planetario en miniatura; el núcleo equivale al Sol, y los electrones a los planetas. Una de las primeras preguntas que se nos pueden ocurrir a este respecto, es la siguiente: ¿cómo está hecho el núcleo, ese sol de un universo infinitamente pequeño?

Sabemos que el núcleo atómico se compone, fundamentalmente, de dos tipos de partículas materiales: los protones, cargados de electricidad positiva, y los neutrones, desprovistos de carga eléctrica. En cambio, poco es lo que se sabe acerca de la disposición y movimiento de estas partículas. A diferencia de lo que sucede con los electrones (los «planetas»), que giran alrededor del núcleo, no existe un modelo que ilustre de manera intuitiva cómo los protones y neutrones se mueven y disponen en el interior del mismo núcleo.

Sin embargo, los estudios y las experiencias de física nuclear han permitido obtener algunas conclusiones y datos significativos. Por ejemplo, el núcleo del átomo del hierro, contiene 26 protones (en amarillo en la ilustración) o, lo que es lo mismo, 26 partículas provistas de una carga elemental positiva.

Estas 26 cargas positivas pueden sostener, en torno al núcleo, otras tantas cargas de signo opuesto. Así, en el átomo neutro de hierro, 26 electrones —es decir 26 partículas provistas de una carga elemental negativa— giran alrededor del núcleo, en órbitas distintas. Y, precisamente, es el número de protones (llamado «número atómico»), igual en el átomo neutro al número de electrones, lo que hace que el hierro sea hierro, con todas las propiedades químicas que lo distinguen. Cada elemento químico, en consecuencia, tiene un número atómico propio.

Pero si las propiedades químicas de un átomo dependen, exclusivamente, del número atómico, otras propiedades no menos importantes dependen, además, del llamado «número de masa». Se trata de propiedades que no pueden observarse a simple vista, pero que se revelan de modo muy espectacular en las «reacciones nucleares» (pensemos, por ejemplo, en la bomba atómica).

Ya hemos dicho que en el núcleo, además de los protones, se encuentran los neutrones, o partículas desprovistas de carga eléctrica, que pesan, aproximadamente, igual que los protones. Pues bien: la suma del número de protones y de neutrones da el «número de masa».

Los átomos de igual número atómico, pero de distinto «número de masa», son llamados «isótopos»: tienen idénticas propiedades químicas (puesto que idéntico es el número atómico), pero distintas propiedades nucleares, porque distinto es el número de masa o, lo que es lo mismo, el número de neutrones.

Tal como aparecen en la naturaleza, casi todos los elementos son mezclas de isótopos diferentes: el hierro, por ejemplo, además de átomos de 26 protones y 30 neutrones (que se hallan en franca mayoría, ya que constituyen el 91,68% de su materia), contiene también átomos de 28, 31 y 32 neutrones. Éstos son, precisamente, los isótopos del hierro (cuyos protones continúan siendo 26), todos ellos estables, es decir, existentes en la naturaleza, sin ninguna tendencia a transformarse espontáneamente en otra cosa.

En cambio, un átomo de hierro que, junto a los 26 protones habituales tuviese en el núcleo 33 neutrones, ya no sería estable, es decir, tendería a transformarse. Lo mismo puede decirse de los átomos de hierro con 27 ó 26 neutrones.

Se trata de un hecho muy importante, cuya significación es la siguiente: para que en un núcleo con un determinado número de protones (26 en el caso del hierro) haya estabilidad, los electrones no deben superar una cantidad determinada (28, 30, 31 y 32, en el caso del hierro).

En otras palabras: del número de neutrones depende la estabilidad del núcleo. Y ahora podemos dar otro paso y preguntarnos qué es lo que mantiene a protones y neutrones en el núcleo. Salta a la vista que el problema es más complejo que el que presentan los electrones girando alrededor del núcleo: en este caso se trata, simplemente, de partículas cargadas negativamente (electrones), que, en virtud de las fuerzas electrostáticas, son atraídas por cargas positivas de ciertos elementos del núcleo (protones).

En el interior del núcleo, en cambio, los neutrones, desprovistos de carga, y los protones, que la tienen positiva, deberían repelerse, si sólo actuaran las fuerzas electrostáticas.

Como no sucede así, forzosamente tenemos que pensar en fuerzas de otra naturaleza; y éstas, llamadas por los científicos «fuerzas nucleares», son aún muy misteriosas. Parece que los protones y neutrones se atraen independientemente de su carga; es decir, un protón atrae indiferentemente a otro protón, o a un neutrón, y lo mismo puede decirse de los neutrones. En el caso, sin embargo, de dos protones, la fuerza electrostática de repulsión es más potente que la fuerza nuclear de atracción.

Debido al complejo juego de estas fuerzas, la estabilidad del núcleo depende de las relaciones entre el número de protones y de neutrones, tal como hemos explicado.

Cuando la relación protones-neutrones no asegura la estabilidad del núcleo, éste tiende a modificar la relación, emitiendo radiaciones alfa o beta, y transformándose espontáneamente en un núcleo estable.

En las radiaciones alfa, el núcleo emite las «partículas alfa», constituidas por dos protones y dos neutrones.
En las radiaciones beta, el núcleo sólo emite electrones, que no existían previamente en su interior, sino que se producen simultáneamente con la emisión, cuando un neutrón del núcleo se transforma en protón para establecer el necesario equilibrio numérico entre neutrones y protones.

PARTÍCULA ALFA:

Determinadas combinaciones de protones y neutrones pueden llegar a formar un núcleo durante algún tiempo; pero el núcleo no es estable y el átomo es radiactivo. Esta clase de átomos intenta variar la proporción de protones y neutrones en el núcleo, para formar una combinación más estable, y entonces el núcleo emite una radiación. El átomo se trasforma en el átomo de un elemento distinto y se dice que se trasmutó.

cargas electricasDos protones no pueden permanecer juntos, porque ambos tienen carga positiva (cargas del mismo signo se repelen). Los núcleos que tienen protones en exceso se estabilizan por trasmutación.

cargas electricas
El núcleo de helio, con dos protones y dos neutrones, es la combinación de protones y
neutrones más estable que se conoce. Es la «partícula alfa».

Por ejemplo, si un núcleo contiene demasiados protones y neutrones para ser estable, puede expulsar algunas de estas partículas y alcanzar una mayor estabilidad. Para ello emite dos protones y dos neutrones firmemente unidos (el núcleo, muy estable, del átomo de helio), formando una partícula única, que se conoce con el nombre de partícula alfa. La partícula alfa lleva, por consiguiente, dos cargas positivas y tiene un peso atómico igual a cuatro, mientras que el átomo que ha emitido esta partícula alfa disminuye su número atómico en dos unidades, y su peso atómico en cuatro unidades.

Por ejemplo, los átomos de radio que se encuentran en la naturaleza (número atómico 88, peso atómico 226) emiten partículas alfa, y entonces se- trasforman en radón, un gas radiactivo (número atómico 86, peso atómico 222)

formula quimica

El radón mismo se trasmuta emitiendo partículas alfa. Las partículas alfa, que se emiten durante la trasmutación de los átomos, se desplazan en línea recta a través del aire, y pierden su energía a medida que van entrando en colisión con las moléculas de aire, deteniéndose, generalmente, al cabo de unos cuantos centímetros.

Todas las partículas alfa, emitidas por un isótopo determinado, suelen recorrer la misma distancia en el aire, ya que tienen la misma energía cinética, la cual van perdiendo en los choques; basta, sin embargo, interponer en su camino una hoja de papel para detener una partícula alfa.

cargas electricas

LA PARTÍCULA BETA
Si un núcleo contiene demasiados neutrones, para ser estable puede convertir alguno de ellos en un protón. En realidad, el protón y el neutrón son partículas muy similares. Para que un neutrón se trasforme en protón basta con que emita un electrón. El neutrón pierde, entonces, una carga negativa y se trasforma en un protón cargado positivamente:

formula

El electrón es emitido por el núcleo con una gran velocidad; recibe el nombre de partícula beta.

El átomo conserva el mismo peso molecular después de la trasmutación, ya que la suma de protones y neutrones en el núcleo permanece constante; pero el número atómico aumenta por existir un protón suplementario. Un ejemplo de trasmutación por emisión de partículas beta lo tenemos en el comportamiento del carbono radiactivo. Los átomos del carbono 14 (número atómico 6, peso atómico 14), que es un radioisótopo natural del carbono 12, se trasmutan, por emisión de partículas beta, en nitrógeno 14 (número atómico 7, peso atómico 14). que tiene un núcleo estable.

Aproximadamente, la mitad de los radioisótopos naturales se puede trasmutar por emisión de partículas beta. También muchos radioisótopos artificiales presentan una trasmutación de este tipo.

Las partículas beta son muy ligeras y se desvían muy fácilmente en su trayectoria. Por ello, no se desplazan en línea recta como las partículas alfa. Sin embargo, suelen recorrer un espacio superior. En el aire, una partícula beta puede alcanzar más de un metro o, incluso, atravesar una lámina de aluminio de algunos milímetros de espesor.

EL POSITRÓN
Además de las partículas alfa y beta, que emiten los radioisótopos naturales, los radioisótopos artificiales pueden emitir también una partícula, que tiene la misma masa que el electrón, pero con una carga positiva igual a la del protón. Esta partícula se llama positrón, y puede considerarse como un electrón con una carga positiva igual, pero de signo opuesto a la del electrón.

EMISIÓN DE POSITRONES
Se ha visto que la emisión de partículas beta puede tener lugar cuando el núcleo contiene demasiados neutrones para ser estable. Si la relación entre protones y neutrones es la correspondiente al núcleo estable, no hay radiactividad. Si, por el contrario, el núcleo contiene demasiados protones para ser estable, puede convertir uno de sus protones en un neutrón, emitiendo un positrón que, al no poder permanecer en el núcleo, es expulsado

formula

El átomo conserva el mismo peso atómico, pero el número atómico disminuye por haberse convertido un protón en neutrón. En 1934, Irene Joliot-Curie formó átomos de nitrógeno 13 (número atómico 7, peso atómico 13) al bombardear boro 10 con partículas alfa. El nitrógeno 13 se trasmutaba, por emisión de positrones, en carbono 13 (número atómico 6, peso atómico 13), y la presencia de la radiación, debida a los positrones (éstos fueron descubiertos en 1932), le permitió anunciar el descubrimiento de la radiactividad artificial:

formula

Hay, además, un tercer tipo de radiación nuclear, que siempre se presenta en compañía de una de las dos recién explicadas. Se trata de la radiación gamma, que es de naturaleza electromagnética, como la luz y los rayos X, de los que sólo difiere por el origen (la luz y los rayos X se originan en el exterior del núcleo, como consecuencia del paso de electrones de una órbita a otra de menor energía; las radiaciones gamma, en cambio, se originan en el interior del núcleo, como consecuencia de una sucesiva estabilización de éste, sin que se modifique la relación protones-neutrones).

Las radiaciones nucleares alfa, beta y gamma constituyen, pues, el instrumento que un núcleo inestable tiene a su disposición para alcanzar la estabilidad. En algunos elementos, tal como se encuentran en la naturaleza, la emisión de las radiaciones nucleares se verifica espontáneamente. Se trata de los famosos elementos radiactivos, como el radio y el uranio.

Pero fenómenos de este género pueden provocarse también en el laboratorio. Y, durante el transcurso de estas investigaciones, el hombre ha conseguido asomarse a los más profundos misterios del átomo, construir núcleos inexistentes en la naturaleza, liberar las energías encerradas dentro de los núcleos, e incluso, como veremos en otro artículo, transformar unos elementos en otros.

esposos curie

En 1934, Irene Joilot-Curie (hija de la famosa María Curie) y su marido, descubrieron que un isótopo estable natural (el boro 10) puede trasformarse en un elemento radiactivo distinto, por bombardeo con «partículas alfa». La radiactividad de los átomos producidos artificialmente se llama «radiactividad artificial».

 

El Atomo:Composicion, Energia Nuclear,Electrones, Protones y Modelos

El Atomo:Composicion, Energia Nuclear,Electrones, Protones y Modelos

https://historiaybiografias.com/linea_divisoria1.jpg

LISTA DE TEMAS TRATADOS:

1-¿Que es un Atomo?
2-La Energía Nuclear y sus Usos
3-La Física Moderna
4-La Fisión Nuclear
5-Partículas Elementales
6-Vida de Max Planck

————-  00000 ————

• ►UN POCO DE HISTORIA…
La crisis de la Física clásica

En los últimos años del siglo XIX se creía que la Física, como disciplina teórica, se encontraba prácticamente terminada. Las leyes de Newton para la dinámica y las ecuaciones de Maxwell para los fenómenos electromagnéticos permitían explicar satisfactoriamente todos los fenómenos conocidos.

esquema del átomo

Sin embargo esta Física, a la que se suele llamar Física clásica, resultó ser insuficiente cuando pretendía explicar los comportamientos de los átomos y sus componentes, por un lado, y los nuevos descubrimientos astronómicos, por otro.

La Física clásica, útil para describir el entorno directamente observable, no era aplicable para interpretar el mundo subatómico (interior de los átomos) y el Cosmos.

Los datos recogidos en uno y otro campo dieron lugar a la aparición de dos nuevas ramas de la Física: la Mecánica cuántica, para explicar los comportamientos de las partículas elementales, y la Relatividad, para interpretar el Universo que llegaba a través de los telescopios.

A partir de ahora vamos a explicar someramente como está constituido un átomo, es decir, cuales son las partículas básicas que los conforman y como funciona interiormente mediante un modelo atómico que ha sido conseguido mediante la observación experimental de varias de décadas.

• INTRODUCCIÓN TEÓRICA:

Profundizar en el conocimiento de como está constituida la materia ha sido siempre uno de los grandes objetivos del pensamiento humano.

La idea de que toda la materia que forma el mundo físico está formada por partículas muy pequeñas, separadas por espacios vacíos data ya de los filósofos griegos, especialmente de Demócrito, que vivieron en el siglo V a. C.

Los pensadores helenos se plantearon la siguiente pregunta: si tomamos un trozo de hierro, por ejemplo, y lo cortamos en partes más pequeñas, ¿se podrá seguir cortando indefinidamente o bien llegará un momento en que encontremos una partícula de hierro que sea indivisible y no pueda cortarse más? .

El filósofo Demócrito opinó que debía existir una última partícula que ya no podía ser dividida en otras más pequeñas y la denominó átomo (en griego átomo quiere decir indivisible).

Si se partiera la materia en pedazos cada vez más pequeños llegaríamos finalmente al átomo, la partícula más pequeña posible de cualquier sustancia. Los átomos son tan diminutos, que unos seis millones de ellos cabrían en el punto que concluye esta frase.

Alguna vez se pensó que eran las unidades últimas e inseparables que formaban el universo. La palabra «átomo» proviene del griego átomos, que significa invisible.

Desgraciadamente, las ideas de Demócrito fueron combatidas por Aristóteles y por este motivo fueron rechazadas durante largo tiempo a causa del prestigio universal del gran filósofo griego.

A partir del siglo XIX empezaron a aparecer las primeras teorías científicas sobre la constitución de la materia, que retomaron el concepto de átomo y que posteriormente han ido imponiéndose hasta la actualidad.

daltonEl atomismo cayó rápidamente en el olvido; fue rechazado por Platón y Aristóteles, que siguieron la teoría de Empédocles sobre los cuatro elementos (fuego, aire, agua y tierra).

Sigue un largo periodo que alcanza los siglos XVII y XVIII en que la investigación química se rodeó de misterio y buscó la piedra filosofal.

Las primeras evidencias de la teoría atómica se deben a Lavoisier y Proust.

Es John Dalton, sin embargo, quien a principios del siglo XV sienta las bases de la moderna teoría sobre el átomo.

Sus trabajos sobre la composición de los gases le condujeron a formular,  en 1805, John Dalton expuso sus ideas sobre la constitución atómica de la materia, que pueden resumirse del modo siguiente:

  1. a) La materia está constituida por partículas muy pequeñas e indivisibles, denominadas átomos.
    b) Los átomos de un mismo elemento son iguales entre sí.
    c) Los compuestos están formados por átomos distintos.
    d) Los átomos de distintos elementos tienen distinta masa y distintas propiedades.
    e) La masa total de las sustancias que intervienen en las reacciones químicas no varía, ya que los átomos son invariables.

Así pues, de las ideas de Dalton se deduce que un átomo es la parte más pequeña de un elemento que puede intervenir en una reacción química mientras que una molécula es la parte más pequeña de un compuesto que conserva todas las propiedades del mismo.

El átomo es la partícula más pequeña e indivisible de un elemento químico que contiene íntegras sus propiedades. Su estudio constituye la base de la física y la química contemporáneas.

Los átomos de un elemento se pueden combinar con los de otro para formar la unidad más pequeña de un cuerpo compuesto, llamada molécula, que, a su vez, se une con otras para formar los propios cuerpos compuestos.

Dalton acuñó los conceptos de peso atómico y molécula (formada por la combinación de varios átomos) y elaboró la primera tabla de elementos en 1805. Posteriormente, las nociones de átomo y moléculas no dejaron de precisarse y concretarse.

La clasificación periódica de los elementos de Mendeleiev (1869) vino a coronar los esfuerzos de los químicos y a anunciar que todo el Universo puede estar formado sólo por un centenar de átomos diferentes.

• Estructura del átomo

Todo átomo está constituido por tres partes: una parte eléctricamente positiva, formada por los protones; otra eléctricamente negativa, compuesta por electrones, y una tercera integrada por minúsculas partículas neutras denominadas neutrones.

La carga electrónica del protón y la del electrón son iguales y contrarias; como los átomos suelen existir en forma neutra, el número de electrones de un átomo debe ser igual al de protones.

Los electrones ocupan el espacio más externo del átomo; y los protones se sitúan en el centro, y, con los neutrones, constituyen el núcleo.

Los electrones y los protones de todos los elementos químicos son iguales, por lo que éstos se diferencian por el número de protones, de neutrones y de electrones presente, mi su interior.

orbitas atomo

La materia es, en general, eléctricamente neutra pero en su interior existen cargas eléctricas como se pone de manifiesto, por ejemplo, en la pérdida o ganancia de electrones por frotamiento o por otros métodos.

El descubrimiento del electrón y del protón vinieron a corroborar el carácter eléctrico del átomo.

Se llama número atómico (Z) al número de protones que tiene un átomo.

El número atómico es característico de cada elemento, de manera que todos los átomos de un mismo elemento tienen el mismo número de protones en su núcleo.

Se llama número másico (A) al número de nucleones que tiene un átomo. El número másico es igual al número de protones más el número de neutrones. Si se adopta como unidad de masa la masa de un protón o de un neutrón la masa de un átomo será igual a su número másico.

A pesar de tener el mismo número de protones, dos átomos de un mismo elemento pueden tener diferente número de neutrones. 

Dicho de otro modo, los átomos de un mismo elemento siempre tienen el mismo numero atómico pero pueden tener distinto número másico.

Se llaman isótopos los átomos de un mismo elemento que se diferencian en su número másico.

Un elemento químico está formado generalmente por una mezcla ole isótopos que se presentan con distinta frecuencia en la Naturaleza.

Tabla con el valor de la carga eléctrica en Coulomb y la masa en Kg. de cada partícula del átomo.

Tabla con el valor de la carga eléctrica

LOS DESCUBRIMIENTOS DE LAS PARTÍCULAS: 

(puede ampliar este tema con profundidad: clic!)

• EL ELECTRÓN: 

La comunidad científica siempre dudó sobre el «átomo indivisible»  y le correspondió al investigador J.J. Thompson el descubrir esta partícula, mediante el uso de un tubo de descargas, que consiste en un tubo de vidrio provisto de dos electrodos, uno positivo o ánodo y otro negativo o cátodo, conectados a una fuente de alto voltaje (de varios miles de voltios).

Interiormente está lleno de gas a baja presión, cuando se cierra el circuito, se observa que se produce el paso de corriente a través del gas, al mismo tiempo que aparece una luminosidad que se concentra en el extremo del ánodo.

La fluorescencia que se observa en los tubos de descarga se debe a la emisión por el cátodo de ciertas radiaciones.

Estas radiaciones, o rayos catódicos poseen propiedades especiales, que permitió a Thompson deducir que los rayos catódicos están formados por cargas eléctricas negativas que llamó electrones, y son partículas que se encuentran presentes en toda la materia.

• PROTÓN: 

Puesto que la materia en conjunto es eléctricamente neutra y los electrones tienen carga negativa, cada átomo debe tener una carga positiva exactamente igual a la carga debida a sus electrones. Ahora bien, ¿cómo se distribuye dicha carga?

Rutherford dedujo que si la carga positiva y la masa de los átomos se encuentran distribuidas uniformemente en todo el volumen atómico, cuando se bombardea el átomo de un  material con partículas alfa, que tienen carga positiva, deberán desviarse ligeramente al atravesar la lámina metálica.

ruthenfordEn 1911, Ernest Rutherford, sucesor de J. J. Thomson en la cátedra de Cambridge, bombardeó láminas delgadas de distintos metales con partículas emitidas por un isótopo radiactivo y comprobó que la mayoría de las partículas atravesaban la lámina metálica sin experimentar desviación, pero que una pequeña parte se desviaba ligeramente y otra pequeña fracción rebotaba y volvía hacia las proximidades del centro emisor de las partículas.

Para explicar los resultados obtenidos, Rutherford supuso que la carga positiva del átomo se hallaba concentrada en una zona muy pequeña del átomo a la que denominó núcleo, que además contenía la práctica totalidad de la masa del átomo.

Los electrones giraban alrededor del núcleo describiendo trayectorias circulares, de modo que la fuerza centrífuga quedaba compensada por la fuerza de atracción electrostática que el núcleo ejercía sobre ellos.

Con esta explicación, Rutherford dio un paso gigantesco en la comprensión de la estructura atómica.

Sin embargo, pronto se plantearon objeciones al modelo atómico de Rutherford.

En efecto, según la teoría electromagnética clásica, una carga eléctrica en movimiento debe emitir energía.

Así pues, al girar los electrones alrededor del núcleo debían emitir energía, de modo que sus trayectorias no podían ser circulares sino que debían ser espirales de radio decreciente hasta que, finalmente, los electrones se precipitaran en el núcleo.

Es decir, el átomo imaginado por Rutherford era inestable.

• EL NEUTRÓN:

El átomo de helio contiene dos protones, por lo que cabría esperar que su masa fuera el doble de la masa de un protón (2 • 1,67 • 10-27 kg = 3,34 • 10-27 kg); sin embargo, la masa medida experimentalmente, 6,69 • 10-27 kg, es más del doble de la esperada.

cientificoEsta diferencia entre la masa calculada y la masa medida puede explicarse si se admite que los átomos contienen otras partículas, sin carga eléctrica, además de los protones y los electrones.

En 1932, el físico inglés James Chadwick descubrió que los núcleos de berilio podían emitir partículas sin carga eléctrica.

Estas partículas, procedentes del núcleo, recibieron el nombre de neutrones. La masa de cada una de estas partículas era aproximadamente igual a la masa del protón.

La diferencia entre la masa real de un núcleo y la masa debida exclusivamente a los protones corresponde a la masa de los neutrones que contiene dicho núcleo.

EL EFECTO FOTOELÉCTRICO:

A principio del siglo XX, había un fenómeno físico que se llamaba radiación del cuerpo negro, que explicarlo mediante las herramientas de la física clásica de ese momento era casi imposible.

Un científico llamado  Max Planck estudió profundamente este efecto y mediante originales postulados físicos formuló una nueva teoría sobre la energía que hoy la llamamos cuántica, que mas tarde se recurrirá a ella para explicar otros fenómenos naturales como el fotoeléctrico y también permitirá definir un nuevo y mas real modelo atómico.

El efecto fotoeléctrico consiste en la emisión de electrones por un metal cuando sobre él incide un rayo luminoso de una frecuencia determinada.

Si la luz fuera una onda, cualquier tipo de luz debería ser capaz de provocar la emisión de electrones, es decir, arrancar electrones de un material, siempre y cuando tuviera la suficiente intensidad.

También se observaba que se producía este efecto, también a la vez, se emitía una radiación electromagnética que impresionaban una placa fotográfica, creando rayas espectrales de colores y oscuras,  llamado comúnmente espectro electromagnético y que según que elemento se estudiaba los espectros tenían características diferentes.

Esto también conmovió el interés de todos los científicos. Abajo se observa un espectro de un elemento químico.

espectro

espectros

Utilizando en el laboratorio un dispositivo especial  en que esa emisión de electrones (al incidir un rayo de luz) se detecta porque produce paso de corriente a través de un circuito, se observa que el efecto fotoeléctrico no se produce con cualquier tipo de luz y que hay una frecuencia umbral por debajo de la cual no se produce este fenómeno.

Esto contradecía totalmente a lo esperado por la teoría clásica de esa época.

Para explicar este nuevo efecto, donde toda la comunidad científica estaba perpleja, el gran sabio del siglo Albert Einstein  recurre a la nueva física cuántica de Planck y explicó matemáticamente este fenómeno, que lo llevó a ganar el Premio Nobel de la Física en 1916.

Según la teoría cuántica, la energía no puede ser absorbida o desprendida de manera continua sino en pequeños paquetes o haces de energía, que son múltiplos de una cantidad mínima de energía denominada «quantum».

La ecuación de Planck E = h . v permite determinar la energía asociada a cualquier radiación, conociendo la frecuencia v de la radiación y siendo h = 6,62.10 -34 Js la constante de Planck, que es una constante universal.

En 1905, Albert Einstein explicó el efecto fotoeléctrico a partir de la hipótesis cuántica de Planck y del supuesto de que la luz, en ocasiones, no se comporta como una onda, sino como un chorro de corpúsculos, los fotones.

BohrCon todos estos nuevos elementos Bohr analizó lo siguiente: cuando un átomo en su estado fundamental recibe energía bien sea por calentamiento o por la acción de una radiación se convierte en un átomo excitado.

Cuando cesa la causa que produce la excitación, el átomo se desactiva emitiendo radiaciones que impresionan placas fotográficas produciendo una serie de rayas, que constituyen el espectro atómico del átomo correspondiente.

A cada raya del espectro le corresponde una energía determinada, cuyo valor depende de su frecuencia, de acuerdo con la ecuación de Planck. En el caso del átomo de hidrógeno, el espectro atómico consta de varias series de rayas.

Bohr estableció una serie de postulados, que constituyen el modelo atómico de Bohr, para intentar solventar los inconvenientes que presentaba el modelo atómico de Rutherford.

Para ello, Bohr introdujo la teoría cuántica de Planck y comprobó sus resultados con los datos experimentales suministrados por los espectros.

Los postulados de la teoría atómica de Bohr son los siguientes:

  1. a) Los electrones giran alrededor del núcleo describiendo órbitas circulares sin emitir energía. Con este primer postulado Bohr intenta obviar el principal inconveniente que presentaba el modelo atómico de Rutherford, suponiendo que a nivel atómico las partículas en movimiento no emiten energía.
  2. b) Si un electrón pasa de una órbita más externa a otra más interna el átomo emite energía, de modo que la energía liberada coincide con la diferencia de energía que hay entre ambos niveles y viene dada por la expresión E = h.v. Este postulado justifica las rayas espectrales de los átomos. (v: frecuencia de la emitida por el material)
  3. c) Únicamente son posibles las órbitas en las que el momento angular del electrón es un número entero de veces h/2Pi. Este tercer postulado impide que el número de órbitas posibles sea ilimitado ya que la energía está cuantizada. (Pi=3.14)

Ejemplo del Salto de Energía Cuántico de un Electrón

Cuando un electrón pasa de una capa externa a otra interna el  valor de la energía de la radiación emitida es directamente proporcional a su frecuencia. Así, cuando un electrón salta desde una órbita de mayor energía, E2, a otra de energía menor, E1 se emitirá una radiación de frecuencia, v, cuya energía será igual a:
E2- E1 = h.v
donde h es la constante de Planck.

energia de un atomo en sus orbitas

Un determinado elemento químico siempre ofrece el mismo espectro porque todos sus átomos son iguales, de manera que en todos ellos las órbitas tienen una forma, un tamaño y una energía característicos. En consecuencia, la diferencia de energía entre dos órbitas siempre será la misma y, por tanto, la frecuencia de la radiación emitida o absorbida siempre tendrá el mismo valor.

Aplicando estas ideas y utilizando un tratamiento matemático no demasiad: complicado, Bohr calculó teóricamente las frecuencias de las líneas que aparecen en el espectro del átomo de hidrógeno .

Sin embargo. cuando intentó realizar el cálculo para otros átomos distintos del hidrógeno, los resultados teóricos no coincidían con los datos experimentales.

El modelo atómico de Bohr obtuvo un gran éxito inicialmente porque consiguió explicar con gran exactitud el valor de una importante constante (de Rydberg), que únicamente había podido ser obtenido empíricamente, así como el valor del radio del átomo del hidrógeno en su estado fundamental y el valor del potencial de ionización del átomo de hidrógeno.

Ahora bien, el modelo atómico de Bohr tan sólo era aplicable al hidrógeno y a átomos similares, los denominados átomos hidrogenoides, pero no resultaba satisfactorio para explicar los átomos polielectrónicos.

En 1915 Sommerfeld amplió el modelo atómico de Bohr, haciéndolo extensivo a órbitas elípticas.

De este modo, se pudo explicar el hecho de que las rayas espectrales del hidrógeno que se creía que eran sencillas en realidad estaban formadas por varias líneas muy próximas.

Es decir, que cada nivel energético estaba, en general, formado por varios subniveles energéticos.

Los valores de la energía de los electrones de un átomo dependen de una serie de parámetros denominados números cuánticos.

Los números cuánticos son: el número cuántico principal, el número cuántico secundario, el número cuántico magnético y el número cuántico de spin.

tabala resumen atomo

MODELOS ATÓMICOS:

En base a estos estudios anteriores fueron creándose distintos modelos ideales para trata de interpretar la naturaleza del átomo, sus propiedades y su funcionamiento.

  1. a) Modelo de Thompson:

 atomo pan dulce

  1. b) Modelo de Rutherford. Concepto de átomo según el cual la mayoría de la masa se localiza en el núcleo, ocupando los electrones el resto del volumen atómico, y girando en torno a aquél como los planetas alrededor del Sol. Pero esa teoría tenía un defecto: un electrón en moví miento debería radiar energía y, por tanto, el átomo no sería estable lo cual no coincidía con la realidad,atomo y sus orbitas

Los electrones giraban alrededor del núcleo describiendo trayectorias circulares, de modo que la fuerza centrífuga quedaba compensada por la fuerza de atracción electrostática que el núcleo ejercía sobre ellos.

Con esta explicación, Rutherford dio un paso gigantesco en la comprensión de la estructura atómica. Sin embargo, pronto se plantearon objeciones al modelo atómico de Rutherford.

En efecto, según la teoría electromagnética clásica, una carga eléctrica en movimiento debe emitir energía.

Así pues, al girar los electrones alrededor del núcleo debían emitir energía, de modo que sus trayectorias no podían ser circulares sino que debían ser espirales de radio decreciente hasta que, finalmente, los electrones se precipitaran en el núcleo. Es decir, el átomo imaginado por Rutherford era inestable.

  1. c) Modelo de Bohr: Concepto del átomo en que se suponía a los electrones situados en un número limitado de órbitas circulares alrededor del núcleo (estado estacionario). Las emisiones o absorciones de radiación electromagnética se producirían únicamente cuando alguno de los electrones pasase de una órbita a otra. Este modelo surgió de su colaboración con Rutherford, y revolucionó la física atómica. Bohr combinó el modelo con la teoría cuántica de Planck y as teorías de Einstein, enunciando los  siguientes postulados:

1) El átomo posee cierto número de órbitas estacionarias, en las que los electrones no emiten energía aunque se muevan.

2) El electrón gira alrededor del núcleo de tal manera que la fuerza centrifuga equilibra exactamente la atracción electrostática de las cargas opuestas.

3) El momento angular del electrón en un estado estacionario es un múltiplo de h/2Pi, donde h es la constante cuántica universal de Planck.

4) Cuando un electrón pasa de un estado estacionario más energético a otro inferior (más próximo al núcleo), la diferencia de energía se emite en forma de un cuanto de radiación electromagnética (fotón). Inversamente, un electrón sólo interacciona con un fotón cuya energía le permita pasar exactamente de un estado estacionario a otro de mayor energía.

capas de un atomo

  1. d) Modelo  de Sommerfeld. Concepto de átomo desarrollado a partir del de Bohr, pero considerando las órbitas elípticas y dotadas de otros dos números cuánticos: el acimutal, que define la forma de la órbita elíptica del electrón; y el magnético, del que depende la orientación de la órbita en el espacio. Posteriormente, Pauli añadió el cuarto, el spin. También introdujo en el átomo conceptos relativistas: la masa del electrón varía como consecuencia de su velocidad.

El conocimiento del átomo se completó con la ecuación de onda de Schródinger, el principio de dualidad onda-corpúsculo, el principio de incertidumbre de Heisenberg y el concepto de orbital. Actualmente se sabe que el átomo está constituido por un determinado número de partículas elementales, fundamentalmente protones, electrones y neutrones, y que es eléctricamente neutro.

Se distinguen en él dos partes principales: el núcleo, que contiene los protones y los neutrones, es muy pesado (representa el 99,9% de la masa total) y lleva toda su carga positiva; y los electrones, situados en orbitales alrededor del núcleo, y en el mismo número que los protones para que neutralicen la carga nuclear.

boton

Ver: Dualidad de la Materia, Onda o Partícula?

Ver Tambien:

Naturaleza de la Materia
Las Particulas Subatomicas del Universo
El Polvo Cosmico y Sus Componentes
Derretimiento Casquetes Polares Hielo de los Polos
Geometria No Euclidiana El Espacio Curvado de Einstein
La Vida Media de un Isotopo Quimico
El Efecto Coriolis en el Planeta Tierra
Los gases nobles Gases Inertes Argon Neon Helio

Enlace Externo: Como Funciona la Energia Nuclear?