Fisica Moderna

El Cobalto Propiedades, Características y Aplicaciones

El Cobalto Propiedades, Características y Aplicaciones

Algunos compuestos de cobalto constituyen pigmentos azules fijos, de gran calidad, que han sido empleados durante 4.000 años por diversas civilizaciones. Los asirio-babilonios usaron pinturas de cobalto en sus pequeñas estatuas talladas en madera, y, en tiempos más recientes, los compuestos de cobalto se han utilizado para decorar en azul la porcelana china de Delft, y para teñir de azul oscuro algunos vidrios.

Mineral de Cobalto

A pesar de que el cobalto es todavía valioso como pigmento, su valor en este sentido se ha visto eclipsado, durante los últimos años, por las propiedades del metal en sí, ya que el cobalto es ferromagnéticó, no tan intensamente magnético como el hierro, pero mucho más que la mayoría del resto de los metales.

Este hecho no es sorprendente, puesto que la estructura de los átomos de hierro y cobalto es muy similar. Los imanes fabricados de hierro dulce pierden rápidamente el magnetismo, pero si el hierro se alea con cobalto, la aleación resultante conserva esta propiedad durante un prolongado período de tiempo.

Ciertos imanes permanentes contienen hasta un 50 % de cobalto, empleándose en muchas piezas de aparatos eléctricos. Las aleaciones de cobalto tienen otra importante aplicación comercial basada en que conservan su dureza y filo (poder de corte), incluso a temperaturas elevadas.

De hecho, la mayoría de las herramientas de corte para trabajos a altas temperaturas contienen cobalto. Todavía más resistentes al efecto de ablandamiento de las temperaturas elevadas son las aleaciones de cobalto-cromo-volfranio-carbono, que se emplean también para fabricar herramientas de corte. La mayoría de la producción mundial de cobalto se destina a imanes o a aleaciones de «alta velocidad» (aceros rápidos).

A pesar de que menos de la quinta parte del cobalto producido se emplea bajo la forma de sus compuestos, éstos tienen demasiada importancia para no considerarlos. Los únicos compuestos de cobalto estables son los cobaltosos, en los que el metal presenta valencia 2. Las sales cobálticas (valencia 3) tienden a ser inestables.

La vitamina B12, de gran importancia, es una gran molécula, muy compleja, formada por 183 átomos, de los cuales sólo uno es de cobalto; pero, si falta este átomo resulta imposible que se produzca la vitamina Bu. La deficiencia de vitamina BJ2 en el ganado puede deberse a la ausencia de cobalto, y se corrige tratando el terreno, o los alimentos, con compuestos de aquél.

El óxido de cobalto se emplea en la industria cerámica no sólo como pigmento, sino también como agente de blanqueo. Los productos de alfarería fabricados con arcilla tienen con frecuencia impurezas de hiem , que les comunican un aspecto amarillento por lo que se les da un ligero tinte azul con óxido de cobalto, que oculta el color amarillo, de la misma forma que el añil agregado al lavado de ropa confiere a ésta un aspecto más blanco.

Las sales orgánicas de cobalto se emplean con profusión en pinturas, barnices y tintas para imprimir, a fin de que sequen con rapidez. Dichas sales absorben el oxígeno atmosférico para formar peróxidos, que polimerizan en una estructura de tipo celular, la cual actúa como el papel secante, absorbiendo el aceite remanente y transformando la masa total en un gel.

Los compuestos de cobalto son excelentes catalizadores de numerosas reacciones, hecho que se descubrió, por primera vez, al emplear este tipo de catalizador para obtener metano (CH4) a partir de monóxido de carbono e hidrógeno. En la actualidad, se emplean ampliamente en la industria del petróleo, para transformar moléculas inservibles en otras adecuadas para combustibles.

Debido a que el cobalto se presenta en una gran variedad de minerales y está, en general, mezclado con cobre, plata o níquel, existen diversos procesos para extraerlos, que dependen del tipo de mineral de partida. Los mayores productores de cobalto son Ka-tanga y Rhodesia, donde éste se encuentra asociado al cobre.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°41 El Cobalto y sus propiedades

Primera Máquina de Calcular de Pascal o Pascalina

FUNCIONAMIENTO DE LA MAQUINA DE SUMAR MECÁNICA DE PASCAL

Durante mucho tiempo se lian usado los abacos (tableros contadores) como auxiliares del cálculo. Ahora la mecánica ayuda al cálculo con sus máquinas.

La primera máquina de calcular (es decir, una en la que el resultado se lee directamente) fue construida por Pascal en 1642, que la diseñó para ayudar a su padre en sus cálculos monetarios.

Siguiendo el mismo principio, se construyeron otras máquinas del mismo tipo. La que vamos a describir data de 1652.

Blas Pascal

El original se conserva en el Conservatoire des Arts et Metiers de París, y una copia en el Science Museum de Londres. La máquina de Pascal usa principios que aún se utilizan hoy en las modernas calculadoras.

Pascalina

Consiste en una caja que contiene seis equipos de cilindros y ruedas dentadas (ver ilustración). Cada cilindro lleva los números del 0 al 9 alrededor de su eje, dispuestos de tal forma que solamente uno de ellos es visible a través de un agujero de la caja.

Las ruedas dentadas están conectadas a seis mandos horizontales (algo así como un disco de un teléfono) y cuando se gira el mando, el cilindro gira con él.

Para explicar el manejo de la calculadora, vamos a suponer que queremos sumar los números 2, 5 y 3. Giramos el disco de la derecha en sentido contrario al de las agujas de un reloj, desde donde está marcado el 2 hasta el cero.

El disco se mueve de modo inverso al del teléfono y no vuelve a la posición de partida, aunque se suelte.

Gira la rueda dentada en el interior y, simultáneamente, el cilindro gira 2/10 de vuelta. Ahora repetimos la operación con el número 5. La rueda hace que el cilindro avance 5/10 de revolución, de forma que el total registrado es 7.

A continuación repetimos el proceso con el número 3, y el cilindro gira en el interior 3/10. Como quiera que el cilindro está marcado en décimas, y hemos añadido 10 unidades (2, 3, 5), el dial vuelve de nuevo a cero.

Un mecanismo dispuesto en el interior de la calculadora lleva el número 1 al cilindro inmediato de la izquierda, es decir, hace girar el cilindro contiguo 1/10 de revolución, de cero a uno.

En total, hay en la caja seis cilindros, que representan (de derecha a izquierda) unidades, decenas, centenas, millares, decenas de millar y centenas de millar, respectivamente.

La suma de 2, 5 y 3 produce un cero en el cilindro de las unidades y un uno en las decenas, dando el total de 10.

Con los seis cilindros se puede realizar una suma cuyo total sea de 999.999. En realidad, el modelo descrito tiene dos equipos de números en los diales, de forma que el segundo equipo gira en la dirección opuesta (es decir, de 9 a 0, en vez de hacerlo de 0 a 9). Este último puede usarse para la sustracción, y está cubierto por una tira Hp metal cuando no se usa.

Algunas de las máquinas de Pascal fueron diseñadas para sumar libras, céntimos y de-narios (monedas francesas), y pueden ser consideradas como las antecesoras de las máquinas registradoras.

Aunque el invento de las calculadoras es muy importante, Pascal no sólo es conocido como su inventor, sino que su obra comprende, además, física, matemáticas y filosofía.

Pascal nació en Clermont-Ferrand en 1623 y desde temprana edad se interesó por las matemáticas.

Se dice que a la edad de doce años descubrió él mismo algunas ideas geométricas de Euclides.

Construyó la primera máquina de calcular antes de tener 20 años. Unos años más tarde fue capaz de demostrar que la presión atmosférica decrece con la altura.

Hoy día, 300 años después de su muerte, se recuerda a Pascal por su ley de la presión en los fluidos y por su triángulo.

La ley sobre la presión en los fluidos resultó de sus trabajos en hidrostática, y es en la que se basa la acción de prensas hidráulicas, gatos hidráulicos y máquinas semejantes. El triángulo de Pascal es una figura de números que se usa en los estudios de probabilidades.

La extensión de la obra de Pascal es aún más sorprendente si se tiene en cuenta que no gozó de buena salud durante su vida y que murió a la edad de 39 años, en 1662.

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología Fasc. N°49 – Pascal y su máquina de calcular

La Electrolisis del Agua Descomposición en Oxigeno Hidrogeno

Electrólisis:Descomposición Del Agua en Oxígeno e Hidrógeno

LA  ELECTRÓLISIS  DEL AGUA: El agua (H2O) tiene una molécula que se compone de dos átomos de hidrógeno y un átomo de oxígeno.

Por tanto, no es de extrañar que se haya pensado en utilizarla como materia prima para la obtención de alguno de los dos elementos, especialmente teniendo en cuenta su abundancia, ya que constituye casi el 7 % de la masa de la Tierra.

Normalmente, el agua se utiliza para obtener hidrógeno, ya que el oxígeno se puede producir más económicamente por otros medios (por ejemplo, licuando el aire y destilándolo a continuación).

Entre los diversos métodos con que hoy cuenta la química para descomponer el agua se halla la electrólisis, procedimiento que implica la utilización de energía eléctrica y que, por tanto, no es de los más económicos.

No obstante, al obtenerse simultáneamente oxígeno como subproducto, el método no resulta, en realidad, tan costoso, y mucho menos para aquellos países, como los escandinavos, que disponen de energía eléctrica a bajo precio.

A primera vista, se diría que el agua no se puede descomponer por electrólisis, pues para que se verifique el transporte de electrones en el seno de un líquido es necesario que éste contenga iones, (átomos o grupos atómicos con carga), y el agua no los contiene.

Esto último no es rigurosamente cierto, puesto que el agua, aunque poco, está ionizada, según  la siguiente reacción:

H2O <===>  H+ + OH—

Es decir, parcialmente se encuentra en forma de iones hidrógeno (H+) e iones oxidrilo (OH—).

Pero, además, este fenómeno (la ionización del agua) se acentúa agregándole ciertos reactivos que, en teoría, pueden ser: una sal, un ácido o un álcali (base).

En la práctica, la utilización de sales presenta el inconveniente de que se producen reacciones que atacan los electrodos, por lo cual habría que utilizar electrodos inertes, de grafito o de platino.

Si se utilizan ácidos (sulfúrico o clorhídrico) sucede algo análogo, ya que la descarga de los aniones correspondientes (S04=,Cl-) es de gran actividad.

Por último, la utilización dé bases, como la soda (Na OH) o el carbonato sódico (CO3 Na2), casi no presenta inconvenientes y, por ello, es la que se practica.

Puesto que hay que partir del punto de que la energía eléctrica es costosa, se precisa estudiar minuciosamente el método, o lo que es lo mismo, el diseño de la cuba electrolítica o célula, para obtener rendimiento máximo con mínima energía.

electrolisis

La potencia de cualquier aparato eléctrico y, por tanto, la de la cuba, se obtiene mediante la siguiente expresión (Ley de Joule):

W= I x V

en donde I es la intensidad de corriente y V, el voltaje.

La intensidad de la corriente en amperios necesaria para producir una determinada cantidad de hidrógeno se sabe con facilidad, teniendo en cuenta las leyes de la electrólisis, de Faraday (96.500 culombios depositan un equivalente  gramo  de   cualquier   sustancio),   y  que   1   amperio= 1 culombio/segundo

Por   un   razonamiento   sencillo  se  desegundo, mostraría que,durante una horc,  1.000 amperios pueden liberar cerca de medio metro cúbico de hidrógeno.

En cuanto al voltaje de la corriente, interviene una serie de factores, que son los que, en realidad, determinan ios características a las que se ha de ajustar la célula electrolítica.

Se ha comprobado experimentalmente que el voltaje necesario se compone de tres factores, o sea:

V=V1+V2 + V3

V1 es el  voltaje necesario para descomponer el  agua;
V2  es  la sobretensión  de  los electrodos,  y
V3  es la caída óhmica a  lo largo de la cuba electrolítica.

Para obtener el mínimo consumo de electricidad (o sea, la potencia, en vatios, mínima) en la liberación del hidrogene es evidente que, siendo fija la intensidad de la corriente, hay que disminuir lo más posible el voltaje (V).

Pero V1 es una  cantidad constante y,  por tanto,  no se  puede actuar sobre ella. Quedan así por examinar V2 y V3.

En la sobretensión (V2) influyen los siguientes factores: la  naturaleza  de  los  electrodos  (los  que  producen  mencr sobretensión   son   los  de   níquel   y  hierro),   la   temperatura del  baño,   la  viscosidad del  electrolito,  la  densidad  de   le corriente que atraviesa el baño, etc.

En la caída óhmica (V3), y teniendo en cuenta que hay que introducir en la cuba unos diafragmas para evitar que se mezclen el hidrógeno y el oxígeno producidos , influyen la longitud de la cuba (l1), el coeficiente de resistividad del electrodo, el espesor del diafragma (l2), el coeficiente de resistividad de éste, la resistividad del electrolito, etc.

Del estudio de las variables anteriores se deduciría que le célula electrolítica ideal debería tener unos electrodos en forma de láminas muy grandes —para que admitan muchos amperios—, colocados bastante próximos, para que li fuera mínima; entre ellos se colocaría el diafragma c película metálica de pequeño espesor —para que l¡¡ sea mínimo— y con unos orificios de diámetro suficiente, para no ofrecer resistencia al paso de los iones.

En la práctica, existe una serie de células que presente diversas ventajas e inconvenientes, como resultado de haberse tenido en cuenta, en mayor o menor grado, las variables que intervienen en el proceso, algunas de las cuales no se pueden armonizar.

Una de las más utilizadas es la «Schmidt-Oerlikon» que trabaja a 2,3 voltios y consume 6 kwh por cada metro cúbico de hidrógeno liberado (simultáneamente se libere 0,5 m3 de oxígeno).

Conceptos básicos de lubricantes Disminuir el Rozamiento

Conceptos Básicos de Lubricantes
Disminuir el Rozamiento

FUNCIÓN DE LOS LUBRICANTES: Los lubricantes son productos que presentan la propiedad de disminuir el coeficiente de rozamiento entre dos superficies, que se deslizan una sobre otra con movimiento relativo.

lubricar concepto basico

Es fácil comprender que» tengan una importante aplicación en todos los aparatos mecánicos donde hay movimiento de piezas, puesto que ejercen una doble función: a) mecánica, de disminuir la carga, al reducir el coeficiente de rozamiento, y b) térmica, de evitar que se eleve lo temperatura de la máquina, puesto que absorbe y elimina el  calor producido en  el  roce.

Así como el consumo de ácido sulfúrico indica el grado de industrialización de un país, el de lubricantes da el índice de mecanización; este último también se puede saber partiendo del consumo de carburantes. Lubricantes y carburantes presentan un consumo proporcional: el de los primeros es el 3,5 % de los segundos.

Según lo anterior, el país más mecanizado del mundo es Estados Unidos, que en el año 1964 consumió lubricantes a razón de 25 kilogramos por habitante.

Veamos ahora cuál es el concepto de coeficiente de rozamiento. Si se supone una pieza de peso V, que está deslizándose sobre una superficie S (véase figura), para que el movimiento no cese sólo será necesario aplicar una fuerza F que compense el rozamiento.

fuerza de rozamiento y lubricantes

Es evidente que, cuanto mayor sea el peso P, más grande tiene que ser F. Entonces, se define como coeficiente de rozamiento Ω a la relación  entre  la   fuerza aplicada   (F)  y  la   presión   (P)   que ejerce el cuerpo sobre la superficie que ocupa, o sea:

formula rozamiento

Cuanto más grande sea el coeficiente de rozamiento de una pieza de un material determinado, mayor será la fuerza que se necesita para desplazarlo.

Para dar una idea de cómo pueden disminuir los lubricantes las resistencias de rozamiento, baste decir que, en el vacío, los metales pulimentados tienen un coeficiente de rozamiento mil veces superior al que presentan agregándoles   un   lubricante.

Las condiciones generales que debe reunir un lubricante son las siguientes:

1) buena circulación, para que la refrigeración de las partes en rozamiento sea eficaz;

2) viscrosidad suficientemente alta, para que trabaje en régimen hidrodinámico (régimen estable);

3) Untuosidad, para que se reparta bien por la superficie a lubricar.

Todas estas condiciones se dan en determinados tipos de aceites, como los que se obtienen en la destilación y el fraccionamiento del petróleo.

Ello no quiere decir que los aceites vegetales sean malos lubricantes; pueden ser, incluso, mejores que los minerales, pero durante corto plazo, porque su estabilidad es muy inferior. No obstante, estas buenas cualidades de los aceites vegetales se aprovechan para mejorar los lubricantes dé petróleo.

Así, es muy frecuente añadir ácido palmítico al aceite mineral, para que el lubricante adquiera la untuosidad y adherencia a las superficies metálicas que aquel producto le confiere; por ejemplo, la adición de un 0,5 % de ácido palmítico al aceite mineral determina, una disminución del coeficiente de rozamiento en los metales, que oscila  entre  el   30′ %   y  el   40 %.

Un  lubricante que trabaje en condiciones de gran presión necesita  aditivos de los siguientes tipos:

a)    ácidos grasos (palmítico, esteárico, etc.), para que. soporte presiones de arranque elevadas; por ejemplo, en la caja de cambios de los motores se producen presiones de hasta 28  toneladas por centímetro cuadrado;
b)    polímeros, para, que la variación de la viscosidad con la   temperatura   sea   mínima;
c)    productos antigripantes (palmitato de plomo, oleato de plomo,  grafito,  azufre,  etc.).

Hoy se fabrican lubricantes más amigables con el medio ambiente, que duran más tiempo en el motor. Se habla de los lubricantes sintéticos, semisintéticos, los hechos con bases más refinadas, lo cual permite que el motor, como el medio ambiente, tengan mejor cuidado. Ya no son lubricantes para  5.000 kilómetros, ese mito se rompió hace tiempo, los productos de hoy permiten 10.000 kilómetros en condiciones normales de trabajo

Las principales funciones de los aceites lubricantes son:

  • Disminuir el rozamiento.
  • Reducir el desgaste
  • Evacuar el calor (refrigerar)
  • Facilitar el lavado (detergencia) y la dispersancia de las impurezas.
  • Minimizar la herrumbre y la corrosión que puede ocasionar el agua y los ácidos residuales.
  • Transmitir potencia.
  • Reducir la formación de depósitos duros (carbono, barnices, lacas, etc.)
  • Sellar

Fuente Consultada:
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología N°96

El Cuanto de Energia – Fisica Cuantica Constante de Planck

El Cuanto de Energía – Fisica Cuántica Constante de Planck

EXPLICACIÓN CIENTÍFICA DEL CONCEPTO DEL CUANTO DE ENERGÍA: Durante más de dos siglos la física newtoniana resultó válida para describir todos los fenómenos concernientes a materia y energía. Después, en el siglo XIX, la teoría electromagnética reveló que la energía podía existir con cierta independencia de la materia, en forma de radiaciones de muy diferentes longitudes de onda y frecuencias. Al mismo tiempo, el estudio de la termodinámica abordó problemas suscitados por la energía calorífica y su distribución en sistemas como los gases, cuyas partículas resultaban demasiado pequeñas para ser medidas u observadas.

Era imposible —y afortunadamente innecesario— predecir el comportamiento de cada molécula o de cada átomo, pero las leyes estadísticas de la probabilidad podían aplicarse a grandes conjuntos de partículas, dentro de una reducida muestra o sistema.

En un gas, a determinada temperatura, unas moléculas se mueven muy lentamente y otras con gran celeridad: sin embargo, la energía media de todas las moléculas en movimiento depende exclusivamente de la temperatura y de la presión a que dicho gas esté sometido si el volumen es constante. Max Planck fue uno de los muchos científicos que trataron de aplicar los principios de la termodinámica a las radiaciones.

Todo comenzó con una investigación en un campo más bien marginal. El Instituto alemán de pesas y medidas deseaba crear un patrón de referencia para las nuevas lámparas eléctricas, y pidió al físico Wilhelm Wien (1864-1928) que estableciera una relación entre la temperatura de un horno (un «cuerpo negro») y la radiación que emitía.

De la misma manera que un pedazo de hierro al calentarse pasa del «rojo» al «blanco» antes de emitir radiación ultravioleta si su temperatura aumenta, Wien observó experimentalmente que el máximo de radiación emitida por el cuerpo negro se desplazaba también hacia el violeta.

Y cuando el profesor Max Planck, de la universidad de Berlín, trató de elaborar una teoría explicativa de la curva de Wien, se encontró con la desagradable sorpresa de que la única forma de hacerlo era imaginar que el horno no emitía esa radiación de manera continua, sino en cantidades discretas, esto es, en cuantos de energía. Planck avanzó esta hipótesis con reticencia, precisando que se trataba sólo de un artificio de cálculo. Fue Einstein quien, cinco años después, demostró la realidad física de los cuantos.

MAX PLANCKEXPLICACIÓN: Para fines del siglo XIX, se sabía que la radiación de cuerpo negro se debía a las oscilaciones de las partículas cargadas de la superficie de estos cuerpos. Sin embargo, a partir del electromagnetismo clásico era imposible deducir los espectros y las leyes experimentales de Stefan-Boltzmann y de Wien. La Física clásica había llegado a un límite que no podría superar.

Un científico alemán llamado Max Planck (1858-1947) fue el responsable de introducir una innovación que cambiaría para siempre el rumbo de la Física.

Probando distintas funciones y haciendo infinidad de cálculos, Planck había encontrado (sin deducirla de principios de la Física) una fórmula que describía muy bien los espectros experimentales de los

EL CUANTO DE ENERGIA - FISICA CUANTICA
Comportamiento encontrado por Planck para la emisión de un cuerpo negro P(µ,T) es la potencia
emitida y µ  es la longitud de onda

cuerpos negros. Pero encontrar la forma funcional de una relación no significa explicar por qué resulta así. Esta fórmula se resistía a ser deducida de los principios clásicos. Entonces Planck, sin demasiado convencimiento, se vio obligado a introducir un postulado que no tenía, en principio, ninguna justificación, pero que le permitía predecir perfectamente los espectros de radiación que la naturaleza mostraba. Era el siguiente:

Los osciladores microscópicos responsables de la emisión electromagnética no pueden emitir o absorber cualquier valor de energía. Si el oscilador tiene frecuencia y, sólo emitirá o absorberá múltiplos enteros del cuanto de energía E = h . v (donde h es la constante de Planck).

(Nota: la letra v es griega y se la pronuncia nu)

El valor de h es muy pequeño, 6,63. 1O34 J . s, y resultó ser una constante universal, fundamental dentro de la teoría cuántica.

Que la energía estuviera cuantízada, que no fuera continua sino discreta, era tan absurdo como suponer que cuando una piedra cae libremente no puede pasar por todas las alturas posibles, sino que va saltando, de una posición a otra mas distante sin pasar por las intermedias.

En un principio este resultado no causó gran conmoción en la comunidad científica, pues se lo consideró como un artilugio con poco asidero real.

Según la teoría clásica de las ondas electromagnéticas, éstas transportan energía en forma continua y no en paquetes discretos o cuantos. Vemos que la luz de una vela llena una habitación con un flujo constante de energía. Sin embargo, la cuantización implicaría una emisión espasmódica de la luz, como si la vela parpadeara, encendiéndose y apagándose intermitentemente (que es en realidad lo que ocurre en el nivel microscópico!). El mismo Planck no podía creer que esto fuera así. Pasarían algunos años hasta que el cuanto de energía fuera aceptado como una realidad.

Calculemos el valor del cuanto de energía para una onda electromagnética de la región visible de frecuencia 5. 1O14 Hz (amarillo):

E = h . v 6,63. 1O34 J. s . 5. 1014 Hz = 3,3. 1019 J.

Este valor de energía es diminuto. La energía que libera una pequeña luciérnaga, por ejemplo, contiene miles de millones de cuantos. Esto hace que la cuantización de la energía de las ondas electromagnéticas no tenga efectos macroscópicos, pero sí tiene peso cuando se estudian fenómenos a escala atómica.

HACIA LA MECÁNICA CUÁNTICA
Estas ideas de Planck y Bohr se van a difundir, a ampliar y después a revolucionar con la llegada de una nueva Mecánica, la Mecánica Cuántica, que deriva directamente de ellas. Gracias a esta revolución conceptual se va a tener que renunciar a cualquier descripción determinista de la realidad para acogerse a una descripción en términos de probabilidad.

Así es como se llegó a la conclusión de que no se puede conocer al mismo tiempo la posición y la velocidad de una partícula. Se va a demostrar también que cualquier medida perturba el fenómeno que quiere estudiar. Es el famoso principio de incertidumbre de Heisenberg.

En resumidas cuentas, con la Mecánica cuántica se entra en un nuevo mundo palpitante, misterioso y extraño que se ha explorado sobre bases matemáticas sólidas entre los años 1925-1930, bajo el impulso de sabios cuyos nombres son ya legendarios, como el austríaco Erwin Schródinger, el alemán Werner Heisenberg, el suizoalemán Wolfgang Pauli, el inglés de Cambridge Paul Dirac, todo bajo el impulso constante de Niels Bohr, y a pesar del escepticismo de Albert Einstein. Pero ésa es otra historia, casi una epopeya.

Einstein había visto antes que nadie todas las implicaciones de la Mecánica cuántica. Pero por razones filosóficas, y casi teológicas, no podía aceptarla. Es el famoso ¡«Dios no juega a los dados»!

Sobre lo que nosotros queremos insistir aquí es que muchos fenómenos pueden quedar sencillamente explicados —o al menos claramente expuestos— partiendo del átomo de Bohr ligeramente modificado. No cabe duda de que se trata de una primera aproximación, que no corresponde a la realidad tal como la concebimos hoy en día, pero tiene la ventaja de evitar el despliegue matemático y la complejidad intelectual inherentes a la Mecánica cuántica (que, si se quiere captar su espíritu, necesita larguísimos cálculos, ya que el mundo de lo infinitamente pequeño obedece a reglas específicas muy diferentes de las que gobiernan nuestra experiencia cotidiana).

LOS NIVELES DE ENERGÍA
En cada átomo, en cada molécula, existen niveles de energía en los que pueden «situarse» los electrones. Esos niveles se corresponden con los cuanta y por lo tanto están, como hemos dicho, separados por intervalos vacíos, lo mismo que los peldaños de una escalera. Los electrones no pueden hallarse más que en esos niveles, lo mismo que nuestros pies no se pueden colocar más que en los peldaños de la escalera.

Naturalmente, esto es la representación del átomo bajo el punto de vista de la energía. Bajo el punto de vista del espacio, el electrón se mueve sin cesar, gira en torno al núcleo, pero en una órbita impuesta por los niveles de energía autorizados.

Esos niveles de energía no pueden «contener» más que un número finito de electrones. Por ejemplo, el primer nivel de energía de un átomo, el primer peldaño, no puede llevar más que dos electrones, el segundo es un peldaño doble que, en total, no puede contener más que 8 electrones (2 + 6), etcétera.

¿Cómo puede situarse un electrón en esta escalera?
Se llenan los peldaños comenzando por abajo, según el principio de energía mínima, pasando poco a poco de uno a otro. Así es como, en cada átomo estable, hay niveles de energía llenos. El último nivel lo está más o menos completamente.

Pero por encima del último nivel lleno hay otros niveles (otros peldaños de la escalera) totalmente vacíos. A estos niveles se les llama niveles «excitados».

¿Puede un electrón abandonar un nivel de energía que ocupa normalmente (y que se llama el nivel estable) para pasar a un nivel de energía excitado? Pues sí, pero para eso hay que proporcionarle la energía suficiente para que logre saltar de un nivel a otro. Pero cuidado, es menester que la energía que se le comunica sea exactamente la que corresponde a la diferencia de energía que existe entre los dos peldaños, lo que se llama el «cuantum» justo de energía.

¿Y esos electrones excitados situados en órbitas libres van a permanecer allí?
Respuesta: sí, pero no por mucho tiempo. Los niveles de excitación no son los niveles de equilibrio para los electrones. Así pues, éstos van a tener tendencia a caer los niveles de energía habituales (hogar, dulce hogar) y, por lo tanto, a volver a ellos.

Cuando lo hacen, la energía tiene que conservarse. La caída de un electrón de un nivel elevado hacia uno más bajo va a ir acompañada de una liberación de energía, por ejemplo mediante la emisión de una luz cuya longitud de onda (el color) será exactamente igual a la de la luz que ha excitado el átomo.

Fuente Consultada: Un Poco de Ciencia Para Todos Claude Allégre

Radiacion Cuerpo Negro, Explicación del Fenómeno Físico Simple y Sencillo

La Radiación Cuerpo Negro
Explicación Sencilla del Fenómeno

RADIACIÓN DE UN CUERPO NEGRO: A medida que se iba develando la compleja estructura del átomo, los investigadores veían que estaba más cerca

Sin embargo, al intentar explicar la radiación térmica emitida por un cuerpo caliente, los físicos se encontraron con un problema que se resistía a encuadrarse dentro de los conocimientos de la Física clásica (la Mecánica de Newton y el electromagnetismo de Maxwell). Fue el comienzo del fin de una forma de ver el mundo.


Espectro de una lámpara incandescente del Helio

En las cercanías de un objeto muy caliente, como una estufa o un leño encendido nuestra piel percibe el calor que nos llega en forma de ondas infrarrojas. Pero no sólo los cuerpos muy calientes emiten ondas electromagnéticas: en realidad, todo cuerpo cuya temperatura sea superior al cero absoluto lo hace.

Para las temperaturas que percibimos cotidianamente, la mayor parte de la energía se emite en el rango infrarrojo y un poco en el visible. En general, un cuerpo sólido emite todo un espectro de ondas

Tengamos en cuenta que lo que se quiere investigar es la radiación que emite un cuerpo y no la que refleja al ser iluminado.

El espectro de dos cuerpos cualesquiera, a la misma temperatura, difiere dependiendo del material y de la forma que tengan. Para estudiar el problema de la radiación se eligió un cuerpo patrón ideal, que emitía y absorbía energía con eficiencia máxima, llamado cuerpo negro.

Consistía en una cavidad con un pequeño orificio por donde salía la radiación a analizar, cuando las paredes se calentaban hasta una temperatura determinada. Independientemente del material con que estén fabricados, los espectros de los cuerpos negros a la misma temperatura son idénticos.

Experimentalmente se habían hallado los espectros de emisión de cuerpos negros a diversas temperaturas. Y se observaron dos características importantes:

E aumenta proporcionalmente con  T4

1. A medida que la temperatura aumenta, la cantidad de energía emitida es mayor. En particular, la energía aumenta proporcionalmente a la cuarta potencia de la temperatura absoluta (ley de Stefan-Boltzmann):

2. Un cuerpo emite mayor cantidad de energía en una longitud de onda determinada. A medida que la temperatura aumenta esta longitud de onda se hace más pequeña, cumpliéndose la ley de Wien:

µmáxima T = constante

Ley de Wein: Energía radiante por un objeto caliente a distintas longitudes de onda

Biografía de Evangelista Torricelli Fisico Presion Atmosferica

Biografía de Evangelista Torricelli
Físico Que Investigó Presión Atmosférica

Físico y matemático italiano que descubrió la forma de medir la presión atmosférica, para lo cual ideó el barómetro de mercurio. Por este invento pasó a la posteridad. En 1644 publicó su obra Opera geométrica (Obra geométrica), donde expuso sus hallazgos sobre fenómenos de mecánica de fluidos y sobre el movimiento de proyectiles.

Fruto de sus observaciones, perfeccionó el microscopio y el telescopio. Asimismo, sus aportes a la geometría fueron determinantes en el desarrollo del cálculo integral

BIOGRAFÍA TORRICELLI Evangelista (1608-1647)
Físico y matemático italiano nacido el 15 de octubre de 1608 en Faenza y fallecido enFlorencia el 25 de octubre de 1647. Sus padres fueron Gaspare Torricelli y Caterina Angetti.

Era una familia humilde, Gaspare era obrero textil. Evangelista fue el mayor de los tres hijos del matrimonio.

Sus padres notaron el talento de su hijo y como no tenían recursos para educarlo lo enviaron a estudiar con su tío, el Hermano Jacopo, un monje Camaldolese, al colegio Jesuita entre tos años 1624-1626 en Faenza.

Su tío observa el talento de Evangelistay arregla que estudie privadamente con otro monje Camatdolese, Benedetto Castetli, de quien se convierte en ayudante hasta 1632. Castelli enseñaba en la Universidad de Sapienza, en Roma.

Torricelli no fue alumno de esa universidad. Torricellireemplazaba a Castelti cuando estaba ausente de Roma.

El 11 de septiembre de 1632 Castelli escribió a Galileo una carta en la cual informa sobre los notables progresos científicos de Evangelista. Galileo te contesta a Castelli, pero como éste no estaba en Roma, su secretario Torricelli aprovecha para contestar la carta y explicarle directamente a Galileo sobre sus trabajos matemáticos.

Durante los siguientes nueve años (1632-1641), fue secretario de Giovanni Ciampoli, amigo de Galileo y de otros profesores.

No se sabe exactamente donde vivió Torricelli durante estos años, pero como Ciampoli fue gobernador de muchas ciudades, debe haber vivido en distintos períodos en Montatto, Norcia, San Severino y Fabriano.

Para 1641 Torricelli había completado gran parte del trabajo que iba a publicar en tres partes en 1644, Opera geométrica. La segunda parte del trabajo es el De motu gravium, que es un tratado sobre el movimiento parabólico de los proyectiles. Torricelli pidió opinión a Castelti sobre tratado en 1641.

Castelti estaba tan impresionado que él mismo te escribió a Gatileo, que vivía en Arcetri, cerca de Florencia, vigilado por la Inquisición. En abril de 1641 Castelli fue de Roma a Venecia y de paso se detuvo en Arcetri para entregarte a Galileo una copia del manuscrito de Torricelli y le sugiere que lo contrate como asistente.

Mientras Castelli viajaba, Torricelli permanecía en Roma a cargo de sus clases. Galileo aceptó la propuesta de Castelli y el 10 de octubre de 1641, Torricelli llegó a La casa de Galileo en Arcetri.

Se convirtió así en su discípulo (1641). Permaneció viviendo con Galileo durante su ceguera, cuidándolo hasta el día de su muerte en enero de 1642 y, un año más tarde, lo sucedió en el cargo de matemático de la corte del Gran Duque Fernando II de Toscana, pero no recibió el titulo de Filósofo de la Corte, que tenía Galileo.

Torricelli mantuvo este cargo hasta su muerte, viviendo en el palacio ducal en Florencia.

Otro discipulo de Castelli era Cavalieri, que era titular de la cátedra de Matemática en Bolonia. Torricelli estudió los métodos de Cavalieri y al principio desconfió de ellos. Pero pronto se convenció de su exactitud y comenzó a profundizarlos.

Uno de sus resultados más importante tiene que ver con la extensión del método de los indivisibles de Cavaliería los indivisibles curvo.

Para 1641 había probado un número impresionante de resultados usando el método que publicaría tres años después. Examinó los cuerpos tridimensionales que se obtienen al rotar un polígono regular alrededor de un eje de simetría.

También calculó el área y centro de gravedad de la cicloide.

El tema de La cicloide surgió de una disputa con Roberval. En una carta fechada en octubre de 1643 Le informa a Roberval sobre sus puntos de vista y resultados sobre el centro de gravedad de la parábola, la superficie de la cicloide y su historia, el sólido de revolución generado por una cónica y un sólido hiperbólico.

No hay duda que ambos matemáticos llegaron a descubrimientos similares sobre La cicloide pero que ninguno influyó sobre La ideas del otro.

Otra contribución de Torricelli fue en 1640, la resolución del problema de Fermat: dados tres puntos en un plano, encontrar un Cuarto punto tal que la suma de las distancias a los tres dados sea la menor posible (conocido como el centro isogónico del triángulo). Torricelli fue la primera persona en crear un vacío sustentable. su nombre se asocia a La invención del barómetro de mercurio en 1644 para La medición de La presión atmosférica.

Este experimento, además de la importancia de sus aplicaciones prácticas, permitía demostrar la inconsistencia de Las afirmaciones de los que aún seguían las teorías aristotélicas sobre la imposibilidad de la existencia de vacío, ya que por encima de la columna de mercurio de su barómetro se producía dicho vacío.

En De motu gravium también probó que la velocidad de salida de un liquido a través de un pequeño orificio en la pared delgada de un recipiente es proporcional a la raíz cuadrada de la altura entre el orificio y base del recipiente, enunciado conocido como el Teorema de Torricelli. Algunos lo consideran el fundador de la hidrodinámica.

En esta publicación estudia el movimiento de un proyectil, desarrolla las ideas de Galileo sobre la trayectoria parabólica de un proyectil lanzado horizontalmente y da una teoría sobre los proyectiles disparados en cualquier ángulo.

Por otra parte, construyó los mejores anteojos de la época y hasta ahora, las lentes preparadas por él, se destacan por su perfección.

También construyó telescopios, microscopios. Aparentemente aprendió estas técnicas mientras vivió con Galileo. Torricelli ganó mucho dinero por sus habilidades en la construcción de lentes durante la última parte de su vida en Florencia y recibió muchos regalos del Gran Duque.
En 1647 Torricelli; contrajo fiebre tifoidea y murió a tos 39 años.

Torricelli, físico

«Yo afirmo que vivimos en un mar de aire»
El mérito de Torricelli fue haber sido el primero en medir el valor de la presión que
la atmósfera imprime a la superficie terrestre.

Por qué se lo recuerda
LA ACEPTACIÓN DEL VACIO
Demostró que los efectos atribuidos al «horror del vacío» se debían en realidad a la presión del airé. Inventó el barómetro de mercurio.

PREDICCIÓN DEL TIEMPO
Aunque Torricelli nunca lo supo, el descubrimiento del barómetro iba a ser muy importante para pronosticar el tiempo.

APARATOS DE ÓPTICA
Construyó telescopios superiores a los conocidos hasta entonces y otros aparatos de óptica. También desarrolló el teorema que lleva su nombre, acerca del movimiento de los fluidos.
Medición atmosférica

PARA SABER MAS…
La conquista del vacío .

Hasta el siglo XVII era imposible aceptar la idea de que el vacío era parte del espacio. Aristóteles había intentado sin éxito verificar el peso del aire y durante mucho tiempo el pensamiento imperante afirmaba que el vacío era, sobre todo, un concepto inconsistente. Sin embargo, el camino de la investigación y la experimentación, iniciado en gran medida por los descubrimientos de Galileo, Newton y Torricelli, cambió de manera radical el punto de vista de la ciencia.

Evangelista Torricelli, discípulo de Galileo, fue quien demostró que el aire es un fluido gaseoso que nos rodea, nos envuelve y nos presiona.

Su aporte fue muy importante ya que muchos fenómenos que ocurrían en la naturaleza hasta entonces extraños-eran derivados simplemente de la presión atmosférica.

¿Qué hizo Torricelli? Llenó un tubo con mercurio, lo invirtió y sumergió la parte abierta en un recipiente con más mercurio. El nivel de éste en el tubo descendió algunos centímetros, lo qué dio lugar en el extremo cerrado a un espacio sin mercurio, que no podía estar sino vacío.

Al principio muchos hombres de ciencia de la época se negaron a aceptar la teoría de Torricelli, verificada por el barómetro que él mismo había construido. Tuvo que transcurrir un tiempo para que la sociedad reconociera que por sobre la columna de mercurio operaba el propio peso de la atmósfera que rodea la Tierra.

Nuevos descubrimientos
Las experiencias de Torricelli fueron conocidas en Francia a través de su correspondencia con el religioso Marín Mersenne, quien a su vez estaba en contacto con otros investigadores que se sintieron entusiasmados a seguir explorando el fenómeno del espacio vacío.

Así fue como el físico Blaise Pascal (1623-1662), en Francia, reveló las variaciones de la presión atmosférica según las condiciones climáticas y la altura. A su vez Robert Boyle (1627-1691), en Inglaterra, llevó a cabo diversos estudios sobre la elasticidad del aire.

La carrera por perfeccionar los instrumentos que se usan para conocer el macro y microcosmos continúa hasta la actualidad. Hoy, al escuchar las noticias meteorológicas sabemos que las altas y bajas presiones sobre determinadas zonas del planeta tienen una influencia muy importante sobre el estado del tiempo y gran parte se la debemos a Torricelli, el físico italiano.

Fuente Consultada: Gran Atlas de la Ciencia National Geographic

Teoría Cinética de los Gases Ideales Modelo Molecular Resúmen

Teoría Cinética de los Gases Ideales
Modelo Molecular

El comportamiento análogo de todos los gases sugiere que su estructura debe ser la misma. Como que los gases son muy compresibles, sus moléculas deben estar muy separadas y como que los gases tienden a expandirse hasta ocupar el máximo volumen posible, sus moléculas deben hallarse en un movimiento incesante.

DESCRIPCIÓN BÁSICA: La teoría cinética de los gases supone que éstos están constituidos por diminutas partículas (moléculas) en constante movimiento. A igualdad de condiciones, la velocidad promedio con que se mueven las moléculas varía de gas a gas, siendo la regla que cuanto mayor sean las partículas, tanto menor será su velocidad, pero para un gas determinado, la velocidad promedio con que se mueven sus moléculas depende de su temperatura. Si el gas es calentado, sus moléculas reciben energía para acelerar su movimiento.

La temperatura no es sino una medida de la energía promedio de las moléculas. Además, estas moléculas son consideradas perfectamente elásticas. Como están en continuo movimiento, chocan continuamente entre sí y rebotan. Ahora bien, si dejamos caer al suelo una pelota de goma, rebotará más de una vez, pero con cada rebote se elevará menos del suelo. En otras palabras, la pelota pierde energía cada vez que da un bote, Pero las moléculas no pierden ninguna energía cuando chocan entre sí y rebotan.

El movimiento molecular explica el comportamiento de los gases en relación al aumento de temperatura y cambios de presión. A una cierta temperatura y presión el mismo número de moléculas de cualquier gas ocupa el mismo volumen. Pero si aumenta la temperatura del gas sus moléculas habrán adquirido la energía necesaria para moverse más rápido. Chocan más rápido y rebotan más lejos, en otras palabras, ocupan más espacio, pero si no se les permite ocupar mayor espacio, es decir, si el recipiente es rígido, la presión del gas aumentará.

Esto es comprensible, porque la presión del gas sobre las paredes es simplemente la fuerza ejercida por las moléculas que chocan contra ellas. Si las moléculas aceleran, golpearán las paredes del recipiente con mayor fuerza.

EXPLICACIÓN FÍSICA CONCEPTUAL

Uno de los fenómenos referentes al comportamiento de los gases que indica el camino más acertado para investigar su naturaleza es el movimiento browniano, observado en 1827 por el escocés Robert Brown y que consiste en una agitación desordenada, en zigzag, ejecutada por las partículas que se hallan en suspensión en los líquidos o en los gases.

Cuanto menor es la partícula observada, más claramente se pone de manifiesto su estado de movimiento desordenado permanente y cuanto mayor es la temperatura tanto mayor es la violencia de dicho movimiento.

El movimiento browniano sugiere un estado de continua agitación de las moléculas que constituyen los cuerpos materiales. Todo parece indicar que la materia está formada por partículas muy pequeñas en movimiento incesante. Esta teoría de las moléculas en constante agitación se denomina teoría cinética de la materia y sus dos postulados fundamentales son:

a) Las moléculas están en constante movimiento.
b) El calor es una manifestación del movimiento de las moléculas.

APLICANDO ESTOS POSTULADOS A LOS GASES: Cuando Boyle descubrió en 1661 su sencilla ley experimental sobre el comportamiento de los gases, trató de idear un modelo que interpretara coherentemente la naturaleza del gas. Ése fue el comienzo de la teoría cinética, desarrollada por Daniel Bernoulli, James Joule, Rudolph Clausius, Ludwig Boltzmann y Albert Einstein, entre otros científicos. Esta teoría se propone dar una explicación microscópica de las leyes macroscópicas experimentales.

Las hipótesis de las que parte son simples:

1) Un gas consiste en un conglomerado de partículas (átomos o moléculas) que responden a las leyes de la Mecánica newtoniana. En un gas perfecto pueden despreciarse las fuerzas atractivas entre las moléculas. Así pues, las moléculas pueden considerarse independientes unas de otras.

2) La enorme cantidad de partículas se mueven caóticamente y están tan separadas entre sí que su propio volumen es despreciable frente al que ocupa todo el gas.

3) No existen fuerzas apreciables sobre las partículas salvo las que operan durante los choques elásticos entre sí y contra las paredes.

4) En un conjunto de moléculas dado, en un instante determinado, las moléculas poseen distintas velocidades y, por tanto, sus energías cinéticas también son distintas. Se admite, sin embargo, que la energía cinética media de todas las moléculas es directamente proporcional a la temperatura absoluta del gas.

RESPECTO A LAS MAGNITUDES FÍSICA ES:

• La presión de un gas: lo que llamamos la presión de un gas no es más que el resultado de todo el conjunto de choques que las moléculas efectúan sobre las paredes de un recipiente.

•  La temperatura, es según lo dijo Boltzmann: «La temperatura es la medida de la agitación de los átomos». A alta temperatura los átomos se hallan muy agitados y a baja temperatura están más calmados.

EXPLICACIÓN DE LA TEORÍA: Es razonable que, dado que las partículas están tan separadas, las fuerzas intermoleculares sean solamente las de los choques. Como los choques son elásticos, entonces se conserva la cantidad de movimiento y también la energía cinética.

Entre choque y choque, las moléculas viajan con movimiento rectilíneo y uniforme, de acuerdo con las leyes de Newton. Las colisiones son de muy corta duración. Es decir que la energía cinética se conserva constante, ya que el breve tiempo en que ésta se transforma en energía potencial (durante el choque) se puede despreciar.

A partir de estos supuestos, la teoría explica el comportamiento conocido de los gases y hace predicciones que luego son constatadas experimentalmente, lo que le confiere validez científica.

Para describir el comportamiento del gas no es imprescindible la historia individual de cada partícula, sino que se recurre a la estadística para interpretar las variables macroscópicas como cierto promedio de propiedades microscópicas.

Por ejemplo, la presión se interpreta microscópicamente como el efecto resultante de millones de partículas chocando azarosamente y ejerciendo pequeñas fuerzas irregulares contra las paredes del recipiente. ¿Por qué la fuerza que un gas encerrado ejerce sobre la pared del recipiente es perpendicular a su superficie?.

 Como todas las posiciones y velocidades son igualmente probables, el bombardeo sobre la pared proviene de todas las direcciones y sentidos. Las fuerzas ejercidas en dirección paralela a la pared en uno y otro sentido tienden en promedio a anularse. Pero las fuerzas ejercidas en dirección perpendicular, por el contrario, se sumarán, ya que ninguna partícula colisiona desde el lado exterior de la pared.

La temperatura se interpreta como una medida de la energía cinética media por molécula. Al calentar un gas, aumentamos la agitación molecular, elevando la velocidad media de las partículas. Si disminuye la temperatura del gas, se puede licuar. Es coherente que la energía cinética media de una partícula líquida sea menor que la correspondiente a una partícula gaseosa.

En 1827, el botánico inglés Robert Brown (1773-1858) constató, por primera vez, que partículas pequeñas de materia inerte, suspendidas en un líquido y observadas con un microscopio presentan una agitación azarosa y permanente dependiente de la temperatura. La explicación de este fenómeno se logró ochenta años después.

El descubrimiento del movimiento browniano permitió un desarrollo posterior más profundo de la teoría cinética. El movimiento de los gránulos observados a través del microscopio se interpretó como la ampliación del movimiento de las pequeñísimas moléculas invisibles a la lente.

Basándose en un estudio cuantitativo del movimiento browniano, la teoría cinética permite calcular, entre otros múltiples resultados, el número de moléculas contenidas en un volumen dado, a cierta temperatura y presión, para todos y cualquier gas.

DEMOSTRACIÓN DE LA ECUACIÓN DE ESTADO A PARTIR DE LA TEORÍA CINÉTICA DE LOS GASES:

La ecuación de estado de los gases, PV = nRT, puede deducirse de la teoría cinética estudiando el aumento de presión que se produce en un gas a consecuencia de los impactos de las moléculas. En efecto, consideremos un gas encerrado en una caja. Su presión es proporcional al número de choques moleculares por segundo sobre cada cm2 de la pared de la caja y proporcional también al impulso mecánico o variación de la cantidad de movimiento de cada impacto. La presión total será, pues, igual al producto del número de impactos por el impulso mecánico.

El movimiento de cualquier molécula puede ser descompuesto en tres componentes dirigidas según cada una de las tres aristas de la caja, de donde se deduce que el efecto sobre cada una de las paredes es el mismo que si cada tercera parte de las moléculas se moviese perpendicularmente a cada par de caras opuestas.

Así, N/3 moléculas chocarán con una cara determinada de la caja cúbica, siendo N el número total de moléculas contenidas en la caja. Entre cada dos impactos sucesivos la molécula deberá recorrer en los sentidos de ida y vuelta la longitud de la arista de la caja cúbica, l.

Es decir, la distancia entre dos impactos consecutivos recorrida por la molécula es 2.l. Como que la velocidad media de las moléculas es V cm/s, el tiempo transcurrido en segundos entre dos choques consecutivos será t = 2.l/V y, por tanto, el número de choques por segundo con la pared del recipiente será V/2.l.

Así pues, podemos concluir que el número de impactos que se producirán sobre una cara de la caja por segundo será de:

 Pero como el área de la cara es l2, el número de impactos por cm2 y por segundo que se producirán será :



Ahora bien, como el volumen V de la caja es l3, tendremos que el número total de impactos por cm2 y por segundo será:


Para obtener el impulso total de cada impacto hay que tener en cuenta que el impulso mecánico es igual a la variación de la cantidad de movimientos. En toda colisión en la que una molécula de masa m y velocidad v rebote de la pared con igual velocidad absoluta pero en sentido contrario, la cantidad de movimiento variará de un valor inicial mv a un valor final – mv. Es decir, la variación de la cantidad de movimiento es de 2mv.

Pero tal como se indicó anteriormente, Presión=Fuerza/Área= N° de Impactos/Área . s

Impulso de cada impacto:


Ahora bien, la energía cinética media de las moléculas y la temperatura absoluta del sistema están relacionadas por la expresión:

Donde k=1,3805 . 1016 erg./K. molécula es la constante de Boltzmann. Sustituyendo el valor de:

En la ecuación precedente se obtiene:

Pero como el número N de moléculas es igual a: 6,023 . 1023  . n , siendo n el número de moles , resulta

que es la ecuación de estado de los gases ideales,

Puede comprobarse sin dificultad que la constante universal de los gases, R, es el producto de la constante k de Boltzmann por el número de Avogadro. Es decir, R = 6,023 • 1023- k.

RESÚMEN DE LOS POSTULADOS DE LA TEORÍA CINÉTICA DE LOS GASES:

UN POCO DE HISTORIA…

Demócrito había dicho que los átomos se hallan en continuo movimiento, agitados de manera desordenada en todos los sentidos. Unas veces, decía, colisionan unos con otros y se pegan como dos bólidos que se dan de frente y se meten uno en otro; otras veces el encuentro termina en una unión que da origen a «sustancias» líquidas o sólidas.

Hacia finales del siglo XIX se descubrió lo esencial de las leyes sobre el comportamiento de los gases, la manera en que se combinan, se mezclan, qué presión ejercen sobre las paredes del recipiente donde se contienen, etc.

Así pues, es natural que en esta época se haya tratado de conocer todas estas propiedades partiendo de la idea de los átomos y de las moléculas que por aquel entonces salía a la luz, es decir, de profundizar en las ideas de Demócrito, pero de una manera un poco más precisa y un poco más cuantitativa.

Si la materia, en este caso el gas, está formada por miles de millones de partículas o de átomos, ¿cómo se pueden explicar, partiendo de sus supuestas propiedades las observaciones de los químicos? Dicho de otro modo, ¿cómo a partir de la descripción microscópica de la materia, de las estructuras elementales de las moléculas, se puede construir una teoría que permita explicar propiedades macroscópicas, que son las propiedades con las que trabajan los químicos, desde Gay-Lussac hasta Avogadro pasando por Dalton, hasta llegar a los químicos actuales? ¿Cómo se puede pasar de las fórmulas químicas al campo del químico que sintetiza nuevos productos? Era menester volver a las fuentes.

Daniel Bernouilli, un genovés miembro de una prestigiosa dinastía científica, abrió el camino a finales del siglo XVIII. Especialista de esa nueva rama de las Matemáticas llamada cálculo de las probabilidades, Bernouilli comprendió muy pronto que, para estudiar una población de átomos en número muy elevado, la mejor manera de lograrlo era hacer un modelo de su comportamiento de manera estadística y definir de ese modo el comportamiento de un átomo medio. Pero si es cierto que se le deben a él las primeras ideas en la materia, también es cierto que su trabajo no llegó a un resultado definitivo.

Hacia finales del siglo XIX es cuando se desarrollará realmente la Física estadística, en medio de debates tumultuosos y bastante violentos desde el punto de vista intelectual. Y ello es así porque esta Física estadística topaba de lleno con dos prejuicios sólidamente enraizados en los espíritus. Agarrándose al primero, algunos, como ya hemos dicho, se oponían a la idea de átomos y de moléculas so pretexto de que nadie los había visto. Y otros, apoyados en el segundo, rechazaban la utilización del cálculo de probabilidades. ¿Cómo la naturaleza, decían, cuyas leyes son perfectamente claras y están perfectamente determinadas, podría obedecer al cálculo de probabilidades, al azar, «esa máscara de nuestra ignorancia», como diría más tarde con humor Emile Borel, gran probabilista francés?

Tres hombres, tan distintos como excepcionales, son los que van a construir esta Física estadística.

James Clark Maxwell Ludwig Boltzmann Josiah Willard Gibbs

James Clark Maxwell, el autor de la grandiosa teoría de la unificación electromagnética, el gentleman escocés de Cambridge, una de las leyendas de la Física. El es quien dará la señal de partida calculando la distribución de las velocidades de las partículas de un gas. Maxwell será un gran matemático, pero un atomista desapasionado. Desgraciadamente morirá en plena batalla en 1918.

Ludwig Boltzmann es un austríaco más joven que Maxwell, a quien admira y venera. Es un hombre caprichoso, matemático brillante, intelectual-mente ambicioso, con imaginación y con técnica a la vez, pero también es exageradamente impresionable, con frecuencia indeciso (por tres veces aceptará y rechazará después el puesto de profesor en Berlín, donde enseña el gran físico alemán Helmholtz, todo ello en el plazo de dos años), directo —según algunos, demasiado directo— en sus relaciones sociales. Sin embargo, él será quien pondrá los cimientos.

Josiah Willard Gibbs. Este es un norteamericano  Fue profesor en la Universidad de Yale. Aunque era reservado y solitario —se cuenta de él que un día, hablando con un colega, se enteró de que los profesores de Yale estaban remunerados, ¡cosa que él ignoraba!— será él quien instalará la Física estadística y hará la síntesis con la Termodinámica. Es una verdadera pena que Gibbs y Boltzmann no se encontraran jamás, que por dos veces fallara su encuentro. Porque parece ser que Gibbs fue uno de los pocos contemporáneos que entendía los artículos de Boltzmann, lo que suponía en él una gran experiencia matemática, además de una lucidez introspectiva considerable, dado lo abigarrados y difíciles que eran los artículos de Boltzmann.

Fuente Consultada:
Un Poco de Ciencia Para Todo el Mundo Claude Allégre
Elementos de Física y Qumica Maiztegui-Sabato
Guía de Apoyo Para El Estudiante Tomo: Física.

Ver: Dilatación de los Gases

Biografia de John Nash Matematico Premio Nobel Teoría de Juegos

Biografia de John Nash Matemático Premio Nobel

John Forbes Nash: Matemático, Premio NobelLa verdadera vida de John Forbes Nash, Jr.: John Forbes Nash (Virginia Occidental, 13 de junio de 1928 – Monroe, Nueva Jersey, 23 de mayo de 2015)​ fue un matemático estadounidense, especialista en teoría de juegos,​ geometría diferencial​ y ecuaciones en derivadas parciales,​ que recibió el Premio Nobel de Economía en 19945​ por sus aportes a la teoría de juegos y los procesos de negociación, junto a Reinhard Selten y John Harsanyi,6​ y el Premio Abel en 2015.

 «Una mente maravillosa», «A beautiful Mind» es un magnífico producto de Hollywood inspirado en la vida de John Nash pero que no pretende ser su biografía. En realidad son muy pocos los hechos o situaciones de la vida real de Nash que son contados en la película.

El padre se llamaba también John Forbes Nash por lo que distinguiremos al padre del hijo al estilo americano, añadiéndoles el calificativo «Senior» o «Junior» (Jr.).

Nash Senior nació en Texas en 1892 y estudió ingeniería eléctrica. Después de luchar en Francia en la primera guerra mundial, fue durante un año profesor de ingeniería eléctrica en la Universidad de Texas tras lo que se incorporó a la empresa Appalachian Power Company en Bluefield, West Virginia.

La madre de Nash Jr., Margaret Virginia Martin, estudió idiomas en las universidades Martha Washington College y West Virginia University.

Fue profesora durante diez años antes de casarse con Nash Senior, el 6 de septiembre de 1924.

Johnny Nash, así le llamaba su familia, nació en Bluefield Sanatorium el 13 de junio de 1928 y fue bautizado en la iglesia Episcopaliana. Sus biógrafos dicen que fue un niño solitario e introvertido aunque estaba rodeado de una familia cariñosa y atenta.

Parece que le gustaban mucho los libros y muy poco jugar con otros niños. Su madre le estimuló en los estudios enseñándole directamente y  llevándole a buenos colegios.

Sin embargo, no destacó por su brillantez en el colegio. Por el contrario, debido a su torpeza en las relaciones sociales, era considerado como un poco atrasado. Sin embargo, a los doce años dedicaba mucho tiempo en su casa a hacer experimentos científicos en su habitación.

Su hermana Martha, dos años más joven que él, era una chica muy normal. Dice de su hermano:

«Johnny era siempre diferente. Mis padres sabían que era diferente y también sabían que era brillante. Él siempre quería hacer las cosas a su manera. Mamá insistía en que yo le ayudase, que lo introdujera entre mis amistades… pero a mí no me entusiasmaba lucir a un hermano tan raro».

A los catorce años Nash empezó a mostrar interés por las matemáticas. Parece ser que influyó la lectura del libro de Eric Temple Bell,  «Men of Mathematics» (1937). Entró en el Bluefield College en 1941. Comenzó a mostrarse hábil en matemáticas, pero su interés principal era la química. Se suponía que iba a seguir la misma carrera de su padre,  ingeniería eléctrica, pero continuaba con sus experimentos químicos. Parece ser que tuvo alguna relación con la fabricación de unos explosivos que produjeron la muerte a uno de sus compañeros de colegio.

Nash ganó una beca en el concurso George Westinghouse y entró en junio de 1945 en el Carnegie Institute of Technology (hoy llamado Carnegie-Mellon University) para estudiar ingeniería química. Sin embargo empezó a destacar en matemáticas cuyo departamento estaba dirigido entonces por John Synge, que reconoció el especial talento de Nash y le convenció para que se especializara en matemáticas.

Se licenció en matemáticas en 1948. Lo aceptaron para estudios de postgrado en las universidades de Harvard, Princeton, Chicago y Michigan. Nash consideraba que la mejor era Harvard, pero Princeton le ofreció una beca mejor por lo que decidió estudiar allí, donde entró en septiembre de 1948.

En 1949, mientras se preparaba para el doctorado, escribió el artículo por el que sería premiado cinco décadas después con el Premio Nobel. En 1950 obtiene el grado de doctor con una tesis llamada «Juegos No-Cooperativos«. Obsérvese que el libro inicial de la teoría de juegos, «Theory of Games and Economic Behavior» de von Neumann y Oskar Morgenstern,  había sido publicado muy poco antes, en 1944.

En 1950 empieza a trabajar para la RAND Corporation, una institución que canalizaba fondos del gobierno de los Estados Unidos para estudios científicos relacionados con la guerra fría y en la que se estaba intentando aplicar los recientes avances en la teoría de juegos para el análisis de estrategias diplomáticas y militares. Simultáneamente seguía trabajando en Princeton.

En 1952 entró como profesor en el Massachusetts Institute of Technology. Parece que sus clases eran muy poco ortodoxas y no fue un profesor popular entre los alumnos, que también se quejaban de sus métodos de examen.

En este tiempo empezó a tener problemas personales graves que añadidos a las dificultades que seguía experimentando en sus relaciones sociales. Conoció a Eleanor Stier con la que tuvo un hijo, John David Stier, nacido el 19 de junio de 1953. A pesar de que ella trató de convencerlo, Nash no quiso casarse con ella. Sus padres solo se enteraron de este asunto en 1956. Nash Senior murió poco después de enterarse del escándalo y parece que John Nash, Jr. se sintió culpable de ello.

En el verano de 1954, John Nash fue arrestado en una redada de  la policía para cazar homosexuales. Como consecuencia de ello fue expulsado de la RAND Corporation.

Una de las alumnas de Nash en el MIT, Alicia Larde, entabló una fuerte amistad con él. Había nacido en El Salvador, pero su familia había emigrado a USA cuando ella era pequeña y habían obtenido la nacionalidad hacía tiempo. El padre de Alicia era médico en un hopital federal en Maryland. En el verano de 1955 John Nash y Alicia salían juntos. En febrero de 1957 se casaron.

En el otoño de 1958 Alicia quedó embarazada, pero antes de que naciera su hijo, la grave enfermedad de Nash ya era muy manifiesta y había sido detectada. Alicia se divorció de él más adelante, pero siempre le ayudó mucho. En el discurso de aceptación del Nobel, en 1994, John Nash tuvo palabras de agradecimiento para ella.

En 1959, tras estar internado durante 50 días en el McLean Hospital, viaja a Europa donde intentó conseguir el estatus de refugiado político. Creía que era perseguido por criptocomunistas. En los años siguientes estaría hospitalizado en varias ocasiones por períodos de cinco a ocho meses en centros psiquiátricos de New Jersey. Unos años después, Nash escribió un artículo para una revista de psiquiatría en el que describió sus pensamientos de aquella época:

«.. el personal de mi universidad, el Massachusetts Institute of Technology, y más tarde todo Boston, se comportaba conmigo de una forma muy extraña.  (…) Empecé a ver criptocomunistas por todas partes (…) Empecé a pensar que yo era una persona de gran importancia religiosa y a oir voces continuamente. Empecé a oir algo así como llamadas telefónicas que sonaban en mi cerebro, de gente opuesta a mis ideas.  (…) El delirio era como un sueño del que parecía que no me despertaba.»

A finales de los sesenta tuvo una nueva recaída, de la que finalmente comenzó a recuperarse. En su discurso de aceptación del Premio Nobel describe su recuperación así:

«Pasó más tiempo. Después, gradualmente, comencé a rechazar intelectualmente algunas de las delirantes líneas de pensamiento que habían sido características de mi orientación. Esto comenzó, de forma más clara, con el rechazo del pensamiento orientado políticamente como una pérdida inútil de esfuerzo intelectual».

En la actualidad sigue trabajando en el Departamento de Matemáticas de la Universidad de Princeton.

Su página web oficial es: http://www.math.princeton.edu/jfnj/

Su dirección electrónica: [email protected]  (hasta el 05-10-2002)

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

La Gran Ciencia – Grandes Proyectos Científicos del Mundo

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos.

Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías). Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro.

Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia.

Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas.

En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea.

La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político.

En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil.

En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

Luminiscencia: fenomeno de iluminacion en la oscuridad Fenomeno Fisico

El Fenómeno de la Luminiscencia

La luminiscencia es la propiedad que presentan algunos materiales y seres vivos de emitir luz cuando son sometidos a determinada temperatura. Esta luz es visible solamente en la oscuridad.

Poseen esta capacidad las luciérnagas o los peces de los abismos marinos; también el pescado putrefacto, algunas clases de madera y ciertos minerales y sulfuros metálicos.

luminiscencia

La luminiscencia comprende las emisiones de luz visible producidas tanto por la acción de ciertos rayos como por la existencia de reacciones físicas o químicas.

Se excluye la radiación originada exclusivamente como consecuencia del calor.

Dependiendo de la energía que la origina, es posible hablar de varias clases de luminiscencia: fotoluminiscencia,  fluorescencia,  fosforescencia, termoluminiscencia, quimiolumíniscencia, triboluminiscencia, electroluminiscencia y radioluminiscencia. 

Fotoluminiscencia

Cuando la energía activadora es de origen electromagnético (rayos X, ultravioleta, catódicos) se habla de fotoluminiscencia. Los rayos X, en particular, producen una intensa luminiscencia.

En el caso de los minerales fotoluminiscentes, la luz es absorbida durante un determinado periodo de tiempo y, al ser emitida, lo hace con una longitud de onda menor que la incidente.

Es decir, no se trata de un fenómeno óptico de difracción o reflexión.

La luminiscencia por rayos X permite, por ejemplo, diferenciar las perlas cultivadas de las naturales, ya que las primeras presentan esa capacidad, en tanto que las segundas, excepto las de agua dulce, carecen de ella. Se trata de una propiedad particularmente útil en el reconocimiento de piedras sintéticas. 

Fluorescencia

Es la luminiscencia causada única y exclusivamente por rayos ultravioleta. El término fluorescencia proviene del mineral que presenta este fenómeno por naturaleza, la fluorita.

No todos los minerales absorben luz U.V. de igual longitud de onda. Por ejemplo, algunos sólo son capaces de hacerlo para rayos U.V. de longitud de onda corta (254 nm); otros, para longitudes largas (350-370 nm), mientras que hay minerales que presentan este fenómeno indistintamente para unas y otras longitudes.

Tampoco todos los minerales, aunque tengan el mismo origen o la misma apariencia, poseen por sistema la propiedad de la fluorescencia. En este sentido, no todas las fluoritas son fluorescentes, tan sólo aquellas en las que existe presencia de materia orgánica o de tierras raras. 

Fosforescencia

Cuando la luminiscencia continúa un cierto tiempo aunque se elimine la fuente de excitación, se había de fosforescencia. Existen minerales que, a pesar de haberles retirado la fuente energética que incide sobre ellos, continúan emitiendo luz durante una fracción de segundo, por lo que es difícil a veces diferencia los fenómenos de fotolurniniscencia y fluorescencia. 

Termoluminiscencia

La presentan ciertos materiales únicamente cuando son calentados a temperaturas por debajo del rojo, siendo el calor el desencadenante de la reacción. La luz visible es inicialmente débil, acentuándose entre los 50 y 100 0C y cesando su emisión partir de los 475 °C La calcita, el apatito, la escapolita, la lepidolita y ciertos feldespatos son minerales termoluminiscentes. La clorofana (variedad de la fluorita), por ejemplo, emite una radiación verde muy característica. 

Quimioluminiscencia

Esta particularidad está originada por reacciones químicas. Un ejemplo es la bioluminiscencia, producida por reacciones químicas de origen biológico; uno de los casos más conocidos es el de la luz emitida por las luciérnagas o por los peces de ambientes hipoabisales. 

Triboluminiscencia

Ciertos minerales no metálicos y fácilmente exfoliables poseen la propiedad de emitir luz cuando son sometidos a acciones mecánicas, por ejemplo, al ser molidos o rayados. Es el fenómeno de la triboluminiscencia. La fluorita, la esfalerita, la lepidolita y, en menor medida, la pectolita, la ambligonita, los feldespatos y la calcita presentan esta característica.

Electroluminiscencia y radioluminiscencia

Si el efecto as provocado por la acción de corrientes eléctricas, el fenómeno se denomina electroluminiscencia. La radioluminiscencia, por su parte, está motivada por reacciones nucleares. Fue observada por vez primera en el radio, gracias a las investigaciones de Marie y Pierre Curie

El fenómeno de la luminiscencia en los análisis de toxicidad

Si se realizan ciertos análisis de toxicidad en los efluentes industriales que se vierten a plantas de tratamiento de aguas, se puede determinar que, en ocasiones, llegan a ser considerablemente más tóxicos que la totalidad del agua residual que accede a la planta antes de ser tratada.

Mediante un análisis químico tradicional es posible identificar los contaminantes presentes y se pueden cuantificar sus niveles; es necesaria la realización de un análisis de toxicidad para determinar los efectos tóxicos de estos vertidos.

Para ello se emplean métodos biológicos, mediante la acción de bacterias luminiscentes, de forma que cuando los niveles de sustancias tóxicas superan determinados valores, la luminiscencia se inhibe. Esta disminución de la luminiscencia se produce de forma directamente proporcional a la presencia de contaminantes tóxicos.

Esto ocurre porque los compuestos tóxicos actúan sobre las estructuras celulares y sus funciones biológicas, básicas para cualquier organismo vivo.

Efecto de la Radiación Ultravioleta Sobre la Piel

Dilatacion de un Gas a Presion Constante Leyes y Ejemplos

DILATACION DE UN GAS A PRESIÓN CONSTANTE – LEYES FÍSICAS

La temperatura es la expresión, para nuestros sentidos, del estado de agitación de las moléculas. Por esta razón, existe un cero absoluto, que corresponde a las moléculas inmóviles, y más abajo del cual no se puede descender.

Con la elevación de temperatura las moléculas se mueven con mayor vigor y tienden a liberarse de las fuerzas que las unen: los solides funden y los líquidos hierven, Al enfriar se repiten los mismos procesos en orden inverso, y desde el gas se llega hasta el sólido.

Con el incremento de temperatura todos los cuerpos se dilatan debido a que el mayor sacudimiento de sus moléculas los obliga a ocupar más espacio.

En los sólidos y los líquidos, que son prácticamente incompresibles, las variaciones de volumen son evidentes . Pero los gases son muy elásticos; si el recipiente que los contiene es rígido, sólo se aprecia un aumento de presión, puesto que el gas no tiene posibilidad de dilatarse.

En notas ulteriores veremos la equivalencia entre temperatura y presión en los gases perfectos. Un gas perfecto se distingue de un vapor en que sólo el segundo puede ser licuado, merced a un simple aumento de presión. El gas perfecto necesita, además, ser enfriado hasta una temperatura llamada crítica para convertirse en vapor.

 EJEMPLO PRÁCTICO DE DILATACIÓN

Los gasómetros clásicos reciben en forma continua el gas producido por la fábrica, y lo distribuyen de acuerdo con el consumo. Se componen de un cilindro inferior fijo que recibe el gas y contiene cierta cantidad de agua; dentro de esta vaina se desliza, subiendo o bajando, un recipiente cilíndrico invertido, cuyo peso suministra la presión para las tuberías que distribuyen el fluido. Cuando se acumula mucho gas, el recipiente está alto; cuando la reserva declina, el recipiente desciende y la altura del gasómetro disminuye.

En un gasómetro reina pues una presión constante, la que engendra el peso de su recipiente superior. Se observa que si la temperatura se eleva en sólo dos grados, un gasómetro de 18 metros de altura crece en casi 13 cm. Este fenómeno se debe a la dilatación del gas, y es fácil de calcular a base de las explicaciones impresas sobre fondo rosado: por cada grado que se suma el volumen aumenta en 1/273 del que ocupaba a 0°. Basta multiplicar 18 metros por 2 grados y dividir por 273; para un cálculo más exacto se tendrá en cuenta las temperaturas ambientes, inicial y final. Recuérdese que el gasómetro se dilata sólo en altura, y no en las otras dos dimensiones.

En ciertos globos de juguete se enciende luego en la parte inferior para calentar el aire que contienen. El gas caldeado y dilatado es menos denso que la atmósfera que lo rodea, y entonces el artefacto asciende. La primera aeronave, la de los hermanos Montgolfier en 1783, se basaba en este principio. La separación de las moléculas en el gas caliente y la consiguiente disminución de densidad, explica el ascenso del humo por las chimeneas.

Globo aerostático

Cuando un gas se calienta, sus moléculas se agitan y tienden a separarse. Entonces, la masa gaseosa ocupa un volumen mayor, y, por ende, su peso específico (peso por unidad de volumen) disminuye. De aqui que el aire caliente sea más liviano que el frío y ascienda, hecho fundamental en meteorología. El primer viaje aéreo, el de los hermanos Montgolfier hace casi dos siglos, se basaba en este fenómeno.

Experimento con gases

Figura Arriba: Experimento para medir la dilatación de un gas cuando la presión que soporta no se modifica. Se sabe que dicha presión invariable se ha mantenido cuando las dos columnas de mercurio llegan a la misma altura, equilibrándose (si la presión del gas contenido en el matraz hubiera aumentado, empujaría al mercurio, en contacto con él). Se logra igualar las columnas de mercurio mediante el tubo inferior, de caucho. A la izquierda, el baño de agua es frió; a la derecha es caliente y el gas se dilata. Se restablece la presión anterior bajando la salida del tubo. Las mediciones de temperatura y dilatación se llevan a cabo con un termómetro y una regla.

Gráfica de gases

Figura 2. Hace un siglo y medio se midió empíricamente la dilatación de los gases a presión constante en la forma descrita en la figura 1. La experiencia, que consiste esencialmente en calentar un .matraz de gas seco dentro de un baño e igualar las presiones inicial y final, muestra que el volumen de un gas a 0°C se duplica cuando llega a los 273 °C, se triplica a los 564°C (2 x 273), y así sucesivamente. En suma, el coeficiente de dilatación de los gases es constante.

Los científicos de entonces dedujeron que si se enfriara un gas a 273°C bajo cero su volumen se anularía. Denominaron a dicha temperatura «cero absoluto»; el gráfico muestra, hacia la izquierda, esta prolongación teórica de los resultados experimentales (técnicamente, la extensión gráfica se llama «extrapolación» de los resultados).

La ciencia moderna confirma casi exactamente el valor del cero o fría absoluto. Los especialistas suelen emplear la llamada «escala absoluta», que comienza en dicho punto, y entonces se habla de «grados Kelvin»: por ejemplo 0°C es igual a 273°K, y así sucesivamente (basta sumar 273 a la temperatura ordinaria).

Pero es evidente que el volumen de un gas nunca puede reducirse a nada y, por añadidura, los gases se licuan antes de alcanzar el cero absoluto. Si tomamos un gas sometido a presión constante en los instantes 1 y 2, y llamamos V1, V2, T1 y T2 los respectivos volúmenes y temperaturas, podemos expresar matemáticamente la ley que establece que el volumen de un gas varía en relación directa con la temperatura absoluta, con

la fórmula siguiente: V1/T1=V2/T2.

Esta ecuación, que traduce la proporcionalidad entre volúmenes y temperaturas., se utiliza con frecuencia.

Fuente Consultada:

Revista TECNIRAMA N°17.

FÍSICA II Polimodal.

CONSULTORA Enciclopedia Temática Ilustrada Tomo 10 El Mundo Físico.

Descubrimiento de Nuevos Metales: Fosforo Cobalto y Niquel

HISTORIA DEL DESCUBRIMIENTO DE NUEVOS METALES EN EL SIGLO XVII

A pesar de todas estas trampas, la «era del flogisto» produjo algunos muy importantes descubrimientos. Un alquimista de aquel tiempo descubrió un nuevo elemento: el primer (y último) alquimista que, de una forma definida, identificó un elemento y explicó exactamente cuándo y cómo lo había encontrado. El hombre fue un alemán llamado Hennig Brand.

Algunas veces se le ha llamado el «último de los alquimistas», pero en realidad hubo muchos alquimistas después de él. Brand, al buscar la piedra filosofal para fabricar oro, de alguna forma se le ocurrió la extraña idea de que debía buscarla en la orina humana.

Recogió cierta cantidad de orina y la dejó reposar durante dos semanas. Luego la calentó hasta el punto de ebullición y quitó el agua, reduciéndolo todo a un residuo sólido. Mezcló tampoco de este sólido con arena, calentó la combinación fuertemente y recogió el vapor que salió de allí.

Cuando el vapor se enfrió, formó un sólido blanco y cerúleo. Y, asómbrense, aquella sustancia brillaba en la oscuridad. Lo que Brand había aislado era el fósforo, llamado así según una voz griega que significa «portador de luz».

Relumbra a causa de que se combina, espontáneamente, con el aire en una combustión muy lenta. Brand no comprendió sus propiedades, naturalmente, pero el aislamiento de un elemento (en 1669) resultó un descubrimiento espectacular y causó sensación. Otros se apresuraron a preparar aquella sustancia reluciente. El propio Boyle preparó un poco de fósforo sin conocer el precedente trabajo de Brand.

El siguiente elemento no fue descubierto hasta casi setenta años después. Los mineros del cobre en Alemania, de vez en cuando encontraban cierto mineral azul que no contenía cobre, como les ocurría, por lo general, a la mena azul del cobre.

Los mineros descubrieron que este mineral en particular les hacía enfermar a veces (pues contenía arsénico, según los químicos descubrieron más tarde). Los mineros, por tanto, le llamaron «cobalto», según el nombre de un malévolo espíritu de la tierra de las leyendas alemanas.

Los fabricantes de cristal encontraron un empleo para aquel mineral: confería al cristal un hermoso color azul y una industria bastante importante creció con aquel cristal azul. En la década de 1730, un médico sueco llamado Jorge Brandt empezó a interesarse por la química del mineral.

Lo calentó con carbón vegetal, de la forma comente que se usaba para extraer un metal de un mineral, y, finalmente, lo condujo a un metal que se comportaba como el hierro.

Era atraído por un imán: la primera sustancia diferente al hierro que se había encontrado que poseyera esta propiedad. Quedaba claro que no se trataba de hierro, puesto que no formaba  oxidación de tono pardo rojizo, como lo hacía el hierro.

Brandt decidió que debía de tratarse de un nuevo metal, que no se parecía a ninguno de los ya conocidos. Lo llamó cobalto y ha sido denominado así a partir de entonces. Por tanto, Brand había descubierto el fósforo y Brandt encontrado el cobalto (el parecido de los apellidos de los dos primeros descubridores de elementos es una pura coincidencia).

A diferencia de Brand, Brandt no era alquimista. En realidad, ayudó a destruir la Alquimia al disolver el oro con ácidos fuertes y luego recuperando el oro de la solución. Esto explicaba algunos de los, trucos que los falsos alquimistas habían empleado. Fue un discípulo de Brandt el que realizó el siguiente descubrimiento.

Axel Fredrik Cronstedt se hizo químico y también fue el primer mineralógolo moderno, puesto que fue el primero en clasificar minerales de acuerdo con los elementos que contenían. En 1751, Cronstedt examinó un mineral verde al que los mineros llamaban kupfernickel («el diablo del cobre»).

Calentó los residuos de este mineral junto con carbón vegetal, y también él consiguió un metal que era atraído por un imán, al igual que el hierro y el cobalto. Pero mientras el hierro formaba compuestos, pardos y el cobalto azules, este metal producía compuestos que eran verdes. Cronstedt decidió que se trataba de un nuevo metal y lo llamó níquel, para abreviar lo de kupfernickel.

Se produjeron algunas discusiones respecto de si el níquel y el cobalto eran elementos, o únicamente compuestos de hierro y arsénico. Pero este asunto quedó zanjado, en 1780, también por otro químico sueco, Torbern Olof Bergman.

Preparó níquel en una forma más pura que lo que había hecho Cronstedt, y adujo mi buen argumento para mostrar que el níquel y el cobalto no contenían arsénico y que eran, por lo contrario, unos nuevos elementos. Bergman constituyó una palanca poderosa en la nueva química y varios de sus alumnos continuaron el descubrimiento de nuevos elementos.

Uno de éstos fue Johan Gottlieb Gahn, que trabajó como minero en su juventud y que siguió interesado por los minerales durante toda su vida. Los químicos habían estado trabajando con un mineral llamado «manganeso», que convertía en violeta al cristal. («Manganeso» era una mala pronunciación de «magnesio», otro mineral con el que lo habían confundido algunos alquimistas.) Los químicos estaban seguros que el mineral violeta debía contener un nuevo metal, pero no fueron capaces de separarlo calentando el mineral con carbón vegetal.

Finalmente, Gahn encontró el truco, pulverizando el mineral con carbón de leña y calentándolo con aceite. Como es natural, este metal fue llamado manganeso. Otros discípulo de Bergman, Pedro Jacobo Hjelm, realizó mucho mejor este mismo truco con una mena a la que llamaron «molibdena».

Este nombre deriva de una voz griega que significa «plomo», porque los primeros químicos confundieron este material con mena de plomo. Hjelm extrajo del mismo un metal blanco argentado, el cual, ciertamente, no era plomo.

Este nuevo metal recibió el nombre de «molibdeno». El tercero de los discípulos de Bergman descubridores de elementos no fue sueco. Se trataba del español don Fausto de Elhúyar. Junto con su hermano mayor, José, estudió una mena pesada llamada «tungsteno» (palabra sueca que significa «piedra pesada»), o «volframio».

Calentando la mena con carbón vegetal, los hermanos, en 1783, aislaron un nuevo elemento al que, en la actualidad, según los países, se denomina tungsteno o volframio. Bergman tuvo todavía una conexión indirecta con otro nuevo metal.

En 1782, un mineralógolo austríaco, Franz Josef Müller, separó de una mena de oro un nuevo metal que tenía algún parecido con el antimonio. Envió una muestra a Bergman, como hacían los más importantes mineralógolos de su época. Bergman le aseguró que no era antimonio. En su momento, el nuevo metal recibió el nombre de telurio, de una voz latina que significaba «tierra». Mientras todos estos elementos hablan sido descubiertos en Europa, también iba a ser descubierto uno en el Nuevo Mundo.

En 1748, un oficial de Marina español llamado Antonio de Ulloa, cuando viajaba de Colombia a Perú en una expedición científica, encontró unas minas que producían unas pepitas de un metal blanquecino. Se parecía algo a la plata, pero era mucho más pesado.

El parecido con la plata (y tomando como base esta palabra española) hizo que se diese a este nuevo metal el nombre de platino. Al regresar a España, Ulloa se convirtió en un destacado científico y fundó el primer laboratorio en España dedicado a la Mineralogía.

También se hallaba interesado por la Historia Natural y por la Medicina. Además, acudió a Nueva Orleáns como representante del rey español, Carlos III, cuando España adquirió la Luisiana, que antes pertenecía a Francia, tras la Guerra India, en Estados Unidos.

Incluso los antiguos metales conocidos por los alquimistas tuvieron una nueva trayectoria en aquellos primeros tiempos de la Química moderna. En 1746, un químico alemán, Andreas Sigismund Marggraff, preparó cinc puro y describió cuidadosamente sus propiedades por primera vez; por tanto, se le ha atribuido el descubrimiento de este metal.

Probablemente, Marggraff es más conocido, sin embargo, por encontrar azúcar en la remolacha. Con un microscopio detectó pequeños cristales de azúcar en aquel vegetal, y, al mismo tiempo, proporcionó al mundo una nueva fuente de azúcar.

Marggraff fue el primero en emplear el microscopio en la investigación química. Lo que Marggraff había hecho con el cinc, lo realizó un químico francés, Claude-François Geoffrey, con el antiguo metal del bismuto. En 1753, aisló el metal y describió cuidadosamente su comportamiento, por lo que, algunas veces, se le ha atribuido el descubrimiento de este elemento.

LISTA DE ELEMENTOS QUÍMICOS DESCUBIERTOS EN EL SIGLO XVII: (Era del Flogisto)

Fósforo                             1669 Brand
Cobalto                             1735 Brandt
Platino                              1748 Ulloa
Níquel                               1751 Cronstedt
Hidrogeno                          1766 Cavendish
Nitrógeno                           1772 Rutherford
Oxígeno                             1774 Priestley
Cloro                                 1774 Scheele
Manganeso                         1774 Gahn
Molibdeno                           1781 Hjelm
Telurio                               1782 MüIIer Juan José de
Tungsteno                          1783 Elhúyar Fausto de Elhúyar

Fuente Consultada: En Busca de los Elementos de Isaac Asimov

USO DE LOS METALES EN LA INDUSTRIA

Aluminio Se usa desde hace pocas décadas y ocupa el tercer tugar detrás del hierro y el cobre. Utensilios, aleaciones livianas para aviación, cables eléctricos de alta tensión.
Antimonio: Endurece el plomo de los tipos de imprenta, productos medicinales. Ignífugos. Se dilata al enfriar.
Arsénico Insecticidas, productos medicinales, industria química.
Berilio Pigmentos, cristales, fuegos artificiales. Berilio Único metal liviano con alto punto de fusión, ventana para rayos X, industrias atómicas, aleaciones con cobre, resistentes a vibraciones externas.
Bismuto Aleaciones de muy bajo punto de fusión (37°C); productos farmacéuticos.
Boro Ácido bórico. Endurecimiento del acero.
Cadmio Endurecimiento de los conductores de cobre. Aleaciones de bajo punto de fusión. Galvanoplastia.
Calcio Materiales de1 construcción, sales diversas.
Cesio Materiales refractarios livianos, semiconductores, aleaciones duras y refractarias. Cesio Células fotoeléctricas.
Cinc Galvanoplastia,- pilas.
Circonio Usos atómicos, aceros, lámparas-flash.
Cobalto Piezas de cohetes y satélites, herramientas para altas temperaturas, radioisótopos.
Cobre Conductores eléctricos, bronces diversos.
Columbio Sólo en laboratorio. Duro y pesado.
Cromo Acero inoxidable, galvanoplastia. Estaño Envoltorios, soldaduras, bronces.
Estroncio Fuegos artificiales, refinerías de azúcar.
Galio Termómetros para alta temperatura (funde antes de los 35° y hierve a más de 1.900°C.
Germanio Transistores, válvulas termoiónicas.
Hafnio Filamentos de tungsteno.
Hierro Acero, construcción. El metal por excelencia.
Indio Galvanoplastia, aleaciones resistentes a los esfuerzos y la corrosión. –
Litio Aleaciones ligeras, pilas atómicas, síntesis orgánica.
Magnesio Aleaciones ligeras, productos medicinales, síntesis orgánicas.
Manganeso Aceros especiales (extrae el oxígeno y el azufre de la mezcla, dando un metal limpio y sólido). Usos químicos y eléctricos.
Mercurio Termómetros, barómetros, aleaciones dentarias (amalgamas).
Molibdeno Aceros especiales.
Níquel Bronces blancos, monedas, revestimientos de metales.
Oro Alhajas, monedas, espejos telescópicos.
Osmio Metal pesado para aleaciones de la familia del platino.
Paladio Aleaciones con el platino, aceros, catálisis química.
Plata Espejos, alhajas, bronces.
Platino Catálisis, contactos eléctricos, alhajas.
Plomo Aleaciones para soldaduras, cañerías, pinturas.
Plutonio Radiactivo, bomba atómica.
Polonia Radiactivo, compuestos luminosos.
Potasio Metal alcalino, fertilizantes.
Radio Radiactivo, medicina, pinturas luminosas.
Renio Pares termoeléctricos, sustituto del cromo en los aceros.
Rodio Aleaciones, cátodos, pares termoeléctricos.
Rubidio Productos medicinales.
Selenio Células fotoeléctricas, baterías solares.
Silicio Vidrio, aleaciones duras y refractarias.
Sodio Jabones, sal de mesa, bicarbonato de sodio.
Talio Compuestos químicos venenosos, insecticidas, raticidas
Tántalo Filamentos para lámparas, aleaciones refractarias.
Tecnecio Primer elemento producido por él hombre.
Teluro Semiconductores, fotopilas, aleaciones diversas.
Titanio Pigmentos, compuestos muy refractarios, aceros especiales.
Torio Radiactivo, aleaciones.
Tungsteno Filamentos para lámparas, herramientas duras.
Uranio Radiactivo, pilas atómicas.
Vanadio: Aceros Especiales

AMPLIACIÓN DEL TEMA
ALGUNAS GENERALIDADES SOBRE EL FÓSFORO:

Fue descubierto por Brandt en 1669 mientras buscaba la piedra filosofal cuyo objeto era transformar cualquier sustancia en oro. Obtuvo fosfato a partir de la orina, luego de un proceso laborioso. Pero el primer trabajo publicado con cierto fundamento científico pertenece a D. Krafft. El fósforo, como elemento, fue reconocido por Lavoisier en 1777.

El fósforo no se encuentra libre en la naturaleza, pero sí combinado en forma de compuestos inorgánicos como la fosforita (fosfato de calcio) y la fluorapatíta (fluofosfato de calcio).

El fósforo es el principal constituyente de los huesos y dientes; además se encuentra formando parte de los tejidos animales y vegetales y constituye parte de las fosfoproteínas y otros compuestos orgánicos.

La sangre, la yema de huevo, la leche, los nervios y el cerebro contienen fósforo en forma de lecitinas. Por esta razón, los animales y las plantas necesitan fósforo para desarrollarse.
Una parte del fósforo contenido en el organismo se elimina diariamente por la orina y los excrementos, en la proporción de 2 gramos cada 24 horas.

El uso más común del fósforo consiste en la fabricación de cerillas, las cuales son de dos tipos: comunes y de seguridad. Las primeras encienden por frotamiento sobre cualquier superficie áspera y se componen de un pabilo de algodón, madera o cartón, cuya extremidad está recubierta por una sustancia combustible compuesta con fósforo o sulfuro de fósforo, como sustancia inflamable, bióxido de plomo o clorato de potasio, como materia oxidante, dextrina y una sustancia colorante.

Los fósforos de seguridad, llamados también cerillas suecas, sólo contienen una mezcla oxidante, sin fósforo. Este último elemento se coloca sobre la superficie del raspador de la caja, de modo que para producir la llama es imprescindible que ambas partes se pongan en contacto. La mezcla con que se recubre el palillo contiene clorato de potasio como sustancia oxidante, trisulfuro de antimonio, cofa y algo de creta para aumentar la masa. La superficie del raspador contiene fósforo rojo, trisulfuro de diantimonio y vidrio para aumentar la aspereza.

Los abonos fosfatados son muy útiles en la agricultura. Se trata de una serie de sustancias naturales o artificiales que se agregan a las tierras agotadas para reponer en ellas las sustancias desaparecidas. Generalmente esas tierras han perdido (por excesivo cultivo o por acarreos), algunos de los elementos químicos indispensables, como el nitrógeno, fósforo, potasio o calcio, lo que las imposibilita para la plantación o la siembra.

Uno de los abonos más importantes por su riqueza en fósforo y calcio, es el fosfato neutro de calcio. Lamentablemente el fosfato tricoideo (como los huesos) no puede utilizarse porque es prácticamente insolubfe y entonces las plantas no pueden asimilarlo. Debe por lo tanto tratarse con ácido sulfúrico para convertirlo en difosfato monocálcico soluble.

Los huesos molidos (fosfato tricálcico), tratados con ácido sulfúrico, se tornan en sustancias solubles, es decir en fosfatos y sulfatos. Mezclados constituyen el abono denominado superfosfato de calcio.

En los laboratorios de las cátedras de química, durante las lecciones acerca del fósforo, se realizan importantes experimentos. El profesor muestra un trozo de fósforo rojo y otro blanco y hace notar sus diferencias de color, consistencia, solubilidad en sulfuro de carbono, fusibilidad, etc. Para esta última propiedad, se corta debajo del agua con un cortaplumas, un pedazo de fósforo blanco y otro de fósforo rojo. Sometidos ambos a la temperatura de 55°C, el fósforo blanco funde, en tanto que el rojo permanece inalterable.

Para demostrar la oxidación del fósforo en presencia del aire, se disuelve un trozo de fósforo blanco en sulfuro de carbono, se impregnan papeles con esta solución y se dejan secar sobre un trípode; evaporado el solvente, el fósforo se inflamará y con él, los papeles.

La oxidación en presencia del oxígeno: se echa un trozo dé fósforo en agua y se funde al baño de María; se hace circular una corriente de aire y se comprobará la inflamación.

La fosforescencia del fósforo se comprueba de la siguiente manera: se toma un matraz de un litro, se llena con agua hasta la mitad, y se coloca en su interior un trozo de fósforo blanco. Se lleva el agua a ebullición, se oscurece el cuarto y se observará, especialmente en el cuello del matraz, el fenómeno de la fosforescencia.

La diferencia de inflamabilidad entre el fósforo blanco y el rojo se comprueba como sigue: sobre una chapa de cobre de 30 centímetros de largo, dispuesta sobre un trípode, se coloca en cada extremo un trocito de fósforo blanco y rojo, respectivamente; se calienta el centro de la chapa con llama baja de un mechero Bunsen y se podrá observar la inflamación casi espontánea del primero y tardía en el segundo. Para comprobar la acción del cloro sobre el fósforo, se introduce en un frasco lleno de cloro una capsulita que contenga un trozo de fósforo blanco; se observa la inflamación espontánea del fósforo.

Los envenenamientos por el fósforo blanco, constituyen un riesgo para los obreros que trabajan en las fábricas que preparan el producto y de los que lo manejan y transforman.

Las fábricas de cerillas deben estar .muy bien ventiladas, pues las emanaciones fosforadas que, sin esa precaución, podrían aspirarse, intoxicarían más o menos a los operarios. Éstos deben cuidar mucho de la higiene, no comer sin lavarse bien las manos y cambiarse las ropas de trabajo. Será preciso que no dejen su comida dentro del local de la fábrica y a la hora del almuerzo buscarán en el exterior un lugar aireado.
Una dolencia muy común en los que trabajan con el fósforo, es la denominada necrosis fosfórica, que ataca al hueso dé la mandíbula y que suele necesitar operación quirúrgica.

Cuando sobrevienen envenenamientos por ingestión de fósforo, mientras llega el médico, puede administrarse una solución de 2 gramos de sulfato de cobre en un litro de agua, con frecuencia y abundancia, pues el cobre se depositará sobre las partículas de fósforo haciéndolo inofensivo o debilitando considerablemente su acción. Suprímase en absoluto la leche, los aceites y las grasas.

La fosfamina, que es un fósforo gaseoso, se prepara como sigue: en un baloncito de unos 300 ce. se ponen 20 ce. de potasa cáustica en solución acuosa concentrada y seis u ocho blobuliílos de fósforo; se cierra el baloncito con un tapón bihoradado que trae dos tubos acodados, uno estrecho que se sumerge en la potasa y otro ancho y largo (de desprendimiento), cuyo extremo anterior está doblado en U y el interior termina junto al tapón. Se hace pasar una corriente de hidrógeno y el tubo ancho se sumerge en un recipiente con agua caliente. Se calienta el baloncito hasta una ebullición moderada. Se desprende fosfamina.

Grande es la importancia que tiene en todo el universo la fabricación del fósforo, no tan sólo aplicable a la preparación de cerillas, abonos, etc., sino también como agente reductor.

El desarrollo cientifico y grandes inventos en el siglo XX

El Desarrollo Científico y Grandes Inventos en el Siglo XX

Los inventos en el siglo XX:  Desde el siglo XVII, momento en que se sitúa el nacimiento de la ciencia moderna, el progreso científico ha sido continuo. Pero es a lo largo del siglo XX cuando la investigación y la aplicación técnica de los conocimientos científicos se han desarrollado a un ritmo tan acelerado que ha transformado radicalmente la vida de los seres humanos.

En los últimos 20 años se han realizado más descubrimientos que en el resto de la historia de la Humanidad y la incorporación de principios científicos a tecnologías aplicables a la vida cotidiana se está produciendo a una velocidad incomparable con la del pasado.

La primera mitad del siglo veinte se caracterizó por el empleo de las mismas fuentes energéticas que en el siglo anterior, con el desarrollo adicional de la electricidad industrial y la búsqueda del dominio de la energía atómica.

TEMAS CIENTÍFICOS TRATADOS EN ESTE SITIO

 

En este periodo, las principales innovaciones tecnológicas fueron: en la industria, la invención creciente de aparatos domésticos, la obtención de nuevos materiales de construcción como el hormigón armado y el cristal, de fibras sintéticas para la producción textil, y de accesorios plásticos; en medicina, el hallazgo de sustancias contra las infecciones, como la penicilina y otros antibióticos; la mejora de los conocimientos en agricultura, alimentación y técnicas de conservación de alimentos; en el transporte la producción en serie del automóvil, que se convirtió en el medio predominante de locomoción, la invención del aeroplano; en los medios de comunicación el desarrollo de la cinematografía así como de la televisión creada a partir del invento del cinescopio en los años veinte.

En su segunda mitad, se ha roto con la división entre la ciencia abstracta y la aplicación técnica, con lo que la investigación científica deriva rápidamente en aplicaciones prácticas, primero en campos reducidos y, posteriormente, en la producción industrial de bienes de consumo. Así, los progresos científicos están cada vez más en el origen de los progresos técnicos, que constituyen uno de los principales motores del crecimiento económico. Además, la ciencia ha ampliado sus campos de investigación. El desarrollo, por ejemplo, de la estadística y de la informática, ha permitido transformar los métodos de cálculo y de análisis, que cada vez son menos lineales, con mayor atención a la multiplicidad de variables, con intervención de lo aleatorio y con análisis complejos. Todo ello permite aplicar métodos científicos también en las ciencias humanas (demografía, lingüística, estadística aplicada al análisis sociológico, etc.).

Desde finales de la Segunda Guerra Mundial los estudios sobre energía atómica procedente del uranio y el plutonio, desencadenaron una acelerada carrera armamentista protagonizada principalmente por Estados Unidos y la Unión Soviética, con la consecuente amenaza para la vida en el planeta que inauguró una época de temores ante una posible destrucción masiva, pero también amplió las posibilidades de desarrollo para la ciencia, con proyectos tecnológicos a gran escala. La Guerra Fría impulsó la carrera espacial y con ella la colocación de satélites artificiales que, aparte de su función militar, revolucionaron la tecnología de telecomunicaciones y prepararon el camino para la exploración del espacio donde se ha producido un logro tecnológico espectacular, al permitir que por primera vez los hombres pudieran abandonar la biosfera terrestre y regresar a ella.

Microelectrónica. En los primeros años de la década de 1950 comenzó a desarrollarse la microelectrónica como efecto de la aparición del transistor en 1948. Sin embargo, la microelectrónica sólo fue utilizada por el público en general hasta los años setenta, cuando los progresos en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la exploración del espacio, llevó al desarrollo del circuito integrado. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque más tarde la microelectrónica se desarrolló con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.

Tecnología computacional. En relación con la microelectrónica fue de gran importancia el surgimiento de la industria computacional; con la caída de los precios y el perfeccionamiento del chip de silicio producido en serie, surgieron las computadoras personales que, al poder colocarse sobre un escritorio sin necesidad de estar vinculadas a una unidad de procesamiento mayor, pudieron realizar muchas de las tareas de las computadoras centrales que eran mucho más caras.

Al contrario del impacto social negativo que algunos temían sobre el empleo laboral, las computadoras personales exigieron una capacidad de producción totalmente nueva y crearon nuevas fuentes de trabajo, en las ventas al menudeo, en la formación y apoyo técnico, en programación de sistemas tanto para el mercado de consumo como para las tareas especializadas para servicio a clientes individuales.

Durante la cuarta generación de computadoras (1982-1989), la medicina y la comunicación lograron un avance significativo. El hardware mejoró sustancialmente con los llamados sistemas circuitales distribuidos, las memorias de burbujas y los discos ópticos, obteniendo imágenes para uso médico y creando poderosísimas herramientas para la auscultación del paciente. En la quinta generación (1990-) o generación de las máquinas inteligentes se utiliza el concepto de inteligencia artificial (lA), con velocidades enormes por segundo.

REDES E INTERNET: El medio de comunicación conocido como Internet, que ha revolucionado el nutricio de las telecomunicaciones gracias a su capacidad de transmitir y obtener información de manera instantánea a través de computadoras personales, comenzó a desarrollarse a finales de los años sesenta, en el contexto de la Guerra fría, como una red informática que a su vez conectaba redes de computadoras de varias universidades y laboratorios de investigación en Estados Unidos, bajo el patrocinio de la Agencia de Programas Avanzados de Investigación (ARPA, de acuerdo a sus siglas en inglés) del Departamento de Defensa de Estados Unidos. En 1989 fue desarrollado World Wide Web por el informático británico Timothv Berners-Lee para el Consejo Europeo de Investigación Nuclear.

En los años noventa, gracias a los avances de la llamada “supercarretera de la información” se ha dado un vertiginoso crecimiento en la cantidad de usuarios de Internet, que ha cambiado de forma sorprendente la comunicación a distancia y ha colaborado a satisfacer las necesidades creadas por el mundo globalizado, al permitir que personas e instituciones puedan compartir información y trabajar en colaboración. El contenido disponible en Internet ha aumentado con gran rapidez y variabilidad, lo que permite encontrar fácilmente cualquier información, además de que posibilita la realización de transacciones económicas de forma segura, lo que ha tratado lluevas grandes oportunidades para el comercio.

Sin embargo, el crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a los riesgos que implica. El aumento de las páginas de Web conteniendo textos y gráficos en los que se denigraba a las minorías étnicas, se fomentaba el racismo o se exponía material pornográfico, ha suscitado fuertes críticas y ha conducido a peticiones de censura dirigidas a los suministradores de Internet para que voluntariamente cumplieran con determinados criterios. Otro elemento negativo de Internet se ha manifestado en la amenaza, hecha realidad en varias ocasiones, de que personas irresponsables inserten “virus” en la red causando graves daños en los equipos computacionales en el ámbito mundial.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letras escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museos, estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuentan con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y listo.

La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza. Internet constituye un instrumento importante para la movilización de capitales, ya que éstos pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Fibras ópticas: En la llamada “era de la información” no puede dejarse de lado el papel que desde los años ochenta ha tenido en diversas aplicaciones el uso de Fibras ópticas de cristal. Dada su capacidad para transmitir imágenes, las fibras ópticas se utilizan mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

En telefonía, las fibras ópticas han sustituido progresivamente a los cables coaxiales utilizados anteriormente; los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias, de manera que ofrecen mayores posibilidades para transportar un volumen mucho mayor de información con mayor velocidad de transmisión.

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Biotecnología. En el desarrollo de la biotecnología la técnica más importante es la ingeniería genética. Ésta se originó a partir de las investigaciones sobre la estructura del ADN realizadas por Francis Crick y James Dewey Watson en 1953. En la década de 1970 se llevó a cabo la transferencia de genes, es decir, la posibilidad de insertar genes de un organismo en otro, técnica de gran potencial que ha traído importantes beneficios en la lucha contra enfermedades como la hemofilia, la diabetes, la hepatitis o el SIDA. En 1973, 20 años después de que james Watson y Francis Chick publicaron el estudio de las bases moleculares del código genético, se insertó ADN extraño en la célula de un huésped, lo cual se conoce como donación de genes. El nacimiento de la oveja Dolly en 1997 fue posible gracias a la combinación del núcleo de una célula adulta de glándula mamaria con un óvulo sin núcleo, un proceso denominado “clonación

Los avances de la ingeniería genética que sin duda son de gran importancia para la ciencia médica, han provocado reacciones contrarias por parte de personas y grupos que advierten sobre los riesgos de orden ético que implica la donación aplicada a los seres humanos, como también se ha cuestionado otra innovación biotecnológica, la fertilización in vitro, debido a lo que puede significar para los valores religiosos la manipulación de embriones humanos, situación que en algunos países ha llevado al establecimiento de restricciones de carácter legal.

La biotecnología se divide en cuatro grandes áreas: alimentación, salud, medio ambiente e industria. En el campo de la salud, uno de los más importantes resultados es la fabricación de insulina humana a partir de una bacteria (1978). La insulina es una hormona proteica que se genera en el páncreas, y por su ausencia el azúcar se concentra en la sangre; a esta deficiencia se le conoce como diabetes, enfermedad que padecen millones de personas en el mundo. Actualmente se buscan nuevos tratamientos para la curación de ciertas enfermedades, sobre todo del cáncer.

MEDICINA: La medicina es un buen ejemplo del desarrollo científico y tecnológico de nuestro tiempo. Los beneficiarios de tales adelantos no dependen del país al que pertenecen, sino de su situación socioeconómica, geográfica o hasta racial. Los estudios e implantación de órganos se deben a la aclaración de los complejos fenómenos de la inmunología, lo cual permite el uso médico de los transplantes de órganos desde 1954, fecha en que se realizó el primer transplante de riñón. En la actualidad es posible el transplante de cualquier órgano.

En 1895 se utilizaron los rayos X para estudiar internamente al paciente. Son los precursores de la imagenología actual, utilizada en la resonancia magnética y nuclear, la tomografía axial computarizada, el ultrasonido diagnóstico y la medicina nuclear en todas sus formas. Técnicas importantes son también la angiografía por sustracción digital y otras de tipo terapéutico como la angioplastía, el marcapaso artificial que se instaló por vez primera en Suecia en 1958, la circulación y la diálisis extra-corpóreas.

Otro gran avance fueron las innovaciones en endocrinología, especial el descubrimiento de la insulina, que permitió salvar a muchos diabéticos de una muerte segura. También fue decisivo el hallazgo de la cortisona, que constituye un poderoso agente antiflamatorio y antialérgico.

Con el descubrimiento de los grupos sanguíneos y su tipificación, la transfusión de sangre se convirtió en un procedimiento seguro y eficaz, completada con el desarrollo de una sustancia -la heparina– que impide la coagulación sanguínea. Comenzaron también a aplicarse terapias efectivas para trastornos neurológicos, como la epilepsia y el mal de Parkinson.

En 1955, el estadounidense Jonas Salk descubrió una vacuna contra la poliomelitis a partir del trabajo con virus muertos. Diez años después, su compatriota Albert Sabin produjo una vacuna segura de virus vivos que sustituyó a la cíe su predecesor, erradicando así la última gran plaga infantil. También se descubrió que el sistema inmune era el causante de la enfermedad por factor RH y responsable del fracaso de los transplantes de órganos, técnica intentada en 1902 por Alexis Carrel pero que cobró fuerza en 1967, cuando el doctor Christian Barnard realizó en Sudáfrica el primer trasplante de corazón.

Los trasplantes, la sustitución de huesos y tejidos, los medicamentos antirrechazo y los avances en general de la tecnología médica -aplicaciones del rayo láser, la computación y la robótica-, junto a los éxitos de la anestesiología, ofrecieron un gran desarrollo de la cirugía y, en especial, de la microcirugía. También apareció la biotecnología moderna, aplicada al desarrollo de sustancias que elevan las defensas en caso de patologías cancerígenas. Sin embargo, la revolución sanitaria ha estado marcada por la desigualdad: sólo un 16% de la población mundial goza plenamente de sus éxitos. Según la Organización Mundial de la Salud, los países industrializados, que representan un 10% de las enfermedades, consumen el 90% de los recursos sanitarios.

El descubrimiento de la fisión del uranio culminó un proceso iniciado en 1896, cuando Henri Becquerel descubrió la radioactividad. Este fenómeno físico-químico mostró que algunos elementos -llamados radiactivos-se transformaban en otros, cercanos a ellos en la tabla periódica. El gran salto cualitativo lo dio el descubrimiento, en 1938, de que la fisión, o sea, la escisión del núcleo de un átomo en otros elementos, libera gran cantidad de energía.

El estudio de esta «transmutación» posibilitó el descubrimiento de la reacción exotérmica que genera la división de un núcleo atómico en otros de menor masa por el choque con ciertas partículas, como el neutrón. Por la fisión nuclear, un núcleo pesado como el Uranio 235 se divide en dos núcleos más ligeros cuando choca con él un neutrón. Al dividirse, el núcleo del uranio libera más neutrones, que colisionan a su vez con otros átomos de uranio, creando una reacción en cadena de gran poder radioactivo y energético.

En la Segunda Guerra Mundial, estos estudios se orientaron hacia su aplicación militar. De este modo, Estados Unidos obtuvo la mayor arma de destrucción masiva: la bomba atómica.


La gran hazaña: pisar la Luna En julio de 1969, la misión espacial estadounidense Apolo 11, llevando a bordo tres astronautas, llegó a la Luna. Para dar sus primeros pasos en el satélite de la Tierra, el hombre hubo de realizar un esfuerzo tecnológico sin precedentes: fabricar un potente cohete y diseñar un módulo lunar capaz de funcionar en el espacio. El astronauta Neil Armstrong camina sobre la superficie lunar.

Efectos negativos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos aspectos destructivos y perjudiciales derivados de la tecnología, y se argumenta que ello es consecuencia de la incapacidad de los gobiernos y las industrias para predecir o valorar los posibles efectos negativos del desarrollo acelerado de los productos tecnológicos.

La contaminación atmosférica, que proviene de muchas fuentes, principalmente de las centrales térmicas que queman combustibles fósiles, de los desastres nucleares y de los tubos de escape de los automóviles, está provocando el “efecto invernadero” o calentamiento de la superficie;

• los recursos naturales, incluso los no renovables como el petróleo, se están usando por encima de sus posibilidades;

• la destrucción masiva de selvas y bosques, que puede tener a largo plazo graves efectos en el clima mundial.

• los gases contaminantes, emitidos por los automóviles y las industrias, están provocando el adelgazamiento de la capa de ozono, lo que conduce a intensificar la radiación ultravioleta con graves peligros para la salud.

• pesticidas como el DDT amenazan la cadena alimenticia;

• la caza y pesca indiscriminadas, así como los derrames de petróleo en el mar, amenazan la supervivencia de especies animales en vías de extinción, como es el caso de la ballena;

• los residuos minerales usados por la industria están contaminando ríos, lagos y mares, así como las reservas de agua subterránea;

• el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen;

• en el aspecto social, la amenaza a ciertos valores, como la calidad de vida, la libertad de elección, la igualdad de oportunidades y la creatividad individual

Los grupos de presión ecologistas. La grave situación producida por los efectos negativos de la tecnología, ha provocado reacciones entre grupos ecologistas cada vez más influyentes, que en diversas formas se han manifestado en contra de las amenazas al medio ambiente y a la vida en el planeta. Aunque desde el siglo XIX se empezó a ejercer presión de estos grupos, logrando en Gran Bretaña la aprobación de leyes que limitaran la contaminación, en la segunda mitad del siglo veinte estos grupos comenzaron a exigir leyes más restrictivas, aunque en ocasiones eran poco realistas.

La acción de los ecologistas ha dada origen a un nuevo fenómeno político, la aparición de los partidos “verdes”, que en diversos países intentan atraer al electorado en relación al tema de la conservación del medio ambiente, concentrando su atención sobre todo en la producción de energía, cuyas industrias han presionado de dos maneras. Por un lado, han criticado a las centrales térmicas convencionales que utiliza combustibles fósiles como el petróleo, bajo el argumento de que los humos generados (compuestos sobre todo de dióxido de carbono y óxidos de nitrógeno) producen “lluvia ácida” que, a su vez, causan graves perjuicios a la vida vegetal y contaminan los ríos, además de que han sido señalados como causantes del efecto invernadero. Por otra parte, los ecologistas han organizado una tenaz resistencia contra el uso de cualquier forma de energía nuclear, sobre todo después del desastre de Chernobil.

Los gases desprendidos por el tubo de escape de los automóviles han sido señalados como otro grave factor de riesgo, con el peligro adicional de que su contenido de plomo puede afectar el desarrollo de las facultades mentales en la población infantil. Como consecuencia, muchos países han aprobado leyes destinadas a reducir gradualmente el contenido de plomo de la gasolina, con el propósito de llegar a eliminarlo totalmente.

Las constantes advertencias de estos grupos a través de los medios de comunicación, han obtenido algunas respuestas de los gobiernos a favor de reducir los contaminantes y cambiar la actitud hacia la vida animal y vegetal, buscando protegerla y detener su explotación indiscriminada.

Una alternativa que ya se ha hecho realidad en muchos países para resolver la problemática del agotamiento de los recursos naturales es el reciclado, que consiste en la transformación de los materiales sólidos o semisólidos que generan las actividades humanas, en nueva materia prima para uso industrial. Tales residuos se dividen en cuatro categorías: agrícolas, industriales, comerciales y domésticos. Además de la ventaja que el reciclado de residuos proporciona a favor de evitar el agotamiento de los recursos de la tierra, favorecen a las empresas industriales al mejorar los procesos de producción y reducir los costos de inversión.

A pesar de todas las alternativas planteadas y puestas en práctica para reducir los efectos negativos del avance tecnológico, aún falta mucho por hacer y se debe insistir una y otra vez en concientizar no sólo a los gobiernos y a las grandes empresas industriales, sino también al ciudadano común que de manera irresponsable abusa de la utilización de recursos naturales como el agua, arroja desperdicios a la vía pública y a los ríos, o por descuido provoca incendios forestales.

Es necesaria una profunda toma de conciencia sobre los graves riesgos que conlleva todo ese tipo de amenazas contra la vida en el planeta; sería paradójico y terrible que ésta llegara a su fin ya no por el estallido de una tercera guerra mundial desencadenada por los gobiernos poseedores de energía nuclear, como tanto se temió durante la Guerra fría, sino por un injustificable y fatal descuido de la especie humana en su conjunto.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

El Efecto Fotoelectrico Formulas Explicacion de la Teoría

El Efecto Fotoeléctrico  – Explicación de la Teoría – Fórmulas

Cuando Einstein recibió el Premio Nobel en 1921, fue su explicación sobre el efecto fotoeléctrico y no su artículo sobre la relatividad especial lo que se citaría. Quizá fuera debido en parte a la negativa de los científicos a aceptar la teoría especial después de tan poco tiempo. Aún así, su análisis del efecto fotoeléctrico en su artículo “Heurística de la generación y conversión de la luz” es de por sí un trabajo revolucionario. Al explicar un efecto que contradecía las creencias de su tiempo sobre la naturaleza de la luz, Einstein contribuyó a la visión global de hoy en día sobre el mundo subatómico, que no sólo el hombre de la calle, sino incluso los propios físicos tienen problemas en imaginar. (mas abajo ver: La historia del fenómeno)

EXPLICACIÓN Y FÓRMULAS DEL FENÓMENO FÍSICO DEL EFECTO FOTOELÉCTRICO

Este efecto, se trata de otro fenómeno que, al igual que la radiación de cuerpo negro, también involucra la interacción entre la radiación y la materia. Pero esta vez se trata de absorción de radiación de metales

EFECTO FOTOELECTRICO

Heinrich Hertz (1857-1894), científico alemán, fue el primero en observar el efecto fotoeléctrico, en 1887, mientras trabajaba en la generación de ondas de radio. Informó esta observación pero no se dedicó a explicarla

EFECTO FOTOELECTRICO Al incidir luz ultravioleta sobre el cátodo metálico (fotocátodo) se detecta el paso de una corriente eléctrica. Se trata de electro­nes que abandonan el cátodo (colector) y se dirigen al ánodo a través del vacío dentro del tubo. Los electrodos se hallan conec­tados a una diferencia de potencial de sólo unos pocos voltios.

 

EFECTO FOTOELECTRICO -1-

La teoría electromagnética clásica considera que la radiación de mayor intensidad (o brillo, si es visible), que corresponde a ondas de mayor amplitud, transporta mayor energía. Esta energía se halla distribuida uniformemente a lo largo del frente de onda. La intensidad es igual a la energía que incide, cada unidad de tiempo, en una unidad de superficie.

EFECTO FOTOELECTRICO -2

Con radiación ultravioleta de diferentes in­tensidades, los electrones salen del metal con la misma velocidad. La radiación más intensa arranca mayor número de electrones. Esta observación también resultaba inexplicable.

EFECTO FOTOELECTRICO -3

Con luz ultravioleta, aun de baja intensidad, los electrones son arrancados prácticamente en forma instantánea, aunque la Física clásica predecía un tiempo de retardo hasta que los átomos absorbieran la energía necesaria para expulsar el electrón. Con luz visible este fenómeno no se observa, aunque se aumente la intensidad de la luz y se ilumine durante mucho tiempo, como para que el átomo absorba bastante energía. Esta observación resultaba inexplicable.

EXPLICACION FISICA DEL FENOMENO

MAX PLANCK

Planck había llegado a la conclusión de que el traspaso de energía entre la materia y la radiación en el cuerpo negro ocurría a través de paquetes de energía. Sin embargo, no quiso admitir que la energía radiante una vez desprendida de la materia también viajaba en forma corpuscular. Es decir que siguió considerando a la radiación que se propaga como una onda clásica.

En 1905, Albert Einstein fue un paso más allá al explicar completamente las características del efecto fotoeléctrico. Para ello retomó la idea del cuanto de energía de Planck, postulando que:

 EINSTEIN

La radiación electromagnética está compuesta por paquetes de energía o fotones. Cada fotón transporta una energía E= v . h , donde v es la frecuencia de la radiación y h es la constante de Planck.

Cuando un fotón incide sobre el metal, transfiere toda su energía a alguno de los electrones. Si esta energía es suficiente para romper la ligadura del electrón con el metal, entonces el electrón se desprende. Si el fotón transporta más energía de la necesaria, este exceso se transforma en energía cinética del electrón:

Expresado en fórmula matematica es: Ecinética = h . v – Eextracción donde Eextracción es la energía necesaria para vencer la unión con el metal.

Esta teoría explica perfectamente los hechos observados:

1. Si la frecuencia de la radiación es baja (como en la luz visible), los fotones no acarrean la suficiente energía como para arrancar electrones, aunque se aumente la intensidad de la luz o el tiempo durante el cual incide.

EFECTO FOTOELECTRICO -4

Para cada tipo de material existe una frecuencia mínima por debajo de la cual no se produce el efecto fotoeléctrico.

2. Si la frecuencia de la radiación es suficiente para que se produzca el efecto fotoeléctrico, un crecimiento de la intensidad hace que sea mayor el número de electrones arrancados (por ende será mayor la corriente), pero no afecta la velocidad de los electrones.

Aumentar la intensidad de la luz equivale a incrementar el número de fotones, pero sin aumentar la energía que transporta cada uno.

3. Según la teoría clásica, habría un tiempo de retardo entre la llegada de la radiación y la emisión del primer electrón. Ya que la energía se distribuye uniformemente sobre el frente de la onda incidente, ésta tardaría al menos algunos cientos de segundos en transferir la energía necesaria. La teoría de Einstein, en cambio, predice que:

Una radiación de frecuencia adecuada, aunque de intensidad sumamente baja, produce emisión de electrones en forma instantánea.

Pasaron diez años de experimentación hasta que la nueva teoría fue corroborada y aceptada. Se determinó el valor de h a partir de experiencias de efecto fotoeléctrico y se encontró que concordaba perfectamente con el valor hallado por Planck a partir del espectro de radiación de cuerpo negro.

Desde ese momento los físicos aceptaron que, si bien la luz se propaga como si fuera una onda, al interactuar con la materia (en los procesos de absorción y emisión) se comporta como un haz de partículas. Esta sorprendente conducta es lo que se ha llamado la naturaleza dual de la luz. Esto muestra que las ideas surgidas del mundo macroscópico no son aplicables al inimaginable mundo de lo diminuto.

Ninguna rama de las ciencias físicas ha tenido tantas repercusiones filosóficas como la teoría de los cuantos, pues al descubrir un abismo, una discontinuidad radical en la estructura de la naturaleza, parece haber hallado también barreras infranqueables al entendimiento humano. Al trabajar en las oscuras interioridades del átomo, donde cada fenómeno tiene simultáneamente el doble aspecto de materia y de energía, los primeros teóricos de la física cuántica, Max Planck y Niels Bohr, descubrieron que la energía no se propaga de manera continua sino a saltos. Estos saltos o cuantos de energía configuran el sustrato de la realidad como una especie de granulado indivisible que pone en duda la continuidad de la materia.
Un lirio (arriba) y sus granos de polen (dcha.) enormemente amplificados sugieren de algún modo la realidad del mundo cuántico. Un microscopio electrónico nos revela la minuciosa estructura del polvo de polen; mas, a nivel subatómico —como se aprecia en el recuadro menor, que representa la estructura de un cristal de iridio fotografiado mediante un microscopio ultramoderno (hasta el momento, la realidad fotografiable más semejante al átomo)—, lo que parece una sólida arquitectura fija es, en realidad, un sistema de intercambios energéticos, que acaecen a velocidades inimaginables en repentinos y discontinuos saltos.

APLICACIÓN: LA CÉLULA FOTOELÉCTRICA
En 1887, Hertz había notado que la luz, al iluminar ciertas substancias, extraía de éstas partículas dotadas de carga negativa, es decir, electrones. Éste fue el efecto fotoeléctrico que hizo posible, al comienzo de nuestro siglo, el nacimiento de maravillas como la telefotografía, es decir, la transmisión a distancia de fotografías (Korn, 1907); el film sonoro (De Forest, 1923); la televisión (B.aird, 1925).

En 1888, el físico Hallwachs descubrió que un electroscopio se cargaba de electricidad cuando sus hojitas eran iluminadas por rayos ultravioletas. Este fenómeno, que fue llamado efecto Hallwachs, permitió construir un dispositivo mágico que, cuando es tocado por una luz o una radiación del mismo tipo, produce corriente eléctrica: la célula fotoeléctrica.

Esta célula fotoeléctrica está constituida por un electrodo metálico cubierto por una substancia que emite fácilmente electrones cuando  iluminada; los electrones recogidos por otro electrodo formado por una partícula metálica, y así origina una corriente eléctrica cu intensidad es proporcional a la intensidad de la iluminación, y que, natural mente, se interrumpe cuando la iluminación cesa.

La célula fotoeléctrica es de fácil construcción y muy económica, es ya uno de los aparatos funda mentales de la civilización mecánico Tiene una infinidad de aplicaciones y ejecuta trabajos realmente prodigiosos. Por ejemplo, supongamos que hay que introducir cien paquetes de cigarrillos en una caja. Una cinta de goma lleva en fila los paquetes y los vuelca en la caja; una célula fotoeléctrica es iluminada con un rayo de luz que es interrumpido por el paso de cada uno de los paquetes de cigarrillos. A la misma está conectado un dispositivo que cuenta y que, al registrar cien interrupciones de luz, da orden de cambiar la caja. Se dirá que también un hombre puede hacer el mismo trabajo. Naturalmente; pero la célula puede contar cien paquetes por segundo-sin cansarse y sin equivocarse.

Las células fotoeléctricas sirven, sobre todo, en los casos en que es necesario un centinela. Así, las células señalan el paso de personas a través de puertas, disparan dispositivos de alarma, bloquean las máquinas cuando el operador se acerca a partes peligrosas, y hasta intervienen en la seguridad de nuestras casas. En efecto, todas las instalaciones de calefacción a nafta poseen una célula que controla que el hogar se mantenga encendido. Si la llama se apagara, sería peligroso continuar inyectando el combustible, de modo que si la célula no ve el resplandor de la llama, detiene el flujo.

HISTORIA DEL EFECTO FOTOELÉCTRICO
El primer investigador que mencionó un efecto fotoeléctrico superficial fue Hertz, en 1887. Un año después, Hallwachs, basándose en los resultados de Hertz, encontró que una lámina de cinc pulida aislada retenía una carga positiva, puesta de manifiesto con un electroscopio, pero, sin embargo, perdía una carga eléctrica negativa, si bajo las mismas condiciones era iluminada por la luz de un arco de carbón.

Demostró también que sólo la luz ultravioleta era la responsable de este efecto. Más adelante, Elster y Geitel demostraron que había algunos metales (sodio, potasio) que eran sensibles a la luz visible, y fueron capaces de construir células fotoeléctricas muy sencillas. Ellos establecieron que la corriente fotoeléctrica a través de sus células era directamente proporcional a la intensidad de luz dentro de un cierto intervalo.

A fines del siglo XIX (en 1899), P. Lenard y J. J. Thomson, independientemente, demostraron que los portadores de electricidad negativa arrancados de las superficies metálicas eran electrones. Por su parte, Lenard demostró que la energía de los electrones arrancados no dependía de la intensidad de la luz, mientras que el número de electrones era proporcional a dicha intensidad. Estos resultados, que no podían ser explicados por la teoría ondulatoria de la luz, llevaron a Einstein a formular una nueva teoría sobre la naturaleza de la luz, en 1905.

Einstein sugirió que la luz podía considerarse como compuesta por pequeñísimos corpúsculos, cuantos de luz o fotones, cada uno de los cuales tenía una cantidad de energía igual a h v, donde h era la famosa constante de Planck,  y v  la  frecuencia  de  la luz.

Cuando la luz era absorbida por el metal, el corpúsculo luminoso desaparecía como tal, pero transfería su energía al electrón dentro del metal, con el cual había chocado, y éste entonces podía escapar si la energía del corpúsculo de luz era superior a la energía con que el electrón estaba unido al metal. Por esta teoría, Einstein recibió, años más tarde, el premio Nobel.

La intensidad de un rayo luminoso viene dada por el número de fotones; por lo tanto, cuanto mayor sea la intensidad, mayor será la energía total que llegue a la superficie del metal. Sin embargo, no importa el número de fotones que choquen con la superficie, porque, si su energía individual es baja, no pueden arrancar ni un solo electrón.

Cuando la energía de los fotones es individualmente superior al umbral, entonces cada uno puede arrancar un electrón y, en este caso, cuanto más intensa sea la iluminación, mayor será el número de electrones arrancados y más intensa la corriente fotoeléctrica. Los materiales como el selenio se utilizan para los fotómetros porque tienen un umbral bastante bajo, y todos los fotones de luz visible tienen suficiente energía para liberar electrones.

Es posible obtener materiales que sean sensibles incluso a la luz infrarroja recubriendo sus superficies de un modo especial. Si se oxida cesio metálico de manera especial, y se deposita sobre una película muy delgada de plata, toda la estructura de la superficie se altera y hace falta una pequeña cantidad de energía para arrancar un electrón.

Este tipo de material puede utilizarse en instrumentos para registrar la recepción de luz infrarroja invisible. Desde el punto de vista de aplicación del efecto fotoeléctrico, la combinación de la célula fotoeléctrica con el amplificador termoiónico ha proporcionado un mecanismo sensible a la luz, que hizo posible la realización de adelantos científicos tales como la televisión, el cine sonoro y la transmisión de fotografías por telégrafo.

Ondas y paquetes
La luz se compone de «paquetes» básicos de energía, llamados fotones. Bajo ciertas circunstancias, éstos actúan como si fuesen objetos sueltos. En condiciones distintas, la luz se comporta como una onda continua de energía. Otra de sus características es que si, por ejemplo, una persona parada a 10 m de distancia de una lámpara, se aleja a 20 m de ésta, la luz que recibirá no será la mitad, sino la cuarta parte de la que recibía en un principio. Ello se debe a que la luz se propaga en círculos, y al duplicarse la distancia tiene que cubrir cuatro veces la misma área. La fuerza de gravedad disminuye de igual manera y, según proponen los científicos, también se desplaza en forma de partículas, de ondas o de ambas; aunque ninguna de éstas ha sido descubierta todavía. Así que la paradoja subsiste: pese a saber exactamente lo que hace la gravedad y poder predecir sus efectos con precisión, se desconoce lo que es en realidad. La más familiar de las fuerzas que gobiernan el universo resulta ser la más misteriosa.

.(leer mas sobre la historia del fenómeno)

Formula de Heron Area del Triangulo Biografia Heron de Alejandria

Fórmula de Herón – Área del Triángulo – Biografía

HERON DE ALEJANDRÍA:

HERON DE ALEJANDRÍA:

Herón de Alejandría (s. I ó II d.C.) fue el inventor de la máquina de vapor. A partir del siglo XVIII muchas máquinas empezaron a funcionar gracias a la energía que se obtiene del vapor de agua.

Diecisiete siglos antes, Herón de Alejandría ya utilizó las posibilidades energéticas del vapor. Su «máquina de vapor» era una esfera hueca a la que se adaptaban dos tubos curvos.

Cuando hervía el agua en el interior de la esfera, ésta giraba a gran velocidad como resultado de la ley de acción y reacción, que no fue formulada como tal hasta muchos siglos más tarde. Pero a nadie se le ocurrió darle al invento más utilidad que la de construir unos cuantos juguetes.

Podemos decir que el mayor de los experimentadores de la antigüedad fue ciertamente Herón. quien escribió sus obras alrededor del año 130 antes de Jesucristo.

Buen matemático, Herón adopta la división del círculo en 360 grados propuesta por Hiparco de Bitinia; excelente pedagogo, funda una auténtica escuela politécnica en Alejandría con una sección consagrada únicamente a los estudiantes dedicados a la investigación.

Para Herón no existe el vacío absoluto y el aire es un cuerpo de gran elasticidad susceptible de presión y depresión. Así explica los aparatos de succión como la pipeta, los recipientes de desagüe constante y las fuentes intermitentes.

Da la explicación de la ventosa y. al igual que Filón, emplea una máquina de aire caliente para impulsar el agua. Herón se ha hecho célebre sobre todo por su eolípila que, por primera vez, utilizaba la fuerza expansiva del vapor de agua y el principio de la reacción.

Este aparato ha sido descrito multitud de veces. Recordemos que se trata de un huevo de cerámica colocado entre dos pivotes laterales y provisto de dos tuberías acodadas. Se calienta el agua que hay en el interior de este huevo y al escaparse el vapor por las tuberías hace que el huevo gire sobre sus pivotes.

En mecánica. Herón resuelve por medio de engranajes el problema de Arquímedes consistente en levantar 1.000 kg. con ayuda de 5 kg. Construye el paralelogramo de las velocidades, inventa el principio del funicular, estudia los misterios del plano inclinado y los de la fricción.

En nuestros días, algunos pioneros del automóvil han aplicado su dispositivo de rueda de fricción para asegurar a los vehículos una transmisión automática. Con todos estos ingenios, Herón demuestra que «lo que se gana en fuerza se pierde en forma de tiempo».

Por otra parte, enuncia la ley de la inercia y encuentra que la fuerza es proporcional a la masa de lo que se mueve y a la velocidad de que está animado. Es ya la prefiguración del gran principio de la mecánica clásica:F= m.a

Los constructores de obras de arte deben a Herón unas tablas de medidas utilizables en el montaje de las bóvedas y en la perforación de túneles y pozos. Los aficionados a la anécdota están intrigados por los autómatas que el gran físico construía para distraerse: curruca que bate las alas y canta cuando se empujan las puertas de un templo, funcionamiento de puertas accionadas por el aire caliente que se eleva del fuego de los sacrificios, etc.

Dejando aparte estas distracciones, hemos de ver en Herón un maestro en el arte de las medidas y un fundador de la mecánica general.

La ingeniosidad mecánica de los alejandrinos aparece en la reconstrucción de estos autómatas hecha por el padre Kircher en su obra «Oedipus Aegyptiacus» publicada en Roma en el siglo XVII y basada en los escritos de Herón. Los científicos están divididos en cuanto a la estimación de la potencia motriz que los movía. Puede suponerse que los pesos, los sifones y la presión del aire caliente están para algo.
El pájaro que mueve las alas  ha podido ser accionado por medio de pesas, las clepsidras  estaban animadas por una corriente de agua cuidadosamente regulada, mientras que el aire calentado por las velas hacía brotar la leche de los senos de la diosa .
https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

En su Métrica demostró la fórmula de su nombre:
FORMULA DE HERON PARA CALCULO DE ÁREA DE CUALQUIER TRIANGULO:

AREA=formula de HerónDonde: a,b,c son lo lados del triangulo,   s es el semi-perimetro s=(a+b+c)/2

Para el área de un triángulo, donde a, b y c representan sus tres lados y s su semi-perímetro. La fórmula, que constituye el principal mérito matemático de Herón, es fácil de demostrar con ayuda de trigonometría.

Herón de Alejandría (c. 20-62 d.C.), matemático y científico griego, pero puede considárselo como un ingeniero. Su nombre también podría ser Hero (aproximadamente 18 escritores griegos se llamaron Hero ó Herón, creándose cierta dificultad a la hora de su identificación). Herón de Alejandría nació probablemente en Egipto y realizó su trabajo en Alejandría (Egipto).

En nuestros días, el renombre de Herón se debe, sobre todo, a sus deliciosos tratados sobre autómatas griegos y juguetes hidráulicos, como la paradójica «fuente de Herón» donde un chorro de agua parece desafiar la ley de la gravedad, pues brota más alta que su venero.

Escribió al menos 13 obras sobre mecánica, matemáticas y física. Inventó varios instrumentos mecánicos, gran parte de ellos para uso práctico: la aelípila, una máquina a vapor giratoria; la fuente de Herón, un aparato neumático que produce un chorro vertical de agua por la presión del aire y la dioptra, un primitivo instrumento geodésico.

EJEMPLO ONLINE DE LA FORMULA DE HERON:

Los barcos mercantes medievales, construidos según el modelo de los navíos romanos, empezaron a realizar largos viajes en el siglo XII , escoltados por galeras ligeras. Estos navíos tenían un castillete en la proa y otro en la popa; su velamen, hábilmente dispuesto, podía aprovechar hasta los vientos más leves.

Se transformaron después en carabelas de poco tonelaje, como la Niña y la Pinta de Colón, o en enormes naves de tres palos. Durante las cruzadas se abrieron anchas puertas en los costados de las suaves para poder embarcar o desembarcar caballos.

Observemos que la existencia del Occidente cristiano se debe en buena parte a las galeras y a todos los barcos impulsados a remo. En efecto, después de un millar de años de guerras inútiles, los occidentales comprendieron que debían unirse contra el poderío turco, cada vez más amenazador.

El 7 de octubre de 1571, en aguas de Lepanto (Grecia), la flota cristiana, al mando de don Juan de Austria, se enfrentó con más de doscientas naves turcas. Españoles, venecianos, genoveses y pontificios, unidos ahora por una causa común, lanzaron sus galeras al ataque; los cañones tronaron durante largas horas y, al atardecer, cincuenta barcos turcos estaban en el fondo del mar y 117 habían sido apresados. La derrota de Lepanto debilitó el poder del Sultán. Europa tomó el impulso hacia la supremacía mundial que debía conservar durante siglos.

La navegación a vela era un arte muy difícil; reclamaba rapidez en el cálculo, conocimiento del mar y de los vientos, inteligencia y coraje.

En el siglo, XIV el descubrimiento de la brújula y su perfeccionamiento por Flavio Gioja, de Amalfi, alrededor del año 1300, inauguraron el segundo ciclo de la navegación. Gracias a ese instrumento maravilloso, Europa podía aventurarse a descubrir tierras desconocidas. Se empezó por las Canarias, Maderas, las Azores, las islas del Cabo Verde, y se concluyó con las Indias Orientales y América.

Cuando en la noche del 15 de marzo de 1493 la Niña ancló de regreso en aguas de Palos, nadie tuvo una clara visión de la importancia del hecho. El mismo Colón no se había dado cuenta de que el voluminoso cuaderno de bitácora que llevaba bajo el brazo abría una nueva era para la humanidad.

En 1497, Vasco de Gama dobló el cabo de Buena Esperanza. En 1520, Magallanes y Elcano encontraron, en el extremo sur de América, un estrecho que les conduciría al Pacífico. Las grandes rutas del mundo quedaban abiertas, Pero la navegación de alta mar, sin puertos donde recalar, tornaba inadecuado el empleo de los remos. El uso de las velas cuadradas se difundía cada vez más, y el velamen, al disminuir sus dimensiones, acrecentaba la posibilidad de mejores maniobras, más rápidas y de mayor seguridad.

En el siglo XVI, el invento de la corredera (instrumento para medir la velocidad de los barcos) y de las nuevas cartas de navegación, permitieron a los marinos calcular su ruta con mayor exactitud. Los progresos realizados en los instrumentos de la astronomía náutica y en los cronómetros aumentaron la seguridad.

Al final del siglo XVIII , gracias a los sextantes, aparatos que sirven para medir ángulos y distancias, a los relojes marinos y a las cartas de marear, los barcos siempre podían establecer su posición con exactitud.
Entre tanto las carabelas, las galeras, las grandes carracas y las naves ligeras llamadas caiques habían desaparecido o se las había transformado.

Los galeones españoles que realizaban un activo comercio entre América y España fueron construidos según el modelo de los antiguos navíos y tenían una arboladura —artimón, palo mayor y trinquete— que soportaba un velamen poderoso. El viento los impulsaba gracias a la eficaz disposición de las velas. Esas naves tenían un castillo de popa donde estaba el puente de mando; iban fuertemente amadas para hacer frente a cualquier peligro.

Francia, España, Inglaterra y Holanda estuvieron casi continuamente en guerra durante 200 años. Piratas y corsarios se aventuraban a través de los mares y se ensañaban con los barcos que apresaban y saqueaban. Los jefes musulmanes consideraban esa clase de bandolerismo como una profesión.

Después del galeón, demasiado pesado y sobrecargado, se construyeron naves más esbeltas, que hoy se llamarían hidrodinámicas. El velamen era más alto y facilitaba las maniobras; gracias a él, las embarcaciones se deslizaban más velozmente. Pero los constructores navales no habían sido nada más que buenos carpinteros y desconocían muchos problemas de la arquitectura náutica.

En el siglo XVIII , la Academia de Ciencias de Francia llamé a concurso a los grandes estudiosos de la geometría para mejorar la forma, el velamen, la distribución de la carga y la propulsión. El ingeniero Sané, francés, construyó los mas perfectos navíos de alta mar. Durante las guerras de la Revolución Francesa, varios de ellos cayeron en manos de los ingleses que los utilizaron como modelo.

Generalmente las velas toman el nombre del palo que las sostiene. Hay velas cuadradas (como la gran vela y el trinquete), trapezoidales o cangrejas como las gavias del mastelero mayor y los perroquetes, y triangulares como los foques y las latinas. Relativamente sencilla en las goletas o en los bergantines, la navegación era un arte muy difícil en los barbos de gran calado. Cada una de sus velas debía ser orientada exactamente según la dirección y las variaciones del viento, para alcanzar el máximo de velocidad con el mínimo de riesgo.

En la época de la navegación a vela, la vida de los marinos era muy penosa. De noche o de día, a menudo en plena tormenta, los gavieros (grumetes de vigía) debían trepar y aferrarse a la arboladura, orientar o amurar las velas, mientras otros tripulantes debían maniobrar los pesados palos horizontales cada vez que la nave cambiaba de rumbo.

En los navíos del Estado la alimentación no era buena y a menudo se echaba a perder en los largos cruceros por los mares cálidos. Sin embargo, la pasión por el mar era tan fuerte que hacia olvidar todas las penurias.

Los barcos se clasificaban en primera, segunda y tercera categoría, según el tonelaje y el armamento. En el siglo XVIII , los navíos de línea estaban artillados con cien cañones y desplazaban seis mil toneladas, y las fragatas estaban armadas con piezas de artillería cuyo número oscilaba entre treinta y sesenta. Para escolta y exploración se empleaban naves más pequeñas como las corbetas, los bergantines y las embarcaciones ligeras de un solo palo llamadas cuteres”.

A principios del siglo XIX, la navegación a vela alcanzó su apogeo con los grandes barcos rápidos y seguros que a gran velocidad cruzaban los océanos con su velamen desplegado.

En ese entonces se creía que los barcos de vapor—se los llamaba aún “piróscafos”— sólo podrían servir para la navegación fluvial. En nuestros días, únicamente por depone navegamos, corremos regatas y realizamos cruceros en barcos a vela.

¿Acaso podemos comprender, de este modo, los sacrificios, angustias y penurias de los antiguos navegantes? … Para tener una leve idea, espiemos un poco en el libro de viajes de Colón: “En ochenta días de espantable tormenta no vi el sol ni las estrellas del mar: los navíos tenían rumbos abiertos, rotas las velas, perdidas anda y jarcia, y barcas y bastimentos. La gente enferma. Ahí estaba Fernando, mi hijo, con sus trece años. De verlo, el dolor me arrancaba el alma”

Cuadro Comparativo De Los Barcos en la Edad Moderna

Fuente Consultada: Lo Se Todo Tomo III

Historia del Uso del Vapor en los Barcos Navegacion Maritima

Historia del Uso del Vapor en los Barcos

La Revolución Industrial, que comenzó en Inglaterra a fines del siglo XVIII, utilizó el vapor como su principal fuente de energía. El descubrimiento se aplicó, en un primer momento, a las máquinas mineras y a las textiles, consiguiendo en ambos casos un aumento notable en la producción. Pronto, sin embargo, los inventores orientaron sus esfuerzos a mejorar los transportes tanto terrestres como marítimos.

El ferrocarril, en el primer caso, y el barco de vapor, en el segundo, fueron los dos principales productos de aquellos afanes y los que revolucionaron las comunicaciones en el siglo XIX. Una de las consecuencias directas de esos inventos fue el acortamiento de las distancias y la posibilidad de hacer más efectivo el control de los países centrales sobre sus colonias.

Aunque los primeros intentos de aplicación del vapor a la navegación fueran tan antiguos como los primeros ensayos de locomotoras, la difusión y el triunfo de la propulsión por vapor fueron mucho más lentos en el mar que en tierra firme. La próxima evidencia de progreso fue la aparición de barcos sin vela que comenzaron a surcar en ambos sentidos todos nuestros ríos.

Los espectadores apiñados a lo largo de los ríos Delaware, Hudson, y a veces el Ohio y Misisipí, se asombraban de ver barcos que avanzaban velozmente contra el viento y la corriente. Los horarios diarios de los nuevos barcos, que navegaban a una velocidad fija, nos dieron nueva conciencia del tiempo. El hombre empezó a acelerar sus actividades para no perder terreno ante la puntualidad de la máquina. Fue el amanecer de la era de la velocidad.

Ya en 1783 el francés Claude Francpis había obtenido éxito al crear su «Pyroscaphe», un barco de vapor con ruedas de paletas. Pese a ello, su logro no tuvo futuro. El impulso prosiguió en Estados Unidos, donde John Stevens botó en 1809 el «Phoenix» en aguas del Atlántico, y en 1811 el primer barco de vapor surcó el Ohio, un río afluente del Missouri.

La construcción naval tradicional de madera fue sustituida por la de hierro y el acero. En 1822, los norteamericanos botaron el primer barco de hierro, el «Aarón Mamby». Y, entre 1838 y 1844, estadounidenses y británicos se lanzaron a una carrera de competencia naval y botaron, respectivamente, el «Iron Side» y el «Great Britain», este último dotado de propulsión a hélice. Esos barcos batieron récords de velocidad e impulsaron el comercio mundial a gran escala.

https://historiaybiografias.com/linea_divisoria4.jpg

PRIMERAS EXPERIENCIAS: El barco de vapor que cumplió la hazaña más espectacular fue construido por Oliver Evans, un cafetero de Philadelfia. Sus esfuerzos se encaminaron en lograr un vehículo que pudiera marchar tanto en el agua como en la tierra. Necesitaba una máquina que pudiera accionar de igual modo ruedas de paleta y las ruedas de un carro, y que fuese más pequeña que una máquina de Watt. ¿Pero cómo conseguir suficiente energía de una máquina más pequeña?.

Para la solución bastó con determinar los principios básicos. La máquina atmosférica de Newcomen utilizaba vapor para crear un vacío en un cilindro pero no para empujar los pistones. La máquina di movimiento alternativo de Watt usaba vapor pan empujar el pistón. Evans pensó que cuanto más alfa fuese la temperatura, más fuerte sería el bombar deo de vapor sobre las cabezas de los pistones.

La idea de Evans fue darle más presión al vapor me dianíe elevación de la temperatura y la inyecciói del vapor á cada extremo del cilindro. De esta ma ñera podría acelerar el movimiento del pistón, muí tiplícando la energía disponible hasta el punto de lograr que la máquina fuese más pequeña y propor cionase mayor potencia.

Evans anunció luego que pondría su nueva má quina sobre ruedas para hacerla ir a vapor desde el centro de la calle del Mercado a la orilla del río Delaware, donde las paletas movidas por el vapor se transformarían en un barco de vapor. Miles de curiosos de Filadelfia acudieron a presenciar este sensacional espectáculo de un carro anfibio de vapor que realmente andaba tanto por tierra como en el agua. Pero fue verlo y olvidarlo.

El monstruo era demasiado raro para que el público lo aceptara. Con sus eruptos, el humo daba más la impresión de peligro que de utilidad. A Oliver Evans debe reconocérsele el honor de haber obtenido la primera patente estadounidense por un coche de autopropulsión. El monstruo de 21 toneladas fue el prime automóvil.

Si observamos la composición de la marina británica (que en el siglo XIX era la más importante y la más avanzada del mundo) veremos que en 1820 había sólo 34 vapores frente a unos 22.000 veleros y en 1850 poco más de un millar de vapores contra más de 25.000 embarcaciones de vela: el número de vapores no sobrepasó al de velero: hasta la primera década del siglo XX.

Robert Fulton estaba en París, tratando de vender a Napoleón su submarino que acababa de inventar. El embajador de Estados Unidos convenció finalmente al joven Fulton, a la sazón un conocido pintor y a la vez aprendiz de James Watt, de que debía construir un buque de vapor en el Sena. Discononforme con su obra, Fulton viajó a Escocia para estudiar un nuevo barco de vapor que acababa de iniciar sus viajes diarios por el río Clyde.

Fortificado con su nuevo conocimiento, Fulton regreso a Nueva York y construyó el «Clermont», que marcó una etapa en la historia de la navegación de por con su memorable viaje por el Hudson. Esta vezel público aceptó la navegación de vapor sin reservas, convirtiéndola en una lucrativa actividad mercantil.

Robert Fulton A finales de 1803, Robert Fulton lanzó al Sena un barco cuyo propulsor era una rueda con paletas, movida por una máquina de vapor, fue mal acogido en Francia, y Fulton prosiguió sus experimentos en Estados Unidos, en 1807 bota su vapor Clermont.

Fulton recorrió en él los 240 Km. que separan Nueva York de Albany surcando el río Hudson. Con este mismo barco, se establecería el primer servicio regular a vapor.

Sena barco a vapor

Los inconvenientes del vapor aplicado a la navegación eran evidentes. Las calderas resultaban peligrosas para los cascos de madera de los barcos, tanto por el riesgo de incendio como por las consecuencias de sus vibraciones.

Por otra parte, eran de funcionamiento harto irregular y requerían una gran carga de combustible: en uno de sus primeros viajes, el Real Fernando, el primer buque de vapor español, consumió más carbón del que se había calculado y hubo de detenerse en medio del Guadalquivir y enviar una barca a buscar combustible a una venta cercana al río. Y en cuanto a la marina de guerra, el vapor no fue aplicable más que un vez que se hubo perfeccionado la hélice, ya que las ruedas propulsoras eran muy vulnerables a la artillería.

Las primeras líneas de navegación con buques de vapor se destinaron a cubrir trayectos fluviales, donde las embarcaciones de vela resultaban de escasa utilidad, o pequeñas travesías en mares interiores, donde la relativa regularidad que el vapor prestaba su independencia de las condiciones meteorológicas era un factor estimable (lo que explica que se le confiase el correo).

En 1821 se emplearon vapores para la travesía de Dover a Calais y en 1823 para la de Londres a Rotterdam; también en España se destinó el primer buque de vapor a una línea fluvial: el Real Fernando, construido en los astilleros de Triana para la Real Compañía del Guadalquivir, inauguró en el verano de 1871 la línea Sevilla-Sanlúcar-Cádiz.

En las grandes distancias, la vela seguía dominando ampliamente el panorama. En 1839, el Savannah, movido por vapor y velas, viajó de los Estados Unidos a Liverpool en 25 días, pero éste era también el tiempo que invertía normalmente un velero sin el auxilio del vapor, y los clípers lo redujeron todavía a la mitad. El clíper, que vivió su época dorada entre 1850 y 1870, era un tipo de velero muy ágil y veloz, que alcanzaba espléndidos resultados en travesías largas, como las de Gran Bretaña a América, a la India o a Australia.

Savannah primer barco de vapor que cruzó el Atlántico
En 1819, el Savannah fue el primer barco de vapor que cruzó el Atlántico, en 25 días.

El último de ellos, el Culty Sark, construido en 1869 y activo hasta 1922, se conserva en un dique seco próximo a Londres: era un buque compuesto, con una armazón de hierro y planchas de madera. Recordarlos también que el segundo tercio del siglo XIX vio producirse un renacimiento de la marina de vela catalana, dedicada precisamente a efectuar travesías transatlánticas; el primer buque de vapor construido en Barcelona, botado en 1849, fue destinado como remolcador en su puerto.

Pero aunque pareciera que la vela podía competir con el vapor, había varias circunstancias que determinarían su derrota en el futuro. En primer lugar, los perfeccionamientos sucesivos en la propulsión de vapor permitieron una rápida mejora de sus posibilidades, que no estaba al alcance de los constructores de veleros: en 1858, losclípers cruzaban el Atlántico en un tiempo de 12 a 14 días, pero en 1862 el vapor Scotia, de Cunard, lo hizo en 8 días.

En segundo lugar, los buques de madera tenían unas limitaciones insalvables en cuanto a sus posibilidades de aumento de tonelaje, aunque empleasen una armazón de hierro; esto era un grave inconveniente en unos momentos en que se estaba produciendo un fuerte incremento en el tráfico de productos pesados. Puede apreciarse la importancia de esta diferencia si observamos que el tonelaje medio de un carguero de vapor en la primera mitad del siglo XX venía a ser seis veces vapor que el de los veleros de cien años antes.

Añadamos aún que la construcción de buques metálicos venía a costar de un 70 a un 15 % menos que los construidos de madera, y que los que empleaban el vapor para la propulsión necesitaban tripulaciones más reducidas, lo que condujo a una supresión gradual de las velas auxiliares.

Pero el golpe mortal lo recibirían los veleros en la apertura del canal de Suez, en 1869, ya que esta ruta, que acortaba notablemente los viajes entre Europa y la India o Australia, sólo era utilizable por buques de vapor.

Los veleros trataron hasta el último momento de mantener la competencia, aunque fuese limitándose a tráficos en que no importase mucho la velocidad, perdida ya toda esperanza de superar en esto a los vapores.

En 1902 se botó en Hamburgo el Preussen, un velero gigante (el único que haya llevado cinco palos con seis velas cuadradas en cada uno) que tenía unos 130 m de eslora y necesitaba máquinas auxiliares de vapor para levantar las anclas y manejar la carga. Pero a comienzos del siglo XX la batalla estaba inmediatamente perdida para los veleros, relegados progresivamente a pequeñas rutas de cabotaje.

El carguero de vapor dominaba todas las rutas del globo, ya que su gran tonelaje le permitía desempeñar en el mar funciones equivalentes a las del ferrocarril en las rutas terrestres. Los continentes quedaban enlazados por rutas regulares, rápidas y económicas, al mismo tiempo que el tendido de los cables telegráficos submarinos completaba la unidad del mercado mundial.

A fines del siglo XIX el descenso del coste del transporte de los cereales norteamericanos a Europa (combinándose el abaratamiento de las tarifas ferroviarias y el de los fletes) motivó que el trigo de las praderas americanas llegase a los mercados europeos en condiciones de competir con la producción local.

Costaba menos transportar el grano por mar desde Nueva York a Barcelona que llevarlo en tren desde Zaragoza hasta el puerto del Mediterráneo. Era el signo de una situación enteramente nueva: de la aparición de un mercado mundial, representado por los buques cargueros y los ferrocarriles transcontinentales, que haría surgir una división del trabajo a escala planetaria.

Y, sin embargo, a comienzos del siglo XX, la revolución de los transportes no había hecho más que empezar, ya que en las décadas siguientes se sumarían a ella cambios aún más espectaculares: la aplicación de la electricidad a los ferrocarriles, el desarrollo del motor de combustión interna que permitiría que la carretera recuperase una vida propia e independiente, la aparición de un sistema de comunicación que no precisaban del cable o del alambre, el crecimiento de la aviación, etc.

Pero con todo, como ha dicho el profesor Girard, «el siglo del ferrocarril y el buque de vapor ha significado un período decisivo en la historia del transporte y aun en la historia del mundo».

Cuadro Comparativo De Los Barcos en la Edad Moderna

Tragedia Nuclear en Chernobyl Explosión de una Usina Atómica

 Tragedia Nuclear en Chernobyl
La Explosión de una Usina Atómica

El pasado 26 de abril se han cumplido 30 años de la explosión e incendio del reactor número 4 de la central nuclear de Chernobyl. El accidente, ocurrido a las 1:23 horas de la mañana, produjo la liberación de enormes cantidades de material radiactivo a la atmósfera, contaminando significativamente grandes extensiones de Bielorrusia, la Federación Rusa y Ucrania, afectando seriamente a la población local.

El accidente se inició al disparar los operadores la turbina para llevar a cabo el experimento que pretendían. El estado del reactor en ese momento, con un caudal de refrigeración superior al normal y los venenos neutrónicos extraídos en mucha mayor proporción a lo permitido, hicieron que el reactor estuviera en régimen de supermoderación, con lo que el transitorio originado provocó un brusco aumento de reactividad que no pudo ser compensada.

Victima de Chernobyl

Una vez producido el transitorio, debería haber funcionado el sistema automático de protección del reactor, parte del cual estaba desconectado. La explosión que siguió a continuación provocó la destrucción física del reactor y la cubierta.

Para dar idea de la gran liberación de energía, se dirá que partículas de plutonio alcanzaron los 2 km de altitud.

En los diez años transcurridos se han realizado considerables esfuerzos para evaluar y mitigar los efectos de un accidente que tuvo su origen en una serie de fallos humanos, de diseño y políticos, que nunca debieron haber ocurrido.

Se resumen a continuación los principales acontecimientos previos y posteriores al accidente, recopilados de investigaciones recién concluidas

Niño victima de Chernobyl

¿Qué sucedió exactamente en Chernobyl?
¿Por qué ocurrió?
¿Qué impacto ecológico causó?

El accidente ocurrido en la madrugada del 26 de abril de 1986 consistió, básicamente, en una conjunción de fallas humanas y de diseño de la planta. Se originó en una serie de pruebas que, con el fin de mejorar la seguridad, se iniciaron en el reactor.

La idea era verificar que la inercia de una turbina era suficiente, si se producía una interrupción abrupta de la alimentación eléctrica, para que los generadores mantuvieran en funcionamiento al sistema de refrigeración hasta que arrancasen los generadores diesel de emergencia.

En los reactores «occidentales» esta eventualidad está prevista en el diseño del reactor, admitiéndose una demora de hasta 30 segundos de los diesel que deben cubrir la falla. Por aquí, este tipo de pruebas está prohibido o se encuentra estrictamente reglamentado.

En la unidad 4 de la Central de Chernobyl, se intentó ese experimento después de haberlo realizado, con éxito, en la unidad número 3. Para llevarlo a cabo, era necesario llevar el reactor a un 30 % de su potencia de funcionamiento (3200 MW térmicos).

El 25 de abril, a la 01:00 se comenzó a bajar potencia y a las 13:00 hs el reactor ya estaba funcionando a un 50 % de potencia, cuando se desconectó una de las dos turbinas. En ese punto, las autoridades del sistema pidieron que se lo mantuviera por necesidades de la red eléctrica. La central quedó esperando la autorización para iniciar la experiencia, cosa que ocurrió a las 23:00.

A las 23:10 se bajó la potencia del reactor. Por un error de operación (PRIMER ERROR) la potencia se bajó a un 1 %, provocando la condensación del vapor presente en el núcleo. Como el agua absorbe más neutrones que el vapor, esto introdujo reactividad negativa.

Si la «reactividad» es cero la reacción en el núcleo se autosostiene y la población neutrónica se mantiene constante; entonces, se dice que el reactor está crítico. Si es positiva la población neutrónica crece y, por lo tanto, la potencia del núcleo aumenta. Si es negativa la población neutrónica disminuye y el reactor tiende a apagarse.

Adicionalmente – al bajar la potencia del reactor – la concentración de Xe131 subió, introduciendo un fuerte aporte negativo adicional de reactividad. Es un «producto de fisión» que actúa como gran absorbente de neutrones. Esta situación produjo preocupación en los operadores, ya que el reactor se apagaba inexorablemente. Entonces, decidieron extraer todas las barras de control del núcleo, algo que no estaba permitido por los manuales de operación (SEGUNDO ERROR). Fue posible porque el diseño no contemplaba el enclavamiento del mecanismo.

Con el reactor operando prácticamente sin barras, se alcanzó un 7 % de potencia, en un estado de alta inestabilidad. (Las barras de control absorben los neutrones excedentes, manteniendo al reactor estable o crítico. Su remoción introduce reactividad positiva).

El reactor poseía un sistema automático de control de caudal por los canales. Al trabajar a tan baja potencia, el sistema hubiese tendido a la parada. Para evitarlo, los operadores desconectaron el sistema de parada por caudal e iniciaron el control manual del mismo (TERCER ERROR). Nuevamente, la falta de enclavamientos permitió esta maniobra.

En ese momento, todo el refrigerante estaba condensado en el núcleo. A las 1:23:04 del 26 de abril de 1986, se decidió desconectar la turbina de la línea de vapor, para iniciar la prueba. Para poder hacerlo, los operadores tuvieron que hacer lo propio con otros sistemas de emergencia (CUARTO ERROR).

Al desconectar la turbina, las bombas comenzaron a alimentarse por la tensión provista por el generador durante su frenado inercial. La tensión fue menor y las bombas trabajaron a menor velocidad. Entonces, se formaron burbujas de vapor en el núcleo, insertando una altísima reactividad y, por lo tanto, un brusco incremento de potencia.

A la 1:23:40 el operador quiso introducir las barras de corte. Pero, ya era tarde! Para ese entonces, el reactor ya estaba a varias veces su potencia nominal.

La presión en los tubos subió rápidamente, provocando su ruptura. Estallaron!!!, levantando el blindaje de la parte superior del núcleo.

Algunos fragmentos de combustible y grafito en llamas fueron lanzados hacia afuera, cayendo sobre el techo de turbinas adyacentes, causando una treintena de incendios. Para las 5:00, los bomberos habían apagado a la mayoría de ellos, con un terrible costo en vidas por la sobreexposición.

Luego de fracasar en su intento de inundar al núcleo, los soviéticos decidieron cubrirlo con materiales absorbentes de neutrones y rayos gamma (plomo, sustancias boradas, arena, arcilla, dolomita). Del 28 de abril al 2 de mayo, se dedicaron a hacerlo desde helicópteros. Cavaron un túnel por debajo de la central, para introducir un piso de hormigón y evitar la contaminación de las napas de agua subterránea. Así consiguieron que cesaran las grandes emisiones de material radiactivo.

El reactor fue finalmente recubierto con un «sarcófago» de hormigón, que provee un blindaje suficiente como para trabajar en los alrededores. Para evacuar el calor residual, se instalaron ventiladores y filtros.

La consecuencia inmediata del accidentes fue la muerte de 31 personas, 2 por la explosión y 29 a causa de la radiación. Todas formaban parte del personal de la planta.

Muchas hectáreas de campo quedaron inutilizadas por la deposición de material radiactivo. Teniendo en cuenta las dosis recibidas por los 135.000 habitantes de los alrededores, los modelos matemáticos predicen un incremento de menos del uno por ciento sobre la tasa normal de cáncer (20 %) en el área.

CONCLUSION

En este siglo el hombre ha descubierto una nueva fuente de energía: la nuclear.

Todos los países se han esforzado en contribuir a su aplicación pacífica y, como consecuencia de este trabajo conjunto, se han desarrollado las centrales nucleares para la producción de energía eléctrica.

Gracias a este esfuerzo de colaboración que se inició en los años cincuenta, la humanidad se ha encontrado con que dispone ahora de una nueva fuente de energía prácticamente ilimitada que le permite hacer frente a los problemas que están planteando los combustibles convencionales, reduciendo su utilización a los fines para los que resultan insustituibles y evitando su consumo en la producción de energía eléctrica.

Durante este tiempo, se ha podido demostrar que las centrales nucleares producen energía eléctrica de una forma fiable, segura y económica.

Las investigaciones para lograr la energía de fusión se vienen realizando en los países más avanzados del mundo, pero aún no se la puede considerar una solución inmediata para el problema energético.

Con lo expuesto anteriormente, podemos decir que la producción de energía atómica ha «madurado» técnica, científicamente y en lo que se refiere a la seguridad para los operarios de estas centrales, para el resto de las personas y para el medio ambiente, lo suficiente como para que sea posible usarla en reemplazo de las energías generadas por la quema de combustibles fósiles. Esto seria una gran ayuda para nuestro planeta.

También creemos que hemos despejado la mayoría de las dudas con respecto a los «temibles» residuos producidos por las centrales nucleares, aunque no dejan de ser un problema hasta que estemos técnicamente avanzados como para poder reaprovecharlos o librarnos definitivamente de ellos.

El peligro atómico: La alerta definitiva sobrevino el 26 de abril de 1986, cuando en Ucrania una fuga en un reactor de la central nuclear de Chernobyl, a unos 100 Km. de Kiev, provocó la expulsión al exterior de ocho toneladas de combustible radiactivo. Se calcula que, por contaminación directa o por consecuencias indirectas de la catástrofe, murieron 20.000 personas y cerca de 300.000 quedaron aquejadas por diversos tipos de cáncer. Después de Chernobyl cobró fuerza la necesidad de desarrollar fuentes de energía «limpias» (hidroeléctrica, solar, geotérmica y eólica).

La búsqueda de fuentes energéticas alternativas también parte de las críticas al uso irracional del carbón, el gas y el petróleo, que no son recursos renovables. En efecto, enormes cantidades de esos recursos, que han tardado en formarse miles de años, se consumen en pocos minutos. Así se liberan a la atmósfera ingentes cantidades de carbono, que a la naturaleza le llevó centenares de millones de años almacenar en la corteza terrestre. Por otra parte, las emisiones de gases generan el «efecto invernadero», que ocasiona cambios climáticos catastróficos.

PARA SABER MAS…
En el libro de Adriana Patricia Cabrera, llamado «Calentamiento Global», explica lo siguiente respecto a Chernobyl y los cuidados de los recatores nucleares:

«…Después de treinta años de servicio, las centrales nucleares deben ser desmanteladas por completo; los elementos que pudieran volver a utilizarse tienen que ser descontaminados, y es preciso enterrar la obra bajo una gruesa capa de concreto.

Prolongar este plazo implica tener latente una peligrosa bomba atómica, como la que explotó en Chernobyl (Ucrania) el 26 de abril de 1986, causando la peor catástrofe nuclear conocida hasta la fecha.

Según Zhores Medvedev, investigador primario del Instituto Nacional para Investigaciones Médicas en Londres y autor de El legado de Chernobyl, hay casi ochocientos sitios temporales y primitivos de desechos nucleares alrededor de Chernobyl.

La radiactividad allí continúa contaminando el agua subterránea. El reactor nuclear, ahora cubierto por un «sarcófago» de concreto, contiene todavía 700 kilos de plutonio, 201 toneladas de uranio y altos niveles de cesio, estroncio y otros radionucleidos letales en una condición muy inestable.

No se espera que el sarcófago dure treinta años. Se acepta que será necesario construir una estructura nueva y más pesada para encapsularlo, o que habrá que eliminar y desmantelar el reactor destruido, pieza por pieza, utilizando robots especiales, para luego enterrar apropiadamente los restos. Nadie sabe cómo hacerlo, cuánto se tardará ni cuánto costará.

El otro problema, aún sin solución, es qué hacer con los desechos radiactivos. Por su alta temperatura y peligrosidad, los residuos nucleares deben permanecer entre veinte y treinta años enfriándose en piletas de agua en las centrales nucleares.

Existe la posibilidad de procesar los residuos y convertirlos en plutonio, el elemento más peligroso conocido y generado por el hombre. Pero una vez reprocesados, enfriados o vitrificados, la radiactividad de estos materiales se sigue liberando, y todavía no se ha encontrado un lugar de almacenamiento que sea lo suficientemente seguro.

Si se tiene en cuenta que a los treinta años de uso, una planta desmantelada genera la misma cantidad de residuos radiactivos que produjo durante toda su vida, la central misma es una montaña de basura, con destino incierto.

Los residuos nucleares se clasifican según su peligrosidad en de baja, mediana y alta actividad. Los de baja actividad son los que se producen en las etapas en las que el uranio se convierte en combustible apto para una central nuclear. De este proceso se desprende el fatal iodo 131.

Los de mediana actividad se producen en el tratamiento del combustible nuclear y generan radiación alfa. Esta basura es casi eterna: el americio 243 vive ocho mil años; el plutonio, veiticua-tro mil cuatrocientos años; y el neptunio 237 llega a vivir dos millones de años.»

Fuente Consultada:
Calentamiento Global de Adriana P. Cabrera Edit. longseller