Teoría de la Relatividad

Rayos Infrarrojos Usos, Aplicaciones y Propiedades

Rayos Infrarrojos Usos, Aplicaciones y Propiedades

El calor puede trasmitirse de tres formas distintas: por conducción, por convección y por radiación. La mayoría de los aparatos domésticos de calefacción se basan en las dos últimas formas de trasmisión. Una resistencia eléctrica calienta principalmente por radiación.

Cuando dicha resistencia se pone al rojo, irradia energía bajo la forma de ondas electromagnéticas, que tienen su origen en los movimientos de los electrones y en las vibraciones de los átomos y moléculas que constituyen el metal del que se halla compuesta la resistencia.

Cuando la resistencia está incandescente, no sólo emite luz visible, sino que, al mismo tiempo, emite radiación infrarroja, la cual, aunque es invisible, puede ser fácilmente detectada por la sensación de  calor  que  produce  en cualquier parte de nuestro cuerpo directamente expuesta a su acción.

En el espectro electromagnético, la radiación infrarroja está situada entre la luz visible y las ondas de radio. Las longitudes de ondas comprendidas en la zona del infrarrojo son más largas que la de la luz visible y más cortas que las de las ondas de radio. Consecuentemente, su energía es menor que la de las ondas luminosas, por lo que es más difícil detectarlas fotográficamente.

En efecto, sólo las radiaciones infrarrojas de la zona más cercana a la región visible tienen suficiente energía para ennegrecer una placa fotográfica. La radiación infrarroja es debida a las vibraciones de los electrones, átomos y moléculas, y se propaga con la velocidad de la luz (300.000 de m/seg.), calentando los objetos que encuentra a su paso, ya que origina que los electrones, átomos y moléculas de que éstos están constituidos, comiencen a vibrar.

Cuanto mayor es la energía de las vibraciones que origina la radiación infrarroja, más corta es la longitud de onda de la radiación emitida. Las ondas de infrarrojo se trasmiten, al igual que cualquier otra radiación electromagnética, en línea recta, y, de la misma manera que sucede en el visible y en el ultravioleta, la radiación calorífica del infrarrojo sólo puede detectarse por algún instrumento sometido directamente a su acción.

espectro electromagnetico

ƒ=frecuencia en Herz  –  λ=longitud de onda en nanometro – Equivalencia: 1°A=0,1 nm
Se dice que el espectro visible del hombres es entre 400 y 800 nm ó 4000 y 8000 °A

Según los otros dos tipos de trasmisión del calor (convección y conducción), pueden calentarse zonas que no están en línea recta con la fuente calorífica, es decir, que no están directamente expuestas a su acción. En el caso de Ja convección, es el aire u otro medio cualquiera el que, al desplazarse, trasmite el calor desde el elemento de calefacción hasta el objeto que se trata de calentar.

Las moléculas de los gases que componen el aire, sin embargo, apenas absorben radiación infrarroja, de forma que ésta continúa propagándose hasta que es parcialmente absorbida por un medio más denso.

La fuente calorífica más potente que la Tierra tiene es, sin duda alguna, la radiación infrarroja procedente del Sol. Una pequeña parte de su energía se queda en la atmósfera, y el resto calienta la Tierra, al ser absorbida por su superficie.

El objeto de la calefacción doméstica es elevar la temperatura general de una habitación, para lo que puede utilizarse tanto la convección como la radiación. En algunas ocasiones, sin embargo, es preciso calentar sólo una parte bien determinada, en cuyo caso han de utilizarse elementos de radiación, pues las corrientes de convección calientan uniformemente toda la habitación, y su eficacia es, además, fácilmente perturbada, si existen corrientes.

LÁMPARAS DE RAYOS INFRARROJOS
Las corrientes de convección pueden evitarse encerrando el elemento calefactor en un bulbo de vidrio, lo que constituye una lámpara elemental de rayos infrarrojos. Este tipo de lámpara es, en todo, similar a las lámparas corrientes utilizadas en el alumbrado.

lampara rayos infrarrojos

Para dirigir convenientemente la radiación infrarroja, se recubre parte de la superfieie interior del bulbo con un material que refleja los rayos infrarrojos y que ayuda a enfocar en una dirección la totalidad de la radiación emitida.

El filamento de una lámpara de rayos infrarrojos está a una temperatura inferior a la del filamento de una lámpara ordinaria (2.400° C comparados con unos 3.000° C) y la intensidad máxima de la gama de radiación que emite corresponde a unas 15.000 unidades Angstróm (el espectro visible acaba hacia los 7.600 °A).

Al ser inferior su temperatura, la radiación emitida es menos energética. Las radiaciones caloríficas se propagan, como cualquier otra, con la velocidad de la luz, por lo que este método constituye el medio más rápido de propagación del calor.

La velocidad con que un cuerpo se calienta por la acción de la radiación infrarroja, depende, principalmente, de la diferencia de temperatura entre el emisor de infrarrojo y el objeto absorbente. Con las lámparas de infrarrojo ordinarias, se obtiene una diferencia de más de 2.000° C, por lo cual los objetos sometidos a su acción se calientan muy rápidamente.

APLICACIONES  DE LOS RAYOS  INFRARROJOS
La radiación infrarroja tiene muchas y muy diversas aplicaciones como fuente calorífica. Como no la afectan las corrientes de aire, es muy adecuada para ser utilizada como elemento de calefacción exterior, y por ello, es frecuente su empleo en escaparates, negocios, etc.. de muchas grandes ciudades.

Las lámparas de rayos infrarrojos tienen también muchas aplicaciones industriales. Se utilizan, por ejemplo, para el secado y esmaltado de pinturas y barnices sobre cualquier tipo de superficie. Las pinturas de distintos colores requieren tiempos de secado diferentes. Así, la pintura negra se seca más rápidamente que la pintura blanca, ya que ésta refleja la mayor parte áe la radiación infrarroja que recibe, mientras que la pintura negra la absorbe casi en su totalidad.

Los rayos infrarrojos se utilizan también como fuente calorífica en la destilación de líquidos volátiles o muy inflamables, evitándose, de este modo, los riesgos que se producirían si estos últimos, por ejemplo, se calentaran a la llama. En este sentido, ha de tenerse en cuenta que la parte incandescente de una lámpara de rayos infrarrojos está totalmente encerrada en el bulbo.

En las conocidas parrillas de rayos infrarrojos, se consiguen asados más rápidos que en las parrillas ordinarias. La radiación infrarroja penetra, además, en el interior de la pieza de carne, con lo que resulta un asado más uniforme.

Aunque los rayos infrarrojos se utilizan, principalmente, como elemento de calefacción, tienen también aplicaciones más especializadas.

Veamos una de ellas. Los faros de los coches permiten al conductor ver en la oscuridad, ya que éste recibe la luz reflejada por los objetos en los que incide la luz emitida por los focos del vehículo. Pues bien: la misma operación puede realizarse utilizando radiación infrarroja con la ventaja adicional de que, en este caso, el conductor no revela su posición.

Este hecho tiene, como es fácil de comprender, importantes aplicaciones militares y en él están basados los aparatos de detección de blancos en la oscuridad y algunos de los tipos de proyectiles dirigidos. Como es lógico, los ojos del conductor no pueden detectar directamente la radiación infrarroja, sino que para ello se utiliza un aparato denominado convertidor de imagen, que es el encargado de trasformar la radiación infrarroja reflejada, en una imagen visible.

La radiación cae sobre un cátodo fotosensible, que forma parte de un aparato similar a los tubos de rayos catódicos utilizados en los aparatos de televisión.

La radiación incidente libera electrones del foto-cátodo (efecto fotoeléctrico), los cuales son acelerados por un campo eléctrico para chocar, por último, en una pantalla fluorescente. Cada electrón produce en ésta una mancha luminosa visible, por lo que la intensidad de la luz, en cada zona de la pantalla, será proporcional a la intensidad de la radiación infrarroja que es recibida por el cátodo.

mira infrarroja

Un convertidor de imagen de royos infrarrojos permite que el soldado vea en la oscuridad. Para ello, se dirige un haz de rayos infrarrojos al blanco deseado, y la radiación reflejada es recogida por el convertidor, que la  trasforma  en  una  imagen visible.

Fuente Consultada
TECNIRAMA N°  La Enciclopedia de la Ciencia y la Tecnología (CODEX)

Ver:  Usos de los Rayos Infrarrojos

Ver: Descubrimiento de los Rayos X

Ver:Efectos de los Rayos Ultravioleta

 

 

Efectos de la Radiación Ultravioleta Sobre la Piel Fluorecencia

Efectos de la Radiación Ultravioleta Sobre la Piel

A unos 19 Km. de la superficie de la Tierra, empieza una capa de gas ozono (O3) cuya densidad máxima se encuentra a unos 43 Km. de altura de la Tierra. Esta capa de ozono cumple una función muy importante. Tiene la propiedad de atrapar los rayos ultravioleta perjudiciales que emite el Sol, y, por tanto, evita que alcancen la Tierra.

Los rayos ultravioleta son radiaciones cuyas longitudes de onda varían desde 120 °A a 3.900 °A (una unidad ángstrom es la diez millonésima de milímetro). En el espectro electromagnético, los rayos ultravioleta se encuentran entre la luz visible, cuya longitud de onda es mayor, y los penetrantes rayos X, de longitud de onda más corta.

El  Sol   es  un   cuerpo extremadamente caliente.   Está incandescente porque la temperatura de su superficie es de unos 6.000 grados centígrados, y emite una gran cantidad de radiaciones electromagnéticas, la mayoría de las cuales son luz visible. Emite también rayos infrarrojos y luz ultravioleta. La luz visible afecta a la parte sensible de la retina del ojo y produce la sensación de luz.

La frontera entre la luz visible y la ultravioleta coincide con la frontera entre lo visible y lo invisible. La luz visible es inocua, pero la ultravioleta es perjudicial para los tejidos vivos. El efecto depende de la longitud de onda.

La región ultravioleta comprendida entre 3.000 °A y 1.850 °A es particularmente mortífera, y los rayos correspondientes se utilizan, de hecho, para destruir bacterias patógenas en hospitales y almacenes de alimentos, en donde las bacterias se eliminan antes de que lleven a cabo su acción destructora.

Los rayos ultravioleta de mayores longitudes de onda (3.900 °A a 3.000 °A) pueden tener efectos beneficiosos, en dosis moderadas. Cuando broncean la piel (bronceado solar), los rayos ultravioletas trasforman algunas sustancias orgánicas complejas de las células epiteliales humanas, tales como el ergosterol, en vitamina D.

A continuación, esta importante vitamina se incorpora al torrente circulatorio sanguíneo, y queda a punto para ser utilizada por el organismo. Se sabe muy poco acerca de los efectos de los rayos ultravioleta más cortos, sobre la materia viva.

Tales rayos son muy difíciles de controlar experimentalmente, ya que no se puede conseguir que atraviesen el vidrio ni el cuarzo (un mineral trasparente que trasmite algunos rayos ultravioleta). Esto significa que no se pueden enfocar con instrumentos ópticos como el microscopio ultravioleta. De todos los rayos ultravioleta, sólo pueden atravesar la barrera del ozono, los relativamente beneficiosos a la vida humana.

La luz ultravioleta altera los tejidos vivos porque lleva la suficiente energía para provocar un cambio químico. Tanto el bronceado de la piel como la muerte de las bacterias, resultan de cambios en la estructura química de los materiales que hay en el interior de las células vivas.

Normalmente, se requiere una cierta cantidad de energía para el cambio, y la célula es especialmente sensible a la luz ultravioleta de la longitud de onda correspondiente a esta energía (la cantidad de energía trasportada por cualquier radiación electromagnética depende de su longitud de onda).

penetracion de los rayos ultravioletas

espectro de la luz

penetracion de los rayos ultravioleta

La luz ultravioleta se utiliza para destruir bacterias. Se usa la luz de una lámpara de descarga de vapor de mercurio para mantener el ambiente libre bacterias,  en   un   laboratorio   de  fabricación   de   penicilina.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

¿Son tan nocivos los rayos ultravioleta?: Cuando nos exponemos al sol, la piel reacciona de inmediato co menzando un proceso de defensa que nosotros damos en llamen bronceado. El «ponerse moreno» no es más que un contraataque de nuestra epidermis a la acción de los rayos ultravioleta, contraataque pensado para concentraciones de ozono bastante superiores a las que existen en la actualidad.

Quien más o quien menos de ustedes, apreciados lectores, habrá sufrido en los últimos años las consecuencias de esta disminución de la capa de ozono en forma de enrojecimientos o quemaduras (espero que no en nada más grave).

Si mi propia experiencia pudiera servirles de ilustración, les contaría cómo allá por la década de los ochenta y contando yo unos veinte años de edad, decidí un buen día no volver a pisar una playa si no era con gorra, camiseta y una buena crema solar, cuando tras un breve adormecimiento de domingo y de no más de 30 o 40 minutos sobre la arena (permítanme una recomendación: si se divierten los sábados hasta bien entrada la noche, no madruguen y se tumben al sol a la mañana siguiente), volvía casa y me miré al espejo: mi cara era lo más parecido a un volcán en erupción de lava que hubiera visto jamás.

Algunos geles y after sun pudieron recomponerme en unos días, pero recuerdo mi sorpresa y mi comentario con todo el mundo respecto a «qué demonios había pasado con el sol». La misma exposición que años atrás, siendo una niña, sólo me hubiera causado un leve enrojecimiento, esta vez me había provocado una quemadura tan incómoda como sorprendente. Pocos años después comencé a oír hablar seriamente del adelgazamiento de la capa de ozono.

Efectivamente, nuestra atmósfera ya no nos ofrece la misma protección que hace unos años frente a los rayos ultravioleta. La melanina que se forma en la hipodermis al recibir estos rayos tarda al menos tres días en transferirse a las capas exteriores de la epidermis, y son éstos los días en que somos más propicios a los eritemas y quemaduras solares.

Otra defensa natural de la piel es la formación de células epiteliales queratinosas para crear un manto de mayor grosor sobre la piel; sin embargo, esta piel no es más que una acumulación de células muertas en su superficie, es decir, se trata de una protección lograda a cambio de aniquilar miles de células y apilarlas en la capa más externa de la piel.

La exposición prolongada al sol constituye una agresión, grave en ocasiones, y los causantes de ella son fundamentalmente los rayos ultravioleta del grupo B.

Los rayos UV-B: Este tipo de radiaciones solares son.captadas en buena parte por el ozono en las capas más bajas de la estratosfera, es decir, el ozono tiene un papel clave con respecto a la cantidad de UV-B que atraviesa nuestra biosfera y llega hasta nosotros. Cuando la capa de ozono tenía el espesor correcto, solamente incidía sobre nuestro suelo una fracción de ellos, y éstos eran (y son) los únicos capaces de desarrollar la melanina en la piel. En la actualidad nos alcanza una proporción desmesuradamente alta de UV-B, y aquíes donde comienzan los verdaderos problemas.

Los rayos UV-B penetran en nuestra piel hasta atravesar la epidermis. Cuando la cantidad de UV-B es excesiva, nuestro ADN puede dañarse con facilidad. Estas espirales portadoras del código genético y responsables de que sus células se reproduzcan con idéntica estructura unas a otras, son muy sensibles a las radiaciones y las UV-B parecen «volverlas locas» del mismo modo que lo hace la radiación de tipo nuclear, los rayos X o las emisiones electromagnéticas de gran potencia.

Pensemos que un daño en las hélices en una de sus células orgánicas de ADN puede multiplicarse por mil en cuestión de días, meses o años (otro de los terrores de este peligro es que las lesiones son acumulativas y pueden surgir años después de sufrir el daño). Esto es lo mismo que decir que la exposición excesiva a los rayos UV-B puede provocar, y de hecho provoca, cáncer de piel y lesiones en las partes más débiles expuestas al sol (ojos, labios, etc.).

La Academia Norteamericana de Dermatología afirma que los rayos UV-B son los responsables de un millón de casos de cáncer de piel, entre ellos el melanoma, el más fatal. Lamentablemente, los mismos rayos que antaño nos hacían lucir un espléndido color dorado en la piel, son hoy en día fuente de importantes enfermedades.

Pero no sólo la piel sufre daños cuando las radiaciones UV-B la alcanzan en exceso: las cataratas aumentan año a año su iná dencia en nuestra población por el efecto de los rayos ultraviole ta. Aunque no está muy claro el proceso por el cual el cristalino degenera, se comienza a investigar sobre la fotooxidación de las proteínas de la lente ocular bajo el efecto de los radicales libres generados por los UV-B.

En ocasiones, la córnea llega a «que marse» a causa de las radiaciones y esto es especialmente peligroso para las personas que realizan actividades diarias en superficies altamente reflectantes (pescadores, monitores de esquí, alpinistas, etc.) si no toman la precaución de colocarse unas gafas de sol suficientemente oscuras como para neutralizar la reverberación de estos rayos solares.

Lamentablemente, miles de animales que pastan o desarrollan sus actividades en lugares muy soleados y/o en montañas de altura considerable se ven obligados a sufrir todos los años cataratas y graves problemas oculares por culpa de la insensatez humana.

rayos ultravioletas

Los rayos UV-A y UV-C: Los rayos UV-A penetran más profundamente en la piel, de modo que alcanzan con facilidad la dermis o capa media. Sin embargo, no por ello son más nocivos que los UV-B ya que no provocan mutaciones en nuestro código genético. Sí, en cambio, agotan el caudal del colágeno cutáneo y son por tanto los responsables del envejecimiento prematuro de la piel. Todos conocemos a esos labradores o pescadores que, por la acción de tantas y tantas horas al sol, presentan unas marcadas arrugas en su rostro curtido y tostado. Pese a su antiesteticismo, estas personas no desarrollaban ningún tipo de cáncer epitelial.

Sin embargo, una nueva polémica surgió sobre estos rayos a partir del mes de junio de 1997, fecha en la que un equipo de investigadores franceses anunció que los UV-A podían ser igual o más peligrosos que los UV-B.

Sus razonamientos eran que los rayos UV-A conforman el 90% de las radiaciones ultravioleta que nos alcanzan, a la vez que afirman que dichos rayos son igualmente dañinos que los UV-B, con la única diferencia de que, según estos investigadores, precisan de un mayor tiempo de exposición para causar lesiones. El argumento de mayor peso que esgrimen es que los UV-A incrementan el daño producido por los UV-B.

Curiosamente, una semana después de este descubrimiento, los famosos laboratorios de cosmética L’Oréal hicieron pública una nueva molécula (OR-10154) capaz de filtrar a la vez los rayos UV-B y los UV-A con gran eficacia. Actualmente se encuentra en fase de comprobación ante el comité científico de cosmeto-logía de Bruselas. No hace falta ser muy avispado para percatarse de que, de ser aprobada su comercialización como es de prever, aportará a la casa francesa L’Oréal pingües beneficios, calculables en miles de millones de francos.

Sin discutir los trabajos de estos investigadores, ni siquiera la que será famosa molécula OR-10154, convendría preguntarse por qué son ahora más peligrosos los rayos UV-A que hace cincuenta años si la capa de ozono jamás ha interferido en su paso hasta la superficie de la Tierra.

En el caso de este espectro, el deterioro de la capa de ozono no influye en absoluto, ni influirá en el futuro, de modo que si bien es cierto que los UV-A son responsables de las arrugas prematuras en personas que se exponen diariamente a varias horas de sol, también lo es que no tienen por qué participar en el desarrollo de tumores ni lesiones cutáneas y/o oculares.

O, al menos, tendrían la misma intervención en estos graves problemas que a principios de siglo o hace quinientos años (épocas en las que todos sabemos que el cáncer era un mal prácticamente desconocido).

Argumentar, por otra parte, que los UV-A multiplican los efectos perniciosos de los UV-B es seguir afirmando, de una manera o de otra, que los rayos dañinos siguen siendo únicamente los UV-B, ya que sin su presencia los UV-A no tendrían oportunidad de multiplicar nada. Respecto a los melanomas y las cataratas, los UV-B siguen siendo los únicos culpables, y un simple filtro solar «de los de siempre» ofrecería idénticas garantías al respecto.

Otra cosa muy distinta es la prevención del envejecimiento de la piel, en cuyo caso una crema anti-UV-A sería muy beneficiosa y yo se la recomiendo a todo aquel que tenga por costumbre exponer su piel al sol, pero siempre anunciándola como tal y no lanzando al aire amenazantes conclusiones cuyo fin parece ser el de asustar a la población para, tal vez, lograr en un futuro cercano más ventas.

Respecto a los rayos UV-C, recordemos que son captados por el ozono atmosférico en su totalidad. Gracias a su debilidad, un pequeño tanto por ciento de ozono sería suficiente para no dejarlos pasar, por lo que, de momento, no debemos preocuparnos por ellos. Si el manto de ozono desapareciera en su totalidad, lo de menos serían los UV-C porque en ese caso todos estaríamos pronto muertos.

Cómo protegernos eficazmente: Las dos únicas maneras de protegerse frente a los rayos ultravioleta de un modo efectivo son el uso de una crema con buena protección solar y el administrar prudentemente el tiempo de exposición al sol.

Cremas con filtro solar: Es un error pensar que sólo se deben usar cremas de protección solar cuando nos tumbamos en la arena dispuestos a tomar una buena ración de sol. Efectivamente, ésa es la actividad más peligrosa y en la que será imprescindible tomar todo tipo de precauciones. Sin embargo, un paseo con los brazos y las piernas descubiertos al sol, o una mañana en las terrazas de verano, pueden acarrearnos del mismo modo desagradables sorpresas en forma de enrojecimientos y quemaduras.

Tengamos en cuenta también que las superficies reflectantes (arena, rocas, baldosas, etc.) hacen las veces de espejo y reverberan los rayos invisibles del espectro solar, pudiendo de este modo llegar a quemarnos sin haber sentido ningún tipo de calor sobre la piel.

Siempre que el día sea soleado (máxime en verano) y usted vaya a salir a la calle con parte de su cuerpo desprovisto de ropa, será conveniente que utilice una crema con protección solar. Por supuesto, el rostro debe estar también protegido.

Fuente: Como Sobrevivir Al Siglo XXI – Ana P. Fernandez Magdalena – Editorial Robin Book

CÓMO SE GENERA LA LUZ ULTRAVIOLETA: La Tierra recibe muy poca luz ultravioleta natural, ya que la capa de ozono de la atmósfera bloquea eficazmente su camino. Sin embargo, la luz ultravioleta se puede producir con facilidad en los tubos de descarga de gas. Una fuente muy considerable de luz ultravioleta es el tubo de descarga de vapor de mercurio.

Si el vapor de mercurio se excita haciendo pasar a su través una corriente eléctrica, emite luz ultravioleta. Las radiaciones se producen de forma totalmente semejante a la fluorescencia.

En este caso, en vez de recibir energía luminosa, los átomos de gas reciben la energía de una corriente eléctrica (una corriente de menudas partículas cargadas negativamente: electrones). Cuando se deja de excitar el átomo de mercurio, gran parte de su exceso de energía se libera en forma de luz ultravioleta.

Los tubos de descarga se utilizan, principalmente, para generar luz visible. Si se cubre la parte interior de un tubo de vapor de mercurio con un material fluorescente, prácticamente toda la luz ultravioleta que se produce en la descarga se convierte en luz visible por fluorescencia.

Estos tubos de descarga se encuentran en la moderna iluminación por tubos, y se escogen los materiales radiactivos de tal forma que proporcionen una excelente luz blanca. Cualquier radiación ultravioleta no absorbida es detenida por el cristal del tubo. La mayoría de los cristales son opacos a la luz ultravioleta.

Un tubo de descarga se puede adaptar para que emita luz ultravioleta pura, ennegreciendo la parte exterior del tubo, con lo que se detienen las radiaciones visibles. El tubo de esta lámpara «negra» debe fabricarse, no de vidrio, sino de cuarzo, que transmite con facilidad luz ultravioleta de una serie de longitudes de onda.

Por otra parte, los tubos de descarga no son el único medio de producir luz ultravioleta. Se puede generar también, como en el Sol, produciendo el suficiente calor, y, entonces, parte de la radiación emitida es luz ultravioleta.

Sin embargo, este método de producción es extraordinariamente ineficaz, puesto que, incluso en cuerpos tan calientes como el Sol, sólo una fracción de la radiación total es luz ultravioleta. Cuanto más caliente está el cuerpo, mayor es la proporción de luz ultravioleta en la radiación que emite.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

FLUORESCENCIA: Algunas sustancias, incluso muchas de las que no pueden reaccionar químicamente, cuando se exponen a la luz ultravioleta, absorben una gran cantidad de radiación. Son, con frecuencia, sustancias fluorescentes. Tales sustancias absorben la luz ultravioleta e inmediatamente transforman la energía en luz visible.

Los dientes y las uñas son fluorescentes y relucen suavemente (es decir, emiten luz visible), cuando se los ilumina con una lámpara de luz ultravioleta. Cuando fluorescen diversas clases de materiales emiten luz de diferentes colores. Ello permite preparar un método para comprobar la autenticidad de obras pictóricas.

Cuando, por ejemplo, fluoresce una pintura que contiene blanco de plomo, emite luz blanca. Sin embargo, una pintura con blanco de cinc, da una luz fluorescente de color amarillo limón.

Los diversos pigmentos amarillos que se utilizan en las pinturas amarillas dan colores fluorescentes que se diferencian ligeramente; por tanto, cuando se examina cuidadosamente un cuadro con luz ultravioleta, los expertos pueden encontrar información sobre quién lo pintó y cuándo fue pintado.

La fluorescencia tiene lugar cuando los átomos de una sustancia son excitados por la luz ultravioleta. Los átomos tienden a volver cuanto antes a su posición estable, estado no excitado.

Ellos pueden radiar luz exactamente de la misma longitud de onda que la que han absorbido. Sin embargo, normalmente, en vez de emitir luz ultravioleta de una sola longitud de onda de alta energía, radian dos longitudes de onda de menor energía, que se encuentran, probablemente, en la región visible.

La   luz  ultravioleta   se   produce  en   un  tubo  de descarga   bombardeando  átomos de   mercurio   con   un corriente eléctrica.  La  fluorescencia trasforma  la  luz ultravioleta en luz visible.

Ver: Descubrimiento de los Rayos X

Ver:  Usos de los Rayos Infrarrojos

Fuente Consultada
TECNIRAMA N°57 La Enciclopedia de la Ciencia y la Tecnología (CODEX)

Biografia de Ohm Simón Obra Científica y Experimentos

Biografia de Ohm Simón
Obra Científica y Experimentos

Una vez Fourier hubo elaborado un sistema matemático que daba cuenta adecuadamente del flujo de calor, parecía que el mismo sistema podía emplearse para describir la corriente eléctrica. Mientras que el flujo de calor de un punto a otro dependía de las temperaturas de ambos puntos y de si el material que los unía era buen conductor del calor, la corriente eléctrica de un punto a otro podía depender del potencial eléctrico de los dos puntos y de la conductividad eléctrica del material intermedio. hm haciendo diversas experiencia de laboratorio, logró al fin determinar la famosa ley que lleva su nombre: «Ley de Ohm»

ley de ohm

Dice así: La magnitud de una corriente I eléctrica que pasa entre dos puntos es igual al cociente entre la tensión (o voltaje V) y la resistencia R del conductor por el que atraviesa dicha corriente. Esta es una ley de fundamental importancia, y una de las primeras que se aprenden al estudiar electricidad.

Hoy es conocida como la ley de Ohm, aunque en 1827, al ser enunciada por Jorge Simón Ohm, pasó inadvertida. De hecho, hubieron de transcurrir 16 años para que dicha ley recibiera 4a consideración que merece. En aquella época se prestaba mayor atención a los científicos jactanciosos y con amigos influyentes que a los de carácter reservado y tranquilo como lo era Ohm. Ohm nació en Erlangen (Alemania), en 1789.

ohm simon

Trabajando con alambres de diversos grosores y longitudes, el físico alemán Georg Simón Ohm (1789-1854) halló que la cantidad de corriente transmitida era inversamente proporcional a la longitud del alambre y directamente proporcional a su sección. De este modo pudo definir la resistencia del alambre y, en 1827, demostró que «la intensidad de la corriente a través de un conductor es directamente proporcional a la diferencia de potencial e inversamente proporcional a la resistencia». Ésta es la llamada ley de Ohm.

Era hijo de un maestro de taller, el cual decidió dedicarlo al estudio de las matemáticas y de la física. Y. el propio padre se puso entonces a estudiar estas disciplinas, para poder enseñar a su hijo lo aprendido, dándole clases cuando el muchacho salía de la escuela.

A la edad de 16 años, Ohm comenzó sus estudios en la Universidad de Erlangen, pero, desgraciadamente, la situación económica de la familia hizo que, al cabo de dos años, tuviera que dejar la universidad para colocarse como profesor en Suiza. Más adelante, pudo completar sus estudios y licenciarse; pero, por segunda vez, la falta de dinero le obligó a abandonar sus investigaciones en la universidad, volviendo, de nuevo, a su puesto de profesor.

Después de pasar 4 años enseñando física en Bamberg, se trasladó al Gimnasio de Colonia, donde llevó a cabo sus más importantes investigaciones.

Cuando Ohm comenzó sus experiencias, la electricidad se describía en términos muy imprecisos. No existía un modo exacto de expresar el comportamiento de una corriente eléctrica, y Ohm resolvió hacer algo en este sentido. Fourier había trabajado ya en la conducción del calor, llegando a la conclusión de que en un material conductor existía un gradiente de temperatura y que la cantidad de calor que conducía dependía de la caída de temperatura a lo largo del conductor.

Ohm se preguntó si la electricidad se comportaría del mismo modo que el calor, y si la diferencia de potencial jugaría aquí el mismo papel que la diferencia de temperatura jugaba en termología.

En sus últimos experimentos, Ohm utilizó como f. e. m. (fuerza electro-motriz) constante la proporcionada por un termopar (termocupla), constituido por cobre y bismuto soldados, una de cuyas uniones iba sumergida en hielo y la otra en agua caliente. Para medir la magnitud de la corriente, utilizó una aguja imantada, suspendida convenientemente. De este modo, Ohm pudo estudiar la magnitud de variación de la intensidad de corriente cuando se introducían en el circuito distintas resistencias.

Ohm era muy meticuloso en la realización de medidas y, a pesar de los instrumentos primitivos que utilizó sus resultados fueron lo suficientemente exactos como para demostrar, de manera concluyente, que la intensidad de corriente es igual al cociente entre la tensión y la resistencia. Ohm comprendió instantáneamente la importancia de su descubrimiento y supuso que le sería concedido un puesto en la universidad; en esta creencia, renunció a su cátedra de profesor en el Gimnasio de Colonia.

Las cosas no sucedieron exactamente así, y Ohm estuvo sin colocación durante 5 años; recién a los 60 de edad fue nombrado catedrático de la Universidad de Munich, cargo que desempeñó hasta su muerte, acaecida 5 años después, en 1854.-

EJEMPLOS PARA EXPLICAR DE LA LEY DE OHM

Fórmula General de Ohm

Un método sencillo de recordar las ecuaciones de la ley de Ohm: tapar: la cantidad buscada y los
dos símbolos restantes darán la fórmula requerida.

A condición de que las manifestaciones Físicas, tales como la temperatura, no varíen, la intensidad de la corriente (la cantidad de electrones en movimiento) que circula por un hilo es directamente proporcional a la diferencia de potencial (es decir, la diferencia de presión eléctrica que origina el movimiento de los electrones) entre las extremidades del hilo.

Este hecho se conoce con el nombre de Ley de Ohm. Veamos un ejemplo de esta ley: supongamos que tenemos un circuito en donde circula una corriente de 4 amperios. Por ejemplo una estufa eléctrica conectada a una red de 240 voltios. ¿Cuál es la intensidad de la corriente, si el voltaje de la red cae a 120 voltios?

La ley de Ohm nos dice que, ya que la diferencia de potencial (voltaje) se reduce a la mitad, la corriente debe reducirse en la misma proporción: se divide por dos. La nueva intensidad es, por lo tanto, de 2 amperios. En cada caso la relación voltaje/intensidad es la misma: 240/4=60 A ó 120/2=60 A

Por lo tanto, la ley de Ohm puede escribirse en forma de ecuación: V/I=constante

Si el voltaje, o diferencia de potencial, se mide en voltios, y la intensidad en amperios, entonces la constante, en vez
de ser simplemente un número, es por definición una medida de la resistencia del hilo; o sea, una medida de la resistencia que opone el hilo al paso de electrones a través de él. La resistencia se mide en unidades que reciben el nombre de ohmios.

Por tanto, diferencia de potencial / intensidad de corriente = resistencia en ohmios

Las resistencias medidas en ohmios se suelen simbolizar por el signo R; la diferencia de potencial en voltios se simboliza, generalmente, por V y la intensidad en amperios por I. Utilizando estos símbolos, la ley de Ohm puede escribirse en forma de ecuación: R=V/I. Que se desprende que V=I . R

En realidad, la corriente I=4 amperios es menor cuando la estufa está fría, ya que la resistencia de la mayoría de los metales aumenta con la temperatura. Por eso la ley de Ohm sólo es exacta cuando no varían las propiedades físicas.

Una resistencia de 60 ohmios presenta una oposición moderadamente alta al paso de la corriente eléctrica; si la estufa tiene una resistencia pequeña, digamos de 2 ohmios, presenta un camino mucho más cómodo y a su través pasa una intensidad mucho mayor.

¿Qué intensidad tiene la corriente que pasa por una estufa (con una resistencia de 2 ohmios) que se conecta a una red de 240 voltios? Como lo que buscamos es una intensidad, que se simboliza con una I, utilizaremos la ecuación:
I =V/R=240/2=120 amperios.

Ésta es una intensidad enorme (que fundiría los fusibles tan pronto como se encendiera la estufa). La mayor intensidad que puede soportar, normalmente, un fusible doméstico es de 15 amperios.

¿Cuál es la resistencia de una estufa eléctrica, que funciona justo a esta intensidad, con un voltaje de red de 240 voltios? Aquí lo que buscamos es la resistencia, simbolizada por una R, así qué lo mejor será utilizar la ecuación que contenga la R=V/I=240/15=16 ohmios (Ω)

También la ley de Ohm proporciona un método cómodo para medir voltajes. Un voltímetro sencillo es, realmente, un medidor de intensidad, o amperímetro. Nos indica la intensidad (I) amperios que el voltaje (V) que se quiere conocer hace pasar por una resistencia conocida (R) ohmios.

La magnitud del voltaje se deduce de la ecuación V=I . R- (No se necesita hacer el cálculo en la práctica, ya que esto se ha tenido en cuenta al calibrar el voltímetro.) Si un amperímetro, cuya resistencia total es de 200 ohmios, registra una corriente de 1/10 amperio, ¿cuál es el voltaje que impulsa a la corriente a través del amperímetro?.

O dicho en otras palabras, ¿cuál es la diferencia de potencial entre los bornes del amperímetro? De la ecuación:
V = I . R (esta ecuación es la preferible, ya que la V aparece en el lado izquierdo), se deduce el voltaje: 1/10 amp. . 200 ohm.=20 voltios.

ANALOGÍA DE LA CORRIENTE CON EL FLUJO DE AGUA

Lo intensidad de la corriente de un río es la cantidad de agua que pasa por debajo del puente en un segundo. La intensidad de una «corriente eléctrica» es la cantidad de electrones que pasa en un segundo por un conductor.

El movimiento del agua está producido por una diferencia de altura entre los extremos del río.
Un movimiento de electrones está producido por una diferencia de potencial entre los extremos de un conductor. La diferencia de potencial recibe el nombre de voltaje.

Cuanto mayor es la diferencia de alturas, mayor es la corriente de agua. Del mismo modo, cuanto mayor es la diferencia de potencial (voltaje), mayor es la corriente eléctrica. Al doblar la diferencia de alturas, dobla el flujo de agua; al doblar la diferencia de potencial (voltaje)/ dobla lo intensidad de la corriente. Ésta es la ley de Ohm.

La «estrechez» del río también controla la cantidad de agua que corre por debajo del puente en un segundo. Si el río es muy estrecho, la corriente es pequeña. Del mismo modo, la «resistencia» de un conductor controla el flujo de electrones. Si la resistencia es muy alta, la corriente eléctrica es débil. Si la resistencia es baja (equivalente a un río ancho), la corriente es intensa.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología – TECNIRAMA N°89 La Ley de Ohm

Primer Viaje al Espacio Tripulado de Yuri Gagarin Avances Tecnicos Rusos

YURI A. GAGARIN: astronauta soviético nacido Gzhatz hoy lleva su nombre Gagarin, fue el primer hombre en volar una nave espacial fuera de la atmósfera de la Tierra y hacer una revolución completa alrededor del planeta.

Creció en una granja colectiva, donde su padre trabajaba como carpintero. A los 7 años, los alemanes invadieron Rusia y su padre se unió al ejército, mientras que su madre lo llevó junto a su hermano mayor y su hermana, a un lugar más seguro.

Vuelo de Gagarin

También durante sus estudios básicos decidió seguir una carrera técnica, y se inició en una escuela técnica cerca de Moscú. Se graduó en metalurgia (1951), y se inscribió en una universidad industrial, donde se interesó en los aviones.

Se matriculó en el sitio de vuelo de la escuela, la Escuela de Aviación de Oremburgo, y pronto demostró que tenía un talento natural para el vuelo. Graduado de controlador de vuelo con distinción (1955), se unió a la Fuerza Aérea Soviética, donde se convirtió en un piloto de pruebas de nuevos aviones y experimental.

 [Seguir Leyendo Yuri Gagarin y Otros Temas Relacionados…]

La Revolucion Cientifica del siglo XX: Descubrimientos e Inventos

La Revolución Cientifíca del Siglo XX:

NECESIDAD DE LA TEORÍA CIENTÍFICA: De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX.

Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso.

A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables.

Así, sin estar precedida por una comprobación empírica, se formuló la teoría de la Relatividad; la física del siglo XX no construye sus estructuras sobre leyes sino sobre teorías, con lo que incluso desde el punto de vista gnoseológico su posición es revolucionaria. La teoría de la Relatividad de Einstein y la teoría cuántica de Planck constituyen los dos capítulos fundamentales y al mismo tiempo el punto de partida para dos concepciones de la ciencia física.

DOS TEORÍAS SOBRE LA REALIDAD FÍSICA

Einstein, al continuar los estudios de Michelson y Morley sobre la luz, cuya velocidad consideraba una constante del universo, llegó a concluir que el tiempo es una variable que depende de la velocidad del espectador (Teoría de la Relatividad Restringida, 1905). Diez años más tarde consiguió medir la relación entre masa y energía (E= mc2); un cuerpo que irradia energía pierde masa, de donde deduce que la masa puede convertirse en energía y su equivalente es la cifra fabulosa obtenida al multiplicar su masa por el cuadrado de la velocidad de la luz (Teoría de la Relatividad General, 1915). Todas las futuras investigaciones sobre el átomo partieron de estas geniales formulaciones del joven científico alemán, que se trasladó posteriormente a Estados Unidos y adquirió la nacionalidad norteamericana.

Einstein demostró que el espacio es curvo y que la curvatura se intensifica en la proximidad de los cuerpos pesados, con lo que desmontó las concepciones newtonianas del espacio y justificó las geometrías no euclidianas, ya que en un espacio curvo las paralelas pueden unirse y todos los axiomas y postulados de Euclides sustituirse por otros. Al fotografiar la curvatura de la luz de las estrellas abrió nuevos horizontes interpretativos sobre la naturaleza de la luz y se encontró una prueba de la curvatura del espacio. Plank formuló en 1900 su teoría cuántica; de la misma manera que la materia es discontinua y está formada por una red de átomos, la energía irradia de forma discontinua en forma de cuanto o corpúsculos de valor variable según la intensidad de la radiación.

En 1924 Louis de Broglie fundó la mecánica ondulatoria, con la que concilió la teoría tradicional de la luz como onda continua y la cuántica de corpúsculo discontinuo. Las dos teorías suponen dos interpretaciones de la realidad física; la teoría cuántica la considera discontinua o corpuscular, la de la Relatividad la considera continua y constituida por una sustancia única espacio-tiempo que puede adoptar formas diversas. La teoría cuántica pretende conocer la naturaleza en términos observables, la Relatividad General en términos no observables, en cierto modo simbólicos, al afirmar que la naturaleza es una sucesión de formas geométricas de una sustancia única espacio-temporal.

INVESTIGACIONES SOBRE EL ÁTOMO

La concepción clásica del átomo como partícula indivisible había sido rechazada por los físicos del siglo XIX; desde finales de siglo hasta la actualidad los avances en el reconocimiento de las partículas elementales han sido constantes; Thompson, Rutherford, Bohr y De Broglie consiguieron trazar mapas nuevos en la estructura atómica. Thompson descubrió los electrones y demostró así que el átomo no es la partícula última; con las investigaciones de los esposos Curie sobre las radiaciones se inició otro camino que indagaba la energía contenida en el átomo. Rutherford diseñó un mapa del átomo en el que un núcleo, cargado con electricidad positiva, está rodeado por electrones con carga negativa.

cuadro del atomo

Esta imagen cobró movimiento en los estudios del danés Niels Bohr, quien postuló que los electrones giran alrededor del núcleo como si se tratara de un sistema solar en miniatura; el número y disposición de los electrones explicaba las propiedades químicas de los cuerpos y la sucesión de los elementos establecida a mediados del siglo XIX por Mendeleiev. Finalmente, De Broglie probó que las órbitas de los electrones no seguían una línea elíptica sino ondulatoria, oscilante, y que las ondas y los corpúsculos eran aspectos de una misma realidad. Otra línea de investigación se centró en la desintegración del átomo y en la energía que puede liberar. Rutherford rompió un núcleo de nitrógeno en 1919, al bombardearlo con partículas alfa mediante descargas eléctricas. Posteriormente, se descubrieron nuevos elementos en el átomo. Los neutrones eran obtenidos por Chadwick en 1932 al bombardear berilio con partículas alfa; Anderson el electrón positivo (positrón) y Neddermeyer el mesón, enlace entre los protones positivos y los neutrones.

En la década de los años 30 se investigó la radiactividad. Joliot Curie descubrió la radiactividad artificial, demostrando que los átomos bombardeados por neutrones se vuelven radiactivos. En 1936, Fermi obtuvo con este sistema cuerpos más pesados que los naturales y dos años después Hahn y Strassman descubrieron la posibilidad de la reacción en cadena, al comprobar que en los núcleos pesados como el del uranio de protón puede liberar varios neutrones, que al chocar con los nuevos núcleos los hacen estallar y proyectan nuevos neutrones; de esta forma un gramo de uranio puede liberar una energía equivalente a 2,5 tm de carbón. En 1939 con un ciclotrón se consiguió la fisión del átomo y la posibilidad de obtener reacciones en cadena en gran escala. La bomba atómica utiliza el uranio y la de hidrógeno el helio para producir esta reacción en cadena que libera una energía fantástica.

LAS ESCUELAS PROBABILISTA Y DETERMINISTA

Las teorías cuántica y de la Relatividad y las investigaciones sobre el átomo constituyen los capítulos más importantes de la nueva física. Pero los físicos se han sumido en incertidumbres que podríamos llamar de tipo metafísico, se han planteado en qué medida sus investigaciones se mueven en un nivel subjetivo o por el contrario les permiten un conocimiento no deformado de la realidad física. Dos escuelas, probabilista y determinista, afirman, respectivamente, la incertidumbre del conocimiento y la certeza de las leyes físicas.

Los probabilistas, con Bohr, Heisenberg y Dirac, parecieron en muchos momentos haber conseguido romper el “determinismo” de la física “clásica”. En 1925 Heisenberg planteó el dilema que fundamenta la postura probabilista, la imposibilidad de conocer simultáneamente la velocidad y posición de un electrón; si se conoce exactamente su posición, al obligarle a pasar por la pequeña abertura, no se conoce exactamente su velocidad al atravesarla, de lo que resulta que en un instante posterior será imposible precisar su situación. Con el principio de indeterminación Heisenberg afirma que el “espectador” modifica la realidad física al estudiarla, al aproximarse a contemplarlos deterministas se encuentran en minoría pero disponen de figuras tan gloriosas como Einstein, Schródinger, Blockinzev o De Broglie. La regularidad de las leyes físicas y la posibilidad de conocerlas con seguridad se resumen en la conocida fase de Einstein: “Dios no juega a los dados”. La Escuela de Copenhague, dirigida por Niels Bohr, se convirtió en la defensora del probabilismo, mientras la Escuela de París, dirigida por Louis De Broglie, ha sostenido el determinismo arguyendo que los probabilistas suministran una descripción incompleta de los fenómenos microfísicos. Como vemos, los científicos no se han limitado a escudriñar en los secretos del universo físico, sino que se han planteado la relación del hombre con ese universo desde atalayas “meta-físicas”.

EL CONOCIMIENTO DEL UNIVERSO

UNA VENTANA ABIERTA AL ESPACIO EXTERIOR

Capítulo fascinante de la ciencia del siglo XX es el cubierto por los progresos en el conocimiento del universo, posibilitados por la innovación de los instrumentos de observación y por la formulación de hipótesis filosóficas y físicas —la teoría de la Relatividad cambió sustancialmente la imagen del espacio— y modelos matemáticos. Hasta el siglo XVIII la astronomía se reducía al estudio del Sistema Solar y las estrellas se utilizaban como referencia, fondo invariable. Salvo Laplace, las teorías en boga hasta mediados de este siglo fueron elaboradas por filósofos; la más conocida es la de Immanuel Kant: Historia universal de la naturaleza y teoría del cielo (1755), cuyas ideas sobre el origen del Sistema Solar ejercieron prolongada influencia. Entre 1780 y 1820 se inició el estudio de nuestra galaxia, la Vía Láctea.

En 1842 el austríaco Doppler anunció un principio de fundamental importancia en astronomía: la luz de las estrellas produce un desplazamiento del espectro hacia el violeta cuando ésta se acerca, hacia el rojo cuando se aleja; con él se pudo medir la velocidad radial de las estrellas; en 1912 Slipher obtuvo el espectro de la nebulosa de Andrómeda y midió su aproximación a la Tierra a una velocidad de 200 km por segundo.

LA DIMENSIÓN DE LAS GALAXIAS

El conocimiento de nuestra galaxia recibió un impulso decisivo en 1918, cuando Harlow Shapley, a partir de los cúmulos globulares que se encuentran al Norte y al Sur del plano galáctico, consiguió determinar la posición y distancia del centro de gravedad de esta inmensa concentración de estrellas.

galaxia lejana

El Sol se encuentra situado en una posición marginal dentro de la galaxia, a 30.000 años luz del centro; de repente las soberbias geocéntricas y heliocéntricas quedaban barridas. Según los censos estelares se pensaba que disminuía la densidad de las estrellas en todas direcciones a partir de la Tierra, pero desde 1930 sabemos que es una simple impresión producida por la absorción de la luz por el polvo interestelar.

El diámetro de la galaxia es del orden de 100.000 años luz, lo que aumentaba espectacularmente las dimensiones hasta entonces concebidas, que no iban más allá de distancias diez veces menores. A continuación, comenzaron a medirse las velocidades de los astros en el espacio; el holandés Ort demostró que el Sol efectúa revoluciones circulares en torno al centro de la galaxia a 215 km por segundo, y posteriormente otros astrónomos, basándose en esta traslación solar, consiguieron determinar el orden de magnitud de la masa total de la galaxia en 200.000 millones de veces la masa del Sol. Estas dimensiones eran 2.000 veces superiores a las calculadas por Herschel, el primer astrólogo que, a finales del siglo XVIII, había intentado valorar el tamaño de la galaxia.

Se habìa llegado a dimensiones Impensables, pero todavía aguardaban nuevas sorpresas. La inmensidad de nuestra galaxia había hecho creer que ella sola constituía el universo. En 1924 Hubble demostró que nuestra vecina, Messier 31 de Andrómeda, constituía otra galaxia de estructura similar a la Vía Láctea pero mayor y más compleja, con estrellas dobles situadas a 2 millones de años luz. Por medio de los radiotelescopios se pudo comprobar la existencia de mil millones de estos paquetes de estrellas que llamamos galaxias, compuesto cada uno por miles de millones de cuerpos espaciales. Estas familias que pueblan el espacio son de diversas formas, esferoidales, elipsoidales, lenticulares, o prolongadas a modo de brazos, como la Vía Láctea.

Tras medir las dimensiones, otro capítulo atrajo la atención de los astrónomos: estos cuerpos espaciales se mueven a velocidades fantásticas dentro de las galaxias, mientras se produce otro movimiento de desplazamiento relativo entre éstas. Se comprobó primero, por el desplazamiento del espectro hacia el rojo, que las galaxias se alejaban del espectador terrestre; este alejamiento fue comprobado por Slipher entre 1912 y 1922. Pero la velocidad de desplazamiento no era constante; en 1928 Hubble publicó la ley de los desplazamientos espectrales, que afirma la relación distancia-velocidad; la velocidad de fuga parece aumentar con el alejamiento, 160 km por segundo por millón de años luz de distancia según la medida de Hubble, rebajada en la actualidad a 25 km por segundo. Se ha conseguido determinar la velocidad de más de mil galaxias, algunas se desplazan a 150.000 km por segundo, la mitad de la velocidad de la luz.

EL ORIGEN DEL UNIVERSO

el universo

Dimensiones, número de astros, velocidades de desplazamiento, alejamiento, todas las concepciones del universo han tenido que modificarse. En 1963 los objetos más lejanos cuyas distancias habían sido medidas se encontraban a 6.000 millones de años luz, pero entre las débiles imágenes captadas en Monte Palomar se sospechaba que podían encontrarse las correspondientes a galaxias que se situaban a 10.000 millones de años luz. Estas distancias introducen el factor tiempo en cosmología, porque el mensaje luminoso que recibimos corresponde a imágenes de otra época, incluso anteriores a la existencia de la Tierra, a la que se asignan 4,5 millones de años, de manera tal que el universo puede ser en la actualidad muy diferente a las imágenes que en este momento captamos.

¿Cómo es el universo?

Cada descubrimiento crea nuevas preguntas. ¿Se enfriará el Sol y morirá la Tierra de frío o, como parece más probable, se convertirá el Sol en una gigante estrella roja y achicharrará a todos los planetas de su Sistema? ¿Es la Tierra una curvatura del espacio? ¿Lo son todos los cuerpos celestes? ¿Qué es el espacio, qué respuesta

ha de darse tras la comprobación de que en las cercanías del Sol deja de ser euclidiano? ¿Qué geometría debe aplicarse al espacio? En 1917 Einstein demostró que la única posible era la de un espacio esférico de curvatura constante, cerrado, cuyo radio y cuya masa total podían obtenerse mediante fórmulas que propuso. Su modelo estable y estático ha planteado problemas casi insolubles, por lo que en 1922 Friedmann, matemático ruso, interpretando el efecto Doppler, se planteó la posibilidad de la modificación del radio del universo entre el instante de emisión de luz de una galaxia elevada y el instante de la observación; si el espectro se desplazaba hacia el rojo había que suponer que el universo se encontraba en expansión. Hemos indicado ya que así ocurre y que Hubble consiguió medir la velocidad de desplazamiento.

Otros teóricos aseguran que esta expansión es sólo una pulsación que será seguida de un período de contracción, con lo que el universo sería un enorme globo que se infla y desinfla periódicamente. La aportación de los teóricos (físicos y matemáticos) ha llegado a ser imprescindible, porque se nos plantea el problema de saber hasta qué punto la muestra de Universo que nos rodea resulta representativa. El modelo euclídeo de Newton, tanto tiempo útil, ha sido barrido desde el momento en que se abrió la ventana de las galaxias.

La teoría del Big Bang

big bang

La pregunta crucial se refiere al origen del universo. La teoría predominante en nuestros días es la denominada del Big Bang o explosión inicial. Su punto de partida se anda en la Teoría de la Relatividad General de Einstein. Un astrofísico, George Gamov, tras fechar esa explosión en un instante que se remonta a 15.000 millones de años, planteó la posibilidad de escuchar el eco de la misma cuando los instrumentos de medición permitieran acercarse a esa distancia. En 1964 dos radioastrónomos de los laboratorios Bell de Estados Unidos, Penzias y Wilson, que recibirían el premio Nobel en 1978, registraron un zumbido de fondo que posteriormente fue interpretado como el eco del Big Bang.

Otros científicos y desde 1992 el satélite COBE analizaron muestras de lo que se consideró la composición inicial del universo, concentraciones de hidrógeno y helio, a partir de las cuales se formarían estrellas y galaxias. Da la impresión de que se multiplican las pruebas del Big Bang, pero no todos los científicos aceptan esta teoría. Otro astrónomo eminente, Fred Hoyle, ha defendido la inexistencia de una explosión, afirmando que la materia se crea y destruye incesantemente en un universo estacionario. Doc. 3

El mejor procedimiento para elegir el modelo de expansión o el modelo estacionario consiste en estudiar la luz de los confines del universo, a miles de millones de años luz. En un universo en expansión esta luz sería “joven”, similar a la del momento de la explosión y diferente a la próxima a la Tierra; por el contrario, en un universo estacionario sería similar la luz próxima y la de los límites del universo.

DE LA VIDA A LA INTELIGENCIA ARTIFICIAL

EL MISTERIO DE LA VIDA

La bioquímica descubre y estudia los elementos químicos de la actividad vital y sus procesos o modalidades de acción. El descubrimiento de las enzimas, cuerpos químicos que actúan en procesos de fermentación, oxidación y fotosíntesis, fue seguido por el de las vitaminas, sustancias muy complejas, como la vitamina B, que contiene a su vez 15 sustancias. Con las vitaminas se completa la concepción de la enfermedad generada por un virus patógeno con el de enfermedad de carencia, como escorbuto, beriberi, raquitismo o enfermedades provocadas por la no presencia en el organismo vivo de alguna sustancia necesaria. Además de las adquiridas por alimentación, el organismo vivo produce sus propias sustancias, generadas por las glándulas endocrinas. Así, se ha descubierto la importancia de las hormonas que intervienen en el crecimiento de animales y plantas y en el funcionamiento preciso de los órganos: Ja insulina del páncreas, las hormonas del tiroides, las hormonas sexuales, etc.

Con el progreso de la bioquímica cambia la concepción de la vida, que es considerada como una estructura química peculiar, en la que el intercambio de elementos químicos es constante. Los componentes de lo vivo y lo no vivo son los mismos, la diferencia está en su ordenación, en su estructura. Teilhard de Chardin ha distinguido la acumulación exterior de elementos químicos que se produce en lo no vivo —así se forman los cristales, los minerales— de otro tipo de acumulación interna, que supone

Formas de vida extraterrestre

Pienso que las formas de vida de muchos mundos estarán compuestas en principio por los mismos átomos que tenemos aquí, quizás también por muchas de las mismas moléculas básicas, como proteínas y ácidos nucleicos; pero combinados de modos desconocidos. Quizás, si hay organismos flotando en las.densas atmósferas planetarias tendrán una composición atómica muy ‘parecida a la nuestra, pero es posible que carezcan de huesos y que, por lo tanto, no necesiten mucho calcio. Quizás en otros lugares se utilice un solvente diferente del agua. El ácido fluorhídrico nos podría servir bastante bien, aunque no hay una gran cantidad de flúor en el Cosmos; el ácido fluorhídrico causaría mucho daño al tipo de moléculas de que estamos hechos; pero otras moléculas orgánicas, como las ceras de parafina, por ejemplo, se mantienen perfectamente estables en su presencia. El amoniaco líquido resultaría un sistema solvente todavía mejor, ya que el amoníaco es muy abundante en el Cosmos. Pero sólo es liquido en mundos mucho más fríos que la Tierra o que Marte. El amoníaco es normalmente un gas en la Tierra, como le sucede al agua en Venus. O quizás haya cosas vivas que no tienen ningún sistema solvente: una vida de estado sólido donde en lugar de moléculas flotando hay señales eléctricas que se propagan.

una estructura más compleja, proceso al que el famoso pensador e investigador francés llama “complexificación interiorizante”. En el mismo sentido ha escrito Charón:

“Es muy posible que ese umbral que permite distinguir la Materia de lo Vivo sólo pueda ser descrito en términos de lenguaje topológico, que se refieran al espacio-tiempo. La Naturaleza, después de haber realizado todas las uniones posibles (por campos físicos) en nuestro espacio ordinario de topología plana (el de la Materia) había inventado la topología cilíndrica. Esta transformación exige, en principio, poca energía, ya que en ambos casos el espacio sigue siendo euclidiano, es decir, de débil intensidad de energía. Con la nueva topología cilíndrica pueden realizar-se bruscamente tipos de uniones posibles en la Materia. Además, las ondas electromagnéticas pueden permanecer encerradas (y, por tanto, disponibles) en este nuevo espacio. Salvamos así el umbral que separa la Materia de lo Vivo; las nuevas propiedades no tienen medida común con las antiguas: lo Vivo, con su topología diferente, constituye un auténtico universo en pequeño, paralelo al universo en que se distribuye y se pone la Materia”

Al conocimiento de los procesos vitales ha contribuido la investigación sobre la célula, a la que se ha consagrado una rama de la biología, la citología. Desde principios de siglo se realizaron cultivos de tejidos separados de su organismo y en 1933 el oftalmólogo ruso Filatov utilizó tejidos congelados en sus intervenciones quirúrgicas. Casi inmediatamente se consiguió mantener vivos órganos enteros separados de los organismos en que habían funcionado; en 1936 Carrel y Lindbergh hicieron vivir y funcionar durante varias semanas algunos órganos de mamíferos (ovarios, glándulas).

Otra línea de investigación atendió el estudio de los seres vivos más elementales, los virus. En 1935 Bochian consiguió sintetizar en el laboratorio uno de los más sencillos, el llamado virus del “mosaico del tabaco”. Se trata sin duda de seres vivos, ya que se reproducen y viven a expensas del medio en que se hallan, no obstante se discute su condición de organismo, parecen ser simples moléculas proteicas a las que se ha asignado la calidad de etapa intermedia entre la materia inanimada y viviente. El estudio de estos organismos inferiores, como los virus y las bacterias, ya más complejas, han permitido delimitar ciertas condiciones del origen de la vida, los elementos, presión y temperatura indispensables para el nacimiento de las operaciones específicas de lo vivo.

LA CIBERNÉTICA

En el campo de la electrónica, la física ha conseguido igualmente progresos revolucionarios, aplicados a la transmisión de señales (radio, televisión, satélites de comunicaciones), a la óptica (microscopios electrónicos, fotoelectricidad, cine). El láser, haz de ondas luminosas de intensidad mil veces superior a la de la luz solar, conseguido, por medio de emisiones estimuladas, por Maiman en 1960, está llamado a ser una de las maravillas del futuro y tiene aplicaciones ya en la medicina (cirugía de la retina, tumores cancerosos), en la industria y en la guerra (proyectiles dirigidos, aviones). Pero la aportación más importante de la electrónica es la construcción de ordenadores, que permiten la realización de complejas operaciones matemáticas en un tiempo mínimo y se han convertido en auxiliares imprescindibles para la exploración del espacio, utilísimos para la estadística y la manipulación de toda clase de datos en las complejas organizaciones de las sociedades industriales.

La primera calculadora electromecánica, construida por Howard Aiken, entró en servicio en 1944, era la Mark 1, que realizaba sus operaciones matemáticas mediante impulsos eléctricos cuya información procedía de cintas perforadas y cuyos resultados se obtenía también en perforaciones que finalmente se traducían en cifras. Luego, cálculos más rápidos y complicados se obtuvieron sustituyendo los relés por válvulas electrónicas; así se construyó el primer calculador electrónico, llamado Eniac. Mientras la Mark  necesitaba un tercio de segundo para hacer una suma de 23 cifras, la Data file, construida en 1957, puede leer varios millones de signos en milésimas de segundo.

El americano Norbert Wiener descubrió en 1948 la analogía entre el cerebro electrónico y el cerebro humano y la similitud de los impulsos eléctricos que transmiten la información y las órdenes entre el sistema nervioso del ser humano y los circuitos eléctricos; así nacieron máquinas eléctricas, robots que pueden funcionar según una lógica binaria, mientras la industria comienza a recorrer la investigación en este campo de la “electricidad pensante”. El fenómeno de la automatización, de la sustitución del trabajo humano por máquinas programables mediante las posibilidades de la electrónica, encierra profundas repercusiones sociales, anuncia un mundo en el que el trabajo de los hombres puede descargarse en máquinas, en un grado hasta hace poco tiempo insospechable.

Por primera vez disponemos ahora de medios para establecer contacto con civilizaciones en planetas de otras estrellas. Es un hecho asombroso que el radiotelescopio de 30 m de diámetro del National Astronomy and lonosphere Center, dirigido por la Cornell University en Arecibo, Puerto Rico, fuese capaz de comunicarse con otro idéntico situado en cualquier lugar de la Vía Láctea. Disponemos de los medios de comunicarnos no sólo venciendo distancias de centenares de miles de años luz, sino que podemos hacerlo de esa manera en un volumen que contenga centenares de miles de millones de estrellas. La hipótesis de que existen civilizaciones muy avanzadas en otros planetas se está poniendo a prueba. Ya ha dejado de ser pura especulación. Ahora se halla en el terreno de la experimentación.

LAS GRANDES CONQUISTAS DE LA CIENCIA

Hemos visto cuáles son las bases de la Revolución Científica del siglo XX: la física atómica, la física del espacio, las aplicaciones de la electrónica, la química de la vida; sobre estos cuatro pilares se han montado prácticamente todos los avances de la ciencia y de la técnica. De manera esquemática apuntamos algunos de los avances que más han influido en la vida del ser humano.

LA CONQUISTA DEL ESPACIO

Estamos probablemente en las primeras páginas de esta apasionante aventura, aunque nos parezcan ya conquistas casi increíbles: el lanzamiento de los primeros satélites (Sputniks rusos), la llegada del hombre a la Luna, el envío de ingenios espaciales para la recogida de materiales y la exploración del sistema solar, el ensamblaje de naves espaciales, etc.

LA GENÉTICA

Las teorías de Darwin y las leyes de Mendel han sido comprobadas en el siglo XX y enriquecidas o modificadas con las observaciones que permiten los aparatos de que disponen los investigadores. El holandés De Vries estableció, a principios de siglo, el concepto de mutación, la alteración que puede sufrir la carga genética almacenada en los cromosomas de las células genéticas o genes; de esta forma, la evolución no se produciría por alteraciones somáticas o anatómicas, por la adaptabilidad morfológica de los órganos a condiciones exteriores, como habían supuesto Lamarck y Darwin, sino por cambios internos del patrimonio hereditario. Las diferentes escuelas y los diferentes genéticos, Lyssenko, Dunn, Dobzanski, han explicado de diferentes formas los mecanismos pero aceptando todos la realidad de la evolución biológica.

EN LA MEDICINA

Podemos hablar de revoluciones, en plural. En primer lugar, el perfeccionamiento de los aparatos y las técnicas —rayos X, anestesia— ha permitido éxitos nuevos en la lucha contra la enfermedad. Por otra parte, la bioquímica ha puesto a disposición de los médicos sustancias que combaten a las bacterias patógenas: la meningitis es combatida por el ácido para-amino-salicílico; la malaria ha sido vencida por la cloroquinína y la paludrina; las vacunas han arrinconado enfermedades antes terroríficas; las sulfamidas y antibióticos han sido quizás la aportación más importante en este campo y Fleming, descubridor de la penicilina en 1928, uno de los grandes benefactores de la Humanidad.

Pero quizás el más fascinante capítulo de las ciencias medicas lo esté escribiendo el psicoanálisis, punto de partida para la medicina psicosomática. A las enfermedades provocadas por virus y a las provocadas por carencias de alguna sustancia habría que añadir un tercer tipo de trastornos, los del psiquismo, que se reflejan en el organismo, de donde se deduce que algunas enfermedades no pueden ser curadas sin estudiar sus raíces anímicas. Por otra parte, el psicoanálisis ha permitido un conocimiento más profundo del hombre. En este sentido la obra de Freud en medicina es equiparable a la de Einstein en física, supone una renovación total, un giro copernicano en los conceptos básicos

La indagación del subconsciente, en el que se arrinconan los traumas que el consciente no se atreve a afrontar y que afloran en el mundo de los sueños, permitió a Freud elucidar dimensiones desconocidas del espíritu, e iniciar unos métodos que fueron completados y revisados por Adler y Jung.Finalmente, constituye la revolución de las técnicas quirúrgicas el capítulo quizá más popular, especialmente el de los trasplantes de órganos, posibilitados por las investigaciones citológicas y las técnicas de conservación de órganos separados del ser al que pertenecen; los trasplantes del corazón, iniciados por el cirujano sudafricano Barnard, suscitaron la atención mundial, no obstante los avances más seguros no se han obtenido en la cardiología sino en la urología, oftalmología y otras ramas.

LA APORTACIÓN DE LA MATEMÁTICA

Durante siglos los matemáticos se movieron por los axiomas y postulados de la matemática griega; Thales, Pitágoras, Euclides son referencias constantes. Pero la nueva física precisaba una nueva matemática y partiendo de la consideración de que sólo el lenguaje matemático permite construir la ciencia física se ha desembocado en la afirmación de la necesidad universal de las matemáticas, necesidad demostrada por la cibernética y la aplicación incluso a ramas de la filosofía (lógica matemática). Un matemático-lógico, Kurt Gódel, demostró que en la ciencia eran siempre posibles las contradicciones porque el lenguaje científico es el desarrollo lógico obtenido mediante determinadas reglas (estructuras) aplicadas a un número de conceptos que se conviene en aceptar como validos, pero es posible sustituir estos conceptos básicos y levantar un nuevo edificio científico. De esta manera, se puede reemplazar la geometría de Euclides, apoyada en el postulado de que por un punto no se puede trazar más de una línea paralela a una recta, por otro postulado diferente (exigible por la concepción esférica del espacio einsteniano) y construir una geometría diferente. Y así se ha hecho. La aportación de Gódel, Whitehead, Russell, ha supuesto una palanca para el progreso del conocimiento.

De la misma manera que la Revolución Industrial se caracterizaba no por un invento aislado sino por una serie coherente de inventos, o mejor todavía por el invento que suscita otro más perfecto, la Revolución Científica ha despertado en cadena métodos y revelaciones que plantean nuevos interrogantes y permiten vislumbrar al mismo tiempo la posibilidad de contestarlas en un futuro inmediato.

El desafío del espacio

No hay camino de retorno al pasado; las únicas opciones, como ya dijo Wells, son el universo o la nada. Aunque los hombres y las civilizaciones anhelen descansar, para Eliseo y los lotófagos existe un deseo que se funde imperceptiblemente con la muerte. El desafío de los grandes espacios entre los mundos constituye un desafío formidable, pero si no le hacemos frente, ello significará que la historia de nuestra raza llega a su fin. La Humanidad habrá vuelto la espalda a las alturas todavía vírgenes y descenderá de nuevo por la larga pendiente que conduce, a través de miles de millones de anos, a los mares primigenios.

Escritos de Albert Einstein

La democracia

Mi ideal político es la democracia. El individuo debe respetado como persona. Nadie debería recibir un culto idólatra (Siempre me pareció una ironía del destino el haber suscitado tanta admiración y respeto inmerecidos. Comprendo que surgen del afán por comprender el par de conceptos que encontré con mis escasas fuerzas, al cabo de trabajos incesantes. Pero es un afán que muchos no podrán colmar).

La riqueza

No hay riqueza capaz de hacer progresar a la Humanidad, ni aun manejada por alguien que se lo proponga. A concepciones nobles, a nobles acciones, sólo conduce el ejemplo de altas y puras personalidades. El dinero no lleva más que al egoísmo, y conduce irremediablemente al abuso. ¿Podemos imaginar a Moisés, a Jesús, a Gandhi, subvencionados por el bolsillo de Carnegie?

La educación

Dar importancia excesiva y prematura al sistema competitivo y a la especialización en beneficio de la utilidad, segrega al espíritu de la vida cultural, y mata el germen del que depende la ciencia especializada.

Para que exista una educación válida es necesario que se desarrolle el pensamiento crítico e independiente de los jóvenes, un desarrollo puesto en peligro continuo por el exceso de materias (sistema puntual). Este exceso conduce necesariamente a la superficialidad y a la falta de cultura verdadera. La enseñanza debe ser tal que pueda recibirse como el mejor regalo y no como una amarga obligación.

Cuestionamientos al Progreso Tecnológico del Siglo XX

ALBERT EINSTEIN:  Mi visión del mundo. Tusquets, Barcelona, 1980.

Temas Relacionados:
El Átomo
Proyecto Genoma
Vida de las Estrellas
Biografía de Albert Einstein
Biografía de Max Planck

Biografía de Freud
Teoría de la Relatividad

 

Metodo Para Determinar La Velocidad de la Luz Metodo de Fizeau

Determinación de la Velocidad de la Luz- Método Fizeau

La luz avanza tan aprisa que nada en nuestra experiencia cotidiana nos conduce a pensar que su velocidad no sea infinita. Se: requiere una considerable penetración inclusive para preguntar “Con qué rapidez se mueve la luz?” Galileo se hizo esta pregunta y trató de contestarla experimentalmente.

Su obra principal, Dos Nuevas Ciencias, publicada en Holanda en 1638, esté escrita en forma de una conversación entre tres personajes ficticios llamados Salviati, Sagredo y Simplicio. Reproducimos una parte de lo que decían acerca de la velocidad de la luz.

Simplicio: La experiencia cotidiana nos muestra que la propagación de la luz es instantánea; porque cuando vemos que se dispara un cañón a distancia, el fogonazo llega a nuestros ojos sin que transcurra ningún tempo mientras que el sonido llega a nuestros oídos sólo después de un intervalo perceptible.

Sagredo: Bien, Simplicio, lo único que yo puedo inferir de esta experiencia tan común es que el sonido al llegar a nuestros oídos viaja más lentamente que la luz; no me informa si la llegada de la luz es instantánea o si, cuando sea sumamente rápida, de todas maneras invierte algún tiempo..

Sagredo: quien evidentemente es Galileo mismo, describe entonces un método posible para medir la velocidad de la luz. El ayudante se colocan frente a frente separados alguna distancia la noche. Cada uno de ellos lleva una linterna que puede tapar destapar a voluntad. Galileo comenzó el experimento descubrí su linterna. Cuando la luz le llegó al ayudante éste destapó su propia linterna, cuya luz fue vista por Galileo.

Cuando trató de medir tiempo transcurrido desde que él descubrió su propia linterna hastaa que le llegó la luz de la linterna de su ayudante. Actualmente sabemos que para una distancia de 1609 m (una milla) el tiempo para el viaje de ida y vuelta sería solamente de 11 X 10-8. Este tiempo es mucho menor que los tiempos de reacción humana de modo que el método falla.

Para medir una gran velocidad directamente, o bien medimos un Intervalo de tiempo pequeño o bien usamos una línea de base grande. Esta situación sugiere que la astronomía, que trata con grandes distancias, podría ser capaz de dar un valor experimental para la velocidad de la luz; efectivamente así fue. Aun cuando sería deseable medir el tiempo que tarda la luz del Sol en llegar a la Tierra, no hay manera de saber cuándo sale del Sol la luz que nos llega en un instante dado; debemos usar métodos astronómicos más elaborados.

Sin embargo, nótese que las señales de radar son reflejadas con toda regularidad por la Luna; esto nos da una línea de base de 7.68 X 108 m (de ida y vuelta) para medición de tiempo. La velocidad de la luz (y de las microondas) es tan bien conocida en la actualidad mediante otros experimentos que estas mediciones se usan para determinar exactamente la distancia a la Luna. También se han podido obtener reflexiones de señales de microondas desde Venus.

En 1675 Roemer (imagen izq.), un astrónomo danés que observaba en Paris, hizo algunas observaciones de los satélites de Júpiter de las cuales se puede deducir una velocidad de la luz de 2 X 108 m/seg.

Aproximadamente 50 años más tarde, James Bradley, un astrónomo inglés, hizo algunas observaciones astronómicas de naturaleza totalmente diferente, de las cuales se puede deducir un valor de 3.0 X 108 m/seg. En 1849, Hippolyte Louis Fizeau (1819-1896), un físico francés, fue el primero que midió la velocidad de la luz por un método no astronómico, obteniendo un valor de 3.13 X 108 m/seg.

La figuramuestra el aparato de Fizeau. Para comenzar no nos fijemos en la rueda dentada. La luz de la fuente S se hace convergente mediante la lente L, es reflejada por el espejo M1, y forma en el espació en E una imagen de la fuente. El espejo M, se llama “espejo semiplateado”, su capa reflectora es tan delgada que sólo la mitad de la luz que le llega es reflejada, siendo transmitida la otra mitad.

La luz de la imagen en F entra a la lente L2 y sale como un haz de rayos paralelos; después de pasar por la lente L3 es reflejada siguiendo su dirección original, pero en sentido contrario hacia el espejo M2. En el experimento de Fizeau la distancia 1 entre M2 y F fue de 8.630 m, o sea, 5.36 millas. Cuando la luz llega al espejo M1 otra Vez algo de ella es transmitida, entrando al ojo del observador por la lente L1.

Metodo de Fizeau Para Determinar la velocidad de la luz

El observador verá una imagen de la fuente formada por la luz que ha viajado una distancia 2.L entre la rueda y el espejo M2 de ida Y regreso. Para medir el tiempo que tarda el haz de luz en ir y regresar se necesita proveerlo, en alguna forma, de un marcador. Esto Se hace “cortándolo” con una rueda dentada que gira rápidamente. Supóngase que durante el tiempo de ida y vuelta 2L/c, la rueda ha girado exactamente lo necesario para que cuando una determinada «porción de luz» regresa a la rueda, el punto F está tapado por un diente. La luz pegará contra la cara del diente que está hacia M2 y no llegará al ojo del observador.

Si la velocidad de la rueda es precisamente la adecuada, el observador no verá ninguna de las «porciones de luz” porque cada una de ellas será tapada por un diente. El observador mide a c aumentando la velocidad angular de la rueda desde cero hasta que desaparezca la imagen de la fuente S. Sea e la distancia angular del centro de un hueco al centro de un diente. El tiempo que requiere la rueda para girar una distancia e; es el tiempo del viaje de ida y vuelta 2L/c. En forma de ecuación:

Esta técnica del «rayo cortado” convenientemente modificada, Se usa en la actualidad para medir las velocidades de los, neutrones y de otras partículas.

EJEMPLO NUMERICO DEL RAZONAMIENTO

La rueda usada por Fizeau tenía 720 dientes. ¿Cuál es la Velocidad angular mínima para la cual desaparecía la imagen de la fuente?

El ángulo e es de 1/1440 rev; despejando a de la ecuación anterior resulta:

El físico francés Foucault (1819-1868) mejoró notablemente el método de Fizeau sustituyendo un espejo giratorio por la rueda dentada. El físico norteamericano Albert A. Míchelson (1852-1931) efectuó durante un periodo de 50 años una extensa serie de medición de c, usando esta técnica.

Debemos considerar la velocidad de la luz dentro del marco más amplio de la velocidad de las radiaciones electromagnéticas en general. Es una confirmación experimental importante de la teoría de Maxwell del electromagnetismo que la velocidad en el espacio libre de ondas en todas las partes del espectro electromagnético tiene el mismo valor c.

La tabla mas abajo muestra los resultados de algunas mediciones que se han hecho de la velocidad de la radiación electromagnética desde la época de Galileo. Es un verdadero monumento a la perseverancia y al ingenio humano. Nótese, en la última columna, cómo se ha mejorado la incertidumbre en las mediciones al correr de los años. Nótese también el carácter internacional del esfuerzo y la variedad de los métodos.

El trabajo de llegar a un solo valor “mejor” de e a partir de los muchos consignados en la tabla es difícil, porque implica un estudio cuidadoso de cada una de las mediciones efectuadas y una selección de entre ellas, fundada en las incertidumbres reconocidas por los experimentadores y el juicio del seleccionador por lo que se refiere a la presencia o ausencia probable de errores ocultos.

Al hacer el promedio final, se dará más peso a las mediciones que tengan pequeñas incertidumbres que a las que tengan grandes incertidumbres. Mediante un cuidadoso análisis de tales mediciones fue como en 1964 se llegó al “mejor” valor de c = 2.997925x 1O8 m/seg. La incertidumbre de la medición es de menos de 0.000003 X 108 m/seg. o sea, 0,0001%

ALGO MAS SOBRE EL TEMA…

MÉTODO DE RÓMER

En 1670, por primera vez en la historia, el astrónomo danés Olaf Rómer pudo calcular la velocidad de la luz. Se hallaba estudiando los eclipses de uno de los satélites de Júpiter, cuyo período había determinado tiempo atrás. Estaba, pues, en condiciones de calcular cuándo habrían de producirse los próximos eclipses. Se dispuso a observar uno de ellos, y con sorpresa vio que a pesar de que llegaba el instante tan cuidadosamente calculado por él, el eclipse no se producía, y que el satélite demoró 1 000 segundos más en desaparecer.

Asombrado, revisó cuidadosamente sus cálculos y comprobó que eran correctos. ¿Qué había sucedido? Para comprenderlo mejor, hagamos la siguiente comparación:

imaginemos que la sirena de una fábrica .nena todos los días exactamente a las 12. Un señor que vive a 350 m de ella la oirá a las 12 horas y 1 segundo, pues la velocidad del sonido es de 350 m/s. Si un día este señor se va de paseo, y a las 12 se encuentra a 700 m de la fábrica, no se asombrará de oír la sirena a las 12 y 2 segundos, por que él sabe que el sonido tiene una velocidad de 350 m/s.

Algo muy parecido sucedió a Roemer con los eclipses del satélite de Júpiter. Rómer había hecho todos sus cálculos basándose en observaciones realizadas cuando la Tierra y Júpiter ocupaban las posiciones que en la figura señalamos T y J, respectivamente, pero cuando observó el retraso en el eclipse, las posiciones ocupadas por los planetas eran V y J’.

El dibujo muestra que entonces la luz debe recorrer una distancia suplementaria de 300 millones de km, y en ello empleó los 1.000 segundos de retraso que tanto sorprendieron a Roemer. El astrónomo interpretó correctamente los hechos e hizo el cálculo de la velocidad de la luz.

MÉTODO DE FOUCAULT
El aparato de Foucault era mucho más sencillo que el de Fizeau y la luz recorría una distancia más pequeña. Esto tiene la ventaja de poder medir la velocidad de la luz a través de distintos medios, llenando el espacio con dichos medios. También se puede hacer el vacío y determinar la velocidad de la luz en el vacío. La luz se propaga ligeramente más despacio en el aire que en el vacío; en el agua sólo tiene % de su velocidad en el aire; a través del cristal, la velocidad es menor, dependiendo del tipo de cristal.

Veamos el método de Foucault. La luz producida en un manantial luminoso pasaba a través de una lámina de vidrio y, después, a traves de una lente convergente que la concentraba en la superficie de un espejo plano. Otro espejo, cóncavo, se disponía de forma que la luz que reflejaba el plano llegaba a un foco y se reflejaba siguiendo el mismo camino que a la ida. Cuando la luz llegaba de nuevo al espejo plano se reflejaba, y esta luz reflejada convergía formando una imagen de la fuente luminosa, que se observaba a través de un anteojo.

Si el espejo plano giraba, la luz que reflejaba al volver a él lo encontraba en otra posición y, por tanto, la imagen en el anteojo estaba ligeramente corrida. La velocidad de la luz podía calcularse a partir de la velocidad de rotación, la magnitud del movimiento y la distancia entre los espejos. Existen modificaciones del método original, que permiten obtener resultados más precisos.

Aparato de Foucault – Medición Velocidad de la Luz

La causa de error mayor en este método era la medida del pequeño movimiento de la imagen. Hubiera sido más conveniente hacer girar el espejo tan rápido que estuviera otra vez en la misma posición al recibir la luz reflejada. Esto habría dado una imagen en la misma posición y sólo habrían sido necesarias en el cálculo las distancias entre los espejos y la velocidad de rotación. Michelson resolvió este problema, sustituyendo el espejo plano por uno octogonal.

Distintas caras del octógono reflejaban la luz en su camino de ida y en el de vuelta. Así, la luz sólo era visible para el observador cuando el octógono tenía una determinada posición.

Esto ocurría si el octógono estaba quieto o si giraba a una velocidad tal que una cara sustituía exactamente a otra, mientras la luz recorría un determinado camino hasta un reflector lejano, y viceversa. La velocidad de rotación se calculaba con bastante exactitud, y luego se usaba en el cálculo de la velocidad de la luz.

A pesar de su velocidad, la luz necesita bastante tiempo para viajar por la inmensidad del espacio. En efecto, a la Tierra está llegando la luz de cuerpos celestes que han desaparecido hace mucho tiempo. Las distancias en el espacio son tan enormes que expresarlas en kilómetros sería ridículo.

En vez de esto, se usan años-luz. Un año-luz es la distancia que recorre la luz, en el vacío, en un año. Si recorre 300.000 Km./seg., en un año recorrería esta distancia multiplicada por el número de segundos que tiene un año.

No se conoce nada que tenga una velocidad superior a ia de la luz. Aunque se trata de encontrar aparatos rápidos, es muy improbable que lleguen a acercarse a la velocidad de la luz. Cuanto más rápidos, más pesados se hacen y esto les impide aumentar su velocidad.

Fuente Consultada:
Física I Resnick-Holliday Tomo I
TECNIRAMA Enciclopedia de la Ciencia y la Tecnología – El Método de Foucault –