El Láser

Rayos Infrarrojos Usos, Aplicaciones y Propiedades

Rayos Infrarrojos Usos, Aplicaciones y Propiedades

El calor puede trasmitirse de tres formas distintas: por conducción, por convección y por radiación. La mayoría de los aparatos domésticos de calefacción se basan en las dos últimas formas de trasmisión. Una resistencia eléctrica calienta principalmente por radiación.

Cuando dicha resistencia se pone al rojo, irradia energía bajo la forma de ondas electromagnéticas, que tienen su origen en los movimientos de los electrones y en las vibraciones de los átomos y moléculas que constituyen el metal del que se halla compuesta la resistencia.

Cuando la resistencia está incandescente, no sólo emite luz visible, sino que, al mismo tiempo, emite radiación infrarroja, la cual, aunque es invisible, puede ser fácilmente detectada por la sensación de  calor  que  produce  en cualquier parte de nuestro cuerpo directamente expuesta a su acción.

En el espectro electromagnético, la radiación infrarroja está situada entre la luz visible y las ondas de radio. Las longitudes de ondas comprendidas en la zona del infrarrojo son más largas que la de la luz visible y más cortas que las de las ondas de radio. Consecuentemente, su energía es menor que la de las ondas luminosas, por lo que es más difícil detectarlas fotográficamente.

En efecto, sólo las radiaciones infrarrojas de la zona más cercana a la región visible tienen suficiente energía para ennegrecer una placa fotográfica. La radiación infrarroja es debida a las vibraciones de los electrones, átomos y moléculas, y se propaga con la velocidad de la luz (300.000 de m/seg.), calentando los objetos que encuentra a su paso, ya que origina que los electrones, átomos y moléculas de que éstos están constituidos, comiencen a vibrar.

Cuanto mayor es la energía de las vibraciones que origina la radiación infrarroja, más corta es la longitud de onda de la radiación emitida. Las ondas de infrarrojo se trasmiten, al igual que cualquier otra radiación electromagnética, en línea recta, y, de la misma manera que sucede en el visible y en el ultravioleta, la radiación calorífica del infrarrojo sólo puede detectarse por algún instrumento sometido directamente a su acción.

espectro electromagnetico

ƒ=frecuencia en Herz  –  λ=longitud de onda en nanometro – Equivalencia: 1°A=0,1 nm
Se dice que el espectro visible del hombres es entre 400 y 800 nm ó 4000 y 8000 °A

Según los otros dos tipos de trasmisión del calor (convección y conducción), pueden calentarse zonas que no están en línea recta con la fuente calorífica, es decir, que no están directamente expuestas a su acción. En el caso de Ja convección, es el aire u otro medio cualquiera el que, al desplazarse, trasmite el calor desde el elemento de calefacción hasta el objeto que se trata de calentar.

Las moléculas de los gases que componen el aire, sin embargo, apenas absorben radiación infrarroja, de forma que ésta continúa propagándose hasta que es parcialmente absorbida por un medio más denso.

La fuente calorífica más potente que la Tierra tiene es, sin duda alguna, la radiación infrarroja procedente del Sol. Una pequeña parte de su energía se queda en la atmósfera, y el resto calienta la Tierra, al ser absorbida por su superficie.

El objeto de la calefacción doméstica es elevar la temperatura general de una habitación, para lo que puede utilizarse tanto la convección como la radiación. En algunas ocasiones, sin embargo, es preciso calentar sólo una parte bien determinada, en cuyo caso han de utilizarse elementos de radiación, pues las corrientes de convección calientan uniformemente toda la habitación, y su eficacia es, además, fácilmente perturbada, si existen corrientes.

LÁMPARAS DE RAYOS INFRARROJOS
Las corrientes de convección pueden evitarse encerrando el elemento calefactor en un bulbo de vidrio, lo que constituye una lámpara elemental de rayos infrarrojos. Este tipo de lámpara es, en todo, similar a las lámparas corrientes utilizadas en el alumbrado.

lampara rayos infrarrojos

Para dirigir convenientemente la radiación infrarroja, se recubre parte de la superfieie interior del bulbo con un material que refleja los rayos infrarrojos y que ayuda a enfocar en una dirección la totalidad de la radiación emitida.

El filamento de una lámpara de rayos infrarrojos está a una temperatura inferior a la del filamento de una lámpara ordinaria (2.400° C comparados con unos 3.000° C) y la intensidad máxima de la gama de radiación que emite corresponde a unas 15.000 unidades Angstróm (el espectro visible acaba hacia los 7.600 °A).

Al ser inferior su temperatura, la radiación emitida es menos energética. Las radiaciones caloríficas se propagan, como cualquier otra, con la velocidad de la luz, por lo que este método constituye el medio más rápido de propagación del calor.

La velocidad con que un cuerpo se calienta por la acción de la radiación infrarroja, depende, principalmente, de la diferencia de temperatura entre el emisor de infrarrojo y el objeto absorbente. Con las lámparas de infrarrojo ordinarias, se obtiene una diferencia de más de 2.000° C, por lo cual los objetos sometidos a su acción se calientan muy rápidamente.

APLICACIONES  DE LOS RAYOS  INFRARROJOS
La radiación infrarroja tiene muchas y muy diversas aplicaciones como fuente calorífica. Como no la afectan las corrientes de aire, es muy adecuada para ser utilizada como elemento de calefacción exterior, y por ello, es frecuente su empleo en escaparates, negocios, etc.. de muchas grandes ciudades.

Las lámparas de rayos infrarrojos tienen también muchas aplicaciones industriales. Se utilizan, por ejemplo, para el secado y esmaltado de pinturas y barnices sobre cualquier tipo de superficie. Las pinturas de distintos colores requieren tiempos de secado diferentes. Así, la pintura negra se seca más rápidamente que la pintura blanca, ya que ésta refleja la mayor parte áe la radiación infrarroja que recibe, mientras que la pintura negra la absorbe casi en su totalidad.

Los rayos infrarrojos se utilizan también como fuente calorífica en la destilación de líquidos volátiles o muy inflamables, evitándose, de este modo, los riesgos que se producirían si estos últimos, por ejemplo, se calentaran a la llama. En este sentido, ha de tenerse en cuenta que la parte incandescente de una lámpara de rayos infrarrojos está totalmente encerrada en el bulbo.

En las conocidas parrillas de rayos infrarrojos, se consiguen asados más rápidos que en las parrillas ordinarias. La radiación infrarroja penetra, además, en el interior de la pieza de carne, con lo que resulta un asado más uniforme.

Aunque los rayos infrarrojos se utilizan, principalmente, como elemento de calefacción, tienen también aplicaciones más especializadas.

Veamos una de ellas. Los faros de los coches permiten al conductor ver en la oscuridad, ya que éste recibe la luz reflejada por los objetos en los que incide la luz emitida por los focos del vehículo. Pues bien: la misma operación puede realizarse utilizando radiación infrarroja con la ventaja adicional de que, en este caso, el conductor no revela su posición.

Este hecho tiene, como es fácil de comprender, importantes aplicaciones militares y en él están basados los aparatos de detección de blancos en la oscuridad y algunos de los tipos de proyectiles dirigidos. Como es lógico, los ojos del conductor no pueden detectar directamente la radiación infrarroja, sino que para ello se utiliza un aparato denominado convertidor de imagen, que es el encargado de trasformar la radiación infrarroja reflejada, en una imagen visible.

La radiación cae sobre un cátodo fotosensible, que forma parte de un aparato similar a los tubos de rayos catódicos utilizados en los aparatos de televisión.

La radiación incidente libera electrones del foto-cátodo (efecto fotoeléctrico), los cuales son acelerados por un campo eléctrico para chocar, por último, en una pantalla fluorescente. Cada electrón produce en ésta una mancha luminosa visible, por lo que la intensidad de la luz, en cada zona de la pantalla, será proporcional a la intensidad de la radiación infrarroja que es recibida por el cátodo.

mira infrarroja

Un convertidor de imagen de royos infrarrojos permite que el soldado vea en la oscuridad. Para ello, se dirige un haz de rayos infrarrojos al blanco deseado, y la radiación reflejada es recogida por el convertidor, que la  trasforma  en  una  imagen visible.

Fuente Consultada
TECNIRAMA N°  La Enciclopedia de la Ciencia y la Tecnología (CODEX)

Ver:  Usos de los Rayos Infrarrojos

Ver: Descubrimiento de los Rayos X

Ver:Efectos de los Rayos Ultravioleta

 

 

Efectos de la Radiación Ultravioleta Sobre la Piel Fluorecencia

Efectos de la Radiación Ultravioleta Sobre la Piel

A unos 19 Km. de la superficie de la Tierra, empieza una capa de gas ozono (O3) cuya densidad máxima se encuentra a unos 43 Km. de altura de la Tierra. Esta capa de ozono cumple una función muy importante. Tiene la propiedad de atrapar los rayos ultravioleta perjudiciales que emite el Sol, y, por tanto, evita que alcancen la Tierra.

Los rayos ultravioleta son radiaciones cuyas longitudes de onda varían desde 120 °A a 3.900 °A (una unidad ángstrom es la diez millonésima de milímetro). En el espectro electromagnético, los rayos ultravioleta se encuentran entre la luz visible, cuya longitud de onda es mayor, y los penetrantes rayos X, de longitud de onda más corta.

El  Sol   es  un   cuerpo extremadamente caliente.   Está incandescente porque la temperatura de su superficie es de unos 6.000 grados centígrados, y emite una gran cantidad de radiaciones electromagnéticas, la mayoría de las cuales son luz visible. Emite también rayos infrarrojos y luz ultravioleta. La luz visible afecta a la parte sensible de la retina del ojo y produce la sensación de luz.

La frontera entre la luz visible y la ultravioleta coincide con la frontera entre lo visible y lo invisible. La luz visible es inocua, pero la ultravioleta es perjudicial para los tejidos vivos. El efecto depende de la longitud de onda.

La región ultravioleta comprendida entre 3.000 °A y 1.850 °A es particularmente mortífera, y los rayos correspondientes se utilizan, de hecho, para destruir bacterias patógenas en hospitales y almacenes de alimentos, en donde las bacterias se eliminan antes de que lleven a cabo su acción destructora.

Los rayos ultravioleta de mayores longitudes de onda (3.900 °A a 3.000 °A) pueden tener efectos beneficiosos, en dosis moderadas. Cuando broncean la piel (bronceado solar), los rayos ultravioletas trasforman algunas sustancias orgánicas complejas de las células epiteliales humanas, tales como el ergosterol, en vitamina D.

A continuación, esta importante vitamina se incorpora al torrente circulatorio sanguíneo, y queda a punto para ser utilizada por el organismo. Se sabe muy poco acerca de los efectos de los rayos ultravioleta más cortos, sobre la materia viva.

Tales rayos son muy difíciles de controlar experimentalmente, ya que no se puede conseguir que atraviesen el vidrio ni el cuarzo (un mineral trasparente que trasmite algunos rayos ultravioleta). Esto significa que no se pueden enfocar con instrumentos ópticos como el microscopio ultravioleta. De todos los rayos ultravioleta, sólo pueden atravesar la barrera del ozono, los relativamente beneficiosos a la vida humana.

La luz ultravioleta altera los tejidos vivos porque lleva la suficiente energía para provocar un cambio químico. Tanto el bronceado de la piel como la muerte de las bacterias, resultan de cambios en la estructura química de los materiales que hay en el interior de las células vivas.

Normalmente, se requiere una cierta cantidad de energía para el cambio, y la célula es especialmente sensible a la luz ultravioleta de la longitud de onda correspondiente a esta energía (la cantidad de energía trasportada por cualquier radiación electromagnética depende de su longitud de onda).

penetracion de los rayos ultravioletas

espectro de la luz

penetracion de los rayos ultravioleta

La luz ultravioleta se utiliza para destruir bacterias. Se usa la luz de una lámpara de descarga de vapor de mercurio para mantener el ambiente libre bacterias,  en   un   laboratorio   de  fabricación   de   penicilina.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

¿Son tan nocivos los rayos ultravioleta?: Cuando nos exponemos al sol, la piel reacciona de inmediato co menzando un proceso de defensa que nosotros damos en llamen bronceado. El «ponerse moreno» no es más que un contraataque de nuestra epidermis a la acción de los rayos ultravioleta, contraataque pensado para concentraciones de ozono bastante superiores a las que existen en la actualidad.

Quien más o quien menos de ustedes, apreciados lectores, habrá sufrido en los últimos años las consecuencias de esta disminución de la capa de ozono en forma de enrojecimientos o quemaduras (espero que no en nada más grave).

Si mi propia experiencia pudiera servirles de ilustración, les contaría cómo allá por la década de los ochenta y contando yo unos veinte años de edad, decidí un buen día no volver a pisar una playa si no era con gorra, camiseta y una buena crema solar, cuando tras un breve adormecimiento de domingo y de no más de 30 o 40 minutos sobre la arena (permítanme una recomendación: si se divierten los sábados hasta bien entrada la noche, no madruguen y se tumben al sol a la mañana siguiente), volvía casa y me miré al espejo: mi cara era lo más parecido a un volcán en erupción de lava que hubiera visto jamás.

Algunos geles y after sun pudieron recomponerme en unos días, pero recuerdo mi sorpresa y mi comentario con todo el mundo respecto a «qué demonios había pasado con el sol». La misma exposición que años atrás, siendo una niña, sólo me hubiera causado un leve enrojecimiento, esta vez me había provocado una quemadura tan incómoda como sorprendente. Pocos años después comencé a oír hablar seriamente del adelgazamiento de la capa de ozono.

Efectivamente, nuestra atmósfera ya no nos ofrece la misma protección que hace unos años frente a los rayos ultravioleta. La melanina que se forma en la hipodermis al recibir estos rayos tarda al menos tres días en transferirse a las capas exteriores de la epidermis, y son éstos los días en que somos más propicios a los eritemas y quemaduras solares.

Otra defensa natural de la piel es la formación de células epiteliales queratinosas para crear un manto de mayor grosor sobre la piel; sin embargo, esta piel no es más que una acumulación de células muertas en su superficie, es decir, se trata de una protección lograda a cambio de aniquilar miles de células y apilarlas en la capa más externa de la piel.

La exposición prolongada al sol constituye una agresión, grave en ocasiones, y los causantes de ella son fundamentalmente los rayos ultravioleta del grupo B.

Los rayos UV-B: Este tipo de radiaciones solares son.captadas en buena parte por el ozono en las capas más bajas de la estratosfera, es decir, el ozono tiene un papel clave con respecto a la cantidad de UV-B que atraviesa nuestra biosfera y llega hasta nosotros. Cuando la capa de ozono tenía el espesor correcto, solamente incidía sobre nuestro suelo una fracción de ellos, y éstos eran (y son) los únicos capaces de desarrollar la melanina en la piel. En la actualidad nos alcanza una proporción desmesuradamente alta de UV-B, y aquíes donde comienzan los verdaderos problemas.

Los rayos UV-B penetran en nuestra piel hasta atravesar la epidermis. Cuando la cantidad de UV-B es excesiva, nuestro ADN puede dañarse con facilidad. Estas espirales portadoras del código genético y responsables de que sus células se reproduzcan con idéntica estructura unas a otras, son muy sensibles a las radiaciones y las UV-B parecen «volverlas locas» del mismo modo que lo hace la radiación de tipo nuclear, los rayos X o las emisiones electromagnéticas de gran potencia.

Pensemos que un daño en las hélices en una de sus células orgánicas de ADN puede multiplicarse por mil en cuestión de días, meses o años (otro de los terrores de este peligro es que las lesiones son acumulativas y pueden surgir años después de sufrir el daño). Esto es lo mismo que decir que la exposición excesiva a los rayos UV-B puede provocar, y de hecho provoca, cáncer de piel y lesiones en las partes más débiles expuestas al sol (ojos, labios, etc.).

La Academia Norteamericana de Dermatología afirma que los rayos UV-B son los responsables de un millón de casos de cáncer de piel, entre ellos el melanoma, el más fatal. Lamentablemente, los mismos rayos que antaño nos hacían lucir un espléndido color dorado en la piel, son hoy en día fuente de importantes enfermedades.

Pero no sólo la piel sufre daños cuando las radiaciones UV-B la alcanzan en exceso: las cataratas aumentan año a año su iná dencia en nuestra población por el efecto de los rayos ultraviole ta. Aunque no está muy claro el proceso por el cual el cristalino degenera, se comienza a investigar sobre la fotooxidación de las proteínas de la lente ocular bajo el efecto de los radicales libres generados por los UV-B.

En ocasiones, la córnea llega a «que marse» a causa de las radiaciones y esto es especialmente peligroso para las personas que realizan actividades diarias en superficies altamente reflectantes (pescadores, monitores de esquí, alpinistas, etc.) si no toman la precaución de colocarse unas gafas de sol suficientemente oscuras como para neutralizar la reverberación de estos rayos solares.

Lamentablemente, miles de animales que pastan o desarrollan sus actividades en lugares muy soleados y/o en montañas de altura considerable se ven obligados a sufrir todos los años cataratas y graves problemas oculares por culpa de la insensatez humana.

rayos ultravioletas

Los rayos UV-A y UV-C: Los rayos UV-A penetran más profundamente en la piel, de modo que alcanzan con facilidad la dermis o capa media. Sin embargo, no por ello son más nocivos que los UV-B ya que no provocan mutaciones en nuestro código genético. Sí, en cambio, agotan el caudal del colágeno cutáneo y son por tanto los responsables del envejecimiento prematuro de la piel. Todos conocemos a esos labradores o pescadores que, por la acción de tantas y tantas horas al sol, presentan unas marcadas arrugas en su rostro curtido y tostado. Pese a su antiesteticismo, estas personas no desarrollaban ningún tipo de cáncer epitelial.

Sin embargo, una nueva polémica surgió sobre estos rayos a partir del mes de junio de 1997, fecha en la que un equipo de investigadores franceses anunció que los UV-A podían ser igual o más peligrosos que los UV-B.

Sus razonamientos eran que los rayos UV-A conforman el 90% de las radiaciones ultravioleta que nos alcanzan, a la vez que afirman que dichos rayos son igualmente dañinos que los UV-B, con la única diferencia de que, según estos investigadores, precisan de un mayor tiempo de exposición para causar lesiones. El argumento de mayor peso que esgrimen es que los UV-A incrementan el daño producido por los UV-B.

Curiosamente, una semana después de este descubrimiento, los famosos laboratorios de cosmética L’Oréal hicieron pública una nueva molécula (OR-10154) capaz de filtrar a la vez los rayos UV-B y los UV-A con gran eficacia. Actualmente se encuentra en fase de comprobación ante el comité científico de cosmeto-logía de Bruselas. No hace falta ser muy avispado para percatarse de que, de ser aprobada su comercialización como es de prever, aportará a la casa francesa L’Oréal pingües beneficios, calculables en miles de millones de francos.

Sin discutir los trabajos de estos investigadores, ni siquiera la que será famosa molécula OR-10154, convendría preguntarse por qué son ahora más peligrosos los rayos UV-A que hace cincuenta años si la capa de ozono jamás ha interferido en su paso hasta la superficie de la Tierra.

En el caso de este espectro, el deterioro de la capa de ozono no influye en absoluto, ni influirá en el futuro, de modo que si bien es cierto que los UV-A son responsables de las arrugas prematuras en personas que se exponen diariamente a varias horas de sol, también lo es que no tienen por qué participar en el desarrollo de tumores ni lesiones cutáneas y/o oculares.

O, al menos, tendrían la misma intervención en estos graves problemas que a principios de siglo o hace quinientos años (épocas en las que todos sabemos que el cáncer era un mal prácticamente desconocido).

Argumentar, por otra parte, que los UV-A multiplican los efectos perniciosos de los UV-B es seguir afirmando, de una manera o de otra, que los rayos dañinos siguen siendo únicamente los UV-B, ya que sin su presencia los UV-A no tendrían oportunidad de multiplicar nada. Respecto a los melanomas y las cataratas, los UV-B siguen siendo los únicos culpables, y un simple filtro solar «de los de siempre» ofrecería idénticas garantías al respecto.

Otra cosa muy distinta es la prevención del envejecimiento de la piel, en cuyo caso una crema anti-UV-A sería muy beneficiosa y yo se la recomiendo a todo aquel que tenga por costumbre exponer su piel al sol, pero siempre anunciándola como tal y no lanzando al aire amenazantes conclusiones cuyo fin parece ser el de asustar a la población para, tal vez, lograr en un futuro cercano más ventas.

Respecto a los rayos UV-C, recordemos que son captados por el ozono atmosférico en su totalidad. Gracias a su debilidad, un pequeño tanto por ciento de ozono sería suficiente para no dejarlos pasar, por lo que, de momento, no debemos preocuparnos por ellos. Si el manto de ozono desapareciera en su totalidad, lo de menos serían los UV-C porque en ese caso todos estaríamos pronto muertos.

Cómo protegernos eficazmente: Las dos únicas maneras de protegerse frente a los rayos ultravioleta de un modo efectivo son el uso de una crema con buena protección solar y el administrar prudentemente el tiempo de exposición al sol.

Cremas con filtro solar: Es un error pensar que sólo se deben usar cremas de protección solar cuando nos tumbamos en la arena dispuestos a tomar una buena ración de sol. Efectivamente, ésa es la actividad más peligrosa y en la que será imprescindible tomar todo tipo de precauciones. Sin embargo, un paseo con los brazos y las piernas descubiertos al sol, o una mañana en las terrazas de verano, pueden acarrearnos del mismo modo desagradables sorpresas en forma de enrojecimientos y quemaduras.

Tengamos en cuenta también que las superficies reflectantes (arena, rocas, baldosas, etc.) hacen las veces de espejo y reverberan los rayos invisibles del espectro solar, pudiendo de este modo llegar a quemarnos sin haber sentido ningún tipo de calor sobre la piel.

Siempre que el día sea soleado (máxime en verano) y usted vaya a salir a la calle con parte de su cuerpo desprovisto de ropa, será conveniente que utilice una crema con protección solar. Por supuesto, el rostro debe estar también protegido.

Fuente: Como Sobrevivir Al Siglo XXI – Ana P. Fernandez Magdalena – Editorial Robin Book

CÓMO SE GENERA LA LUZ ULTRAVIOLETA: La Tierra recibe muy poca luz ultravioleta natural, ya que la capa de ozono de la atmósfera bloquea eficazmente su camino. Sin embargo, la luz ultravioleta se puede producir con facilidad en los tubos de descarga de gas. Una fuente muy considerable de luz ultravioleta es el tubo de descarga de vapor de mercurio.

Si el vapor de mercurio se excita haciendo pasar a su través una corriente eléctrica, emite luz ultravioleta. Las radiaciones se producen de forma totalmente semejante a la fluorescencia.

En este caso, en vez de recibir energía luminosa, los átomos de gas reciben la energía de una corriente eléctrica (una corriente de menudas partículas cargadas negativamente: electrones). Cuando se deja de excitar el átomo de mercurio, gran parte de su exceso de energía se libera en forma de luz ultravioleta.

Los tubos de descarga se utilizan, principalmente, para generar luz visible. Si se cubre la parte interior de un tubo de vapor de mercurio con un material fluorescente, prácticamente toda la luz ultravioleta que se produce en la descarga se convierte en luz visible por fluorescencia.

Estos tubos de descarga se encuentran en la moderna iluminación por tubos, y se escogen los materiales radiactivos de tal forma que proporcionen una excelente luz blanca. Cualquier radiación ultravioleta no absorbida es detenida por el cristal del tubo. La mayoría de los cristales son opacos a la luz ultravioleta.

Un tubo de descarga se puede adaptar para que emita luz ultravioleta pura, ennegreciendo la parte exterior del tubo, con lo que se detienen las radiaciones visibles. El tubo de esta lámpara «negra» debe fabricarse, no de vidrio, sino de cuarzo, que transmite con facilidad luz ultravioleta de una serie de longitudes de onda.

Por otra parte, los tubos de descarga no son el único medio de producir luz ultravioleta. Se puede generar también, como en el Sol, produciendo el suficiente calor, y, entonces, parte de la radiación emitida es luz ultravioleta.

Sin embargo, este método de producción es extraordinariamente ineficaz, puesto que, incluso en cuerpos tan calientes como el Sol, sólo una fracción de la radiación total es luz ultravioleta. Cuanto más caliente está el cuerpo, mayor es la proporción de luz ultravioleta en la radiación que emite.

https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

FLUORESCENCIA: Algunas sustancias, incluso muchas de las que no pueden reaccionar químicamente, cuando se exponen a la luz ultravioleta, absorben una gran cantidad de radiación. Son, con frecuencia, sustancias fluorescentes. Tales sustancias absorben la luz ultravioleta e inmediatamente transforman la energía en luz visible.

Los dientes y las uñas son fluorescentes y relucen suavemente (es decir, emiten luz visible), cuando se los ilumina con una lámpara de luz ultravioleta. Cuando fluorescen diversas clases de materiales emiten luz de diferentes colores. Ello permite preparar un método para comprobar la autenticidad de obras pictóricas.

Cuando, por ejemplo, fluoresce una pintura que contiene blanco de plomo, emite luz blanca. Sin embargo, una pintura con blanco de cinc, da una luz fluorescente de color amarillo limón.

Los diversos pigmentos amarillos que se utilizan en las pinturas amarillas dan colores fluorescentes que se diferencian ligeramente; por tanto, cuando se examina cuidadosamente un cuadro con luz ultravioleta, los expertos pueden encontrar información sobre quién lo pintó y cuándo fue pintado.

La fluorescencia tiene lugar cuando los átomos de una sustancia son excitados por la luz ultravioleta. Los átomos tienden a volver cuanto antes a su posición estable, estado no excitado.

Ellos pueden radiar luz exactamente de la misma longitud de onda que la que han absorbido. Sin embargo, normalmente, en vez de emitir luz ultravioleta de una sola longitud de onda de alta energía, radian dos longitudes de onda de menor energía, que se encuentran, probablemente, en la región visible.

La   luz  ultravioleta   se   produce  en   un  tubo  de descarga   bombardeando  átomos de   mercurio   con   un corriente eléctrica.  La  fluorescencia trasforma  la  luz ultravioleta en luz visible.

Ver: Descubrimiento de los Rayos X

Ver:  Usos de los Rayos Infrarrojos

Fuente Consultada
TECNIRAMA N°57 La Enciclopedia de la Ciencia y la Tecnología (CODEX)

Primer Viaje al Espacio Tripulado de Yuri Gagarin Avances Tecnicos Rusos

YURI A. GAGARIN: astronauta soviético nacido Gzhatz hoy lleva su nombre Gagarin, fue el primer hombre en volar una nave espacial fuera de la atmósfera de la Tierra y hacer una revolución completa alrededor del planeta.

Creció en una granja colectiva, donde su padre trabajaba como carpintero. A los 7 años, los alemanes invadieron Rusia y su padre se unió al ejército, mientras que su madre lo llevó junto a su hermano mayor y su hermana, a un lugar más seguro.

Vuelo de Gagarin

También durante sus estudios básicos decidió seguir una carrera técnica, y se inició en una escuela técnica cerca de Moscú. Se graduó en metalurgia (1951), y se inscribió en una universidad industrial, donde se interesó en los aviones.

Se matriculó en el sitio de vuelo de la escuela, la Escuela de Aviación de Oremburgo, y pronto demostró que tenía un talento natural para el vuelo. Graduado de controlador de vuelo con distinción (1955), se unió a la Fuerza Aérea Soviética, donde se convirtió en un piloto de pruebas de nuevos aviones y experimental.

 [Seguir Leyendo Yuri Gagarin y Otros Temas Relacionados…]

Teoría de Desintegración Nuclear del Átomo Radioactividad Espontánea

Teoría de Desintegración Nuclear del Átomo

El 24 de febrero de 1896, el físico francés Enrique Becquerel dio a conocer los sensacionales experimentos de que tratamos a continuación, a los que el científico había llegado por puro azar: los cristales de una determinada sal de uranio, tras haber sido expuestos, durante cierto tiempo, a la luz del sol, impresionaban una placa fotográfica situada cerca de ellos, aunque dicha placa estuviera en el interior de una envoltura opaca.

Es decir, la sal parecía emitir misteriosas radiaciones capaces de atravesar cuerpos que normalmente impiden el paso de la luz. Pero Becquerel, prosiguiendo sus experimentos, llegó a resultados cada vez más desconcertantes: el fenómeno se producía, no sólo con la sal de que hablamos, sino con todas las sales de uranio, y se verificaba también en la oscuridad; esto es, sin que las sales hubieran sido previamente expuestas a luz alguna.

La emisión de aquellas radiaciones desconocidas no cesaba, ni siquiera cuando las sales estaban en solución. Una vez más, la ciencia se veía ante algo nuevo y fantástico, absolutamente inexplicable desde el punto de vista de los principios entonces conocidos.

El hecho, especialmente, de que el fenómeno se produjera con independencia de las manipulaciones llevadas a cabo en las sales, parecía indicar que su origen debía buscarse en la intimidad más profunda de la materia, allí donde las transformaciones químicas y físicas no pueden causar cambios.

Hoy sabemos que esa parte «íntima» de la materia no es otra cosa que el núcleo  de los átomos.

Ver: La Energia de la Fision Nuclear

LOS PRIMEROS ESTUDIOS SERIOS SOBRE LA RADIACTIVIDAD

Como suele suceder en estos casos, las experiencias de Enrique Becquerel cayeron en un ambiente de general escepticismo; a pesar de ello, algunos apasionados investigadores (baste recordar el nombre de los esposos Curie) dedicaron toda su vida al estudio del fenómeno, que fue bautizado con el nombre de «radiactividad».

Ante todo se descubrió que los minerales de uranio contenían una serie de elementos aún desconocidos, capaces de emitir radiaciones más intensas que las del propio uranio. De esta forma se llegó al famoso descubrimiento del radio (llamado así, precisamente, a causa de su elevada radiactividad), del polonio y del actinio.

Inmediatamente se empezaron a estudiar las misteriosas radiaciones emitidas, que fueron separadas y analizadas gracias a ingeniosos procedimientos, y se descubrió que eran de tres tipos distintos, genéricamente bautizados como «alfa», «beta» y «gamma«.

Todas ellas integran, como seguramente se recordará, las famosas «radiaciones nucleares», a las que nos hemos referido en un artículo precedente. (ver radiaciones del átomo)

Teniendo en cuenta lo que entonces dijimos, no nos será muy difícil llegar a la siguiente conclusión: tanto en las emisiones alfa como en las beta, el número de protones, es decir, el número atómico del átomo afectado se transforma.

De hecho, con las radiaciones alfa el núcleo pierde dos protones (además de dos neutrones); con las beta gana un protón, a expensas de un neutrón.

Pero como el número atómico es el factor que caracteriza a los elementos, cuando un núcleo inestable (radiactivo) emite una radiación, además de estabilizarse, cambia totalmente de naturaleza; es decir, se produce la transformación de un elemento en otro distinto.

Esta afirmación, que hoy no nos cuesta ningún trabajo aceptar, fue enunciada en 1903 por Rutherford y Soddy, y dio origen a una teoría completamente revolucionaria, que se ha hecho famosa bajo el nombre de «Teoría de la desintegración radiactiva«.

Con ella se venía abajo el principio de la absoluta inmutabilidad de los elementos, que fue uno de los ejes cardinales de la Química hasta finales del siglo pasado.

Según la nueva teoría, los átomos de los elementos radiactivos, a diferencia de los de los elementos estables, pueden sufrir una «desintegración» espontánea, emitiendo partículas alfa o beta, y transformándose en átomos de un nuevo elemento «hijo», química y físicamente distinto del elemento «madre».

Sin embargo, el elemento así nacido no siempre es definitivamente estable, ya que, a su vez, puede ser radiactivo y dar lugar, mediante la emisión de partículas, a otro elemento, y así, indefinidamente.

El conjunto de todos los elementos derivados del mismo tronco, por el sistema descrito, se llama «familia radiactiva».

Becquerel, el físico que observó por primera vez los efectos de la radiactividad.
Sus experiencias le valieron el Premio Nobel.

LAS SERIES RADIACTIVAS

La ilustración adjunta es, en realidad, un «retrato de familia»: de una familia de elementos radiactivos, naturalmente. En el centro puede verse el núcleo del elemento inicial y luego, sucesivamente, toda su descendencia hasta el último «hijo».

Hemos partido de un isótopo del uranio, concretamente el uranio 238, cuyo número atómico (número de protones) es 92 y su número de masa (suma de los neutrones y los protones) 238. Por lo tanto su 90 símbolo es 238/92 U.

Se trata de un isótopo radiactivo que emite partículas alfa (2 protones + 2 neutrones): en consecuencia, el elemento «hijo» en el que se transforma tiene un número atómico inferior en dos unidades (los dos protones), es decir: 90, y un número de masa inferior en cuatro unidades (dos protones y dos neutrones); es decir: 234.

El «hijo» del uranio 238 es, pues, el torio 234, cuyo símbolo se escribe 234/90 Th. Pero tampoco esta vez se trata de un elemento estable, ya que el torio desarrolla una actividad beta, transformando un neutrón en protón y originando, al hacerlo, un nuevo electrón, que se desprende del átomo; de esta forma, el torio se convierte en un elemento distinto, que posee un neutrón menos y un protón más, debía lo cual, el «hijo» del torio 234 tiene 91 como número atómico y 234 como número de masa. El nuevo elemento se llama protoactinio 234 ( 234/91 Pa).

En símbolos, podemos escribir:       

238/92 U -alfa-> 234/90 Th -beta-> 234/91 Pa 92

Pero no termina aquí el proceso, ya que se producen 12 elementos más antes de llegar a la formación de uno estable, que es el plomo 206  (206 /82 Pb). Con éste se completa la serie del uranio 238, que lleva el nombre del elemento inicial.

En la naturaleza existen tres familias radiactivas, compuestas —en total— por unos cuarenta elementos radiactivos naturales. Cada familia lleva el nombre del elemento inicial: tenemos así la familia del uranio 238, la del torio 232 y la del actinio, llamado también uranio 235. El último descendiente de todas ellas es un isótopo estable del plomo.

Podemos imaginar las tres familias radiactivas como tres torrentes que bajan de la montaña y, tras muchos saltos y cascadas, desembocan en el mar: el agua es la materia en continua transformación, las cascadas son las conversiones de un elemento en otro, el mar es la estabilidad final.

Pero ni el agua puede volver a la montaña espontáneamente, ni en la cadena de elementos pueden producirse transformaciones espontáneas en sentido inverso a las indicadas.

Es decir: en las condiciones actuales de nuestro planeta, jamás vemos al plomo transformarse en uranio, sino a éste, a través de sus diversos descendientes, en plomo.

Estamos, pues, ante uno de los infinitos ejemplos que demuestran cómo todo, en la naturaleza, tiende a la estabilidad, por medio de transformaciones irreversibles; y, si fuese lícito aplicar a estos conceptos las palabras del lenguaje común, deberíamos identificar esta estabilidad con la muerte física de nuestro universo, que se producirá cuando todas las transformaciones naturales capaces de generar calor se agoten. Pero estamos lejos del final.

Las estrellas brillan sin cesar y en ellas el hidrógeno se transforma en toda clase de elementos, desde el helio al uranio, con reacciones que se producen espontáneamente a determinadas temperaturas, liberando grandes cantidades de energía, la que seguirá moviéndose durante miles de millones de años.


María y Pedro Curie, que dedicaron su vida a los estudios sobre las sustancias
radiactivas y descubrieron el radio y el polonio.

Fuente Consultada:
Enciclopedia del Estudiante Superior Fasc. N°45
Físico Químico de Pilar Escudero y Otros.

La Energia Solar Como Alternativa a las Energias Convencionales

El Sol Como Fuente de Energía
Ejemplos de Uso Como Alternativa a las Energías Solares

EL SOL: Si bien el Sol, en cuanto objeto astronómico, no es más que una estrella promedio, relativamente débil y fría, para nosotros, habitantes de uno de sus satélites, resulta indispensable conocerlo en detalle, pero además nuestra ubicación privilegiada, nos brinda la posibilidad, a través suyo, de conocer muy bien una estrella y, en base a ello, construir y probar las teorías sobre la naturaleza de las estrellas en general.

Lo que sucede en el Sol concierne a mucha gente y no sólo a los astrónomos. Las erupciones solares pueden callar las comunicaciones de radio de largo rango, interrumpir sistemas de potencia y cambiar las órbitas de los satélites.

Muchas actividades espaciales y terrestres requieren un buen conocimiento de las condiciones presentes en el Sol y de su comportamiento en el futuro. Hasta se ha desarrollado una organización internacional para monitorear la actividad solar de hora en hora y transmitir informes a todo el mundo.

Durante los últimos años se han acumulado pruebas que indican claramente que el ritmo intenso a que se están quemando los combustibles fósiles está contaminando seriamente la atmósfera de la Tierra con su principal producto de combustión el anhídrido carbónico.

Los efectos a largo plazo de tal contaminación podrían conducir a cambios ecológicos y climatológicos de mucha importancia, puesto que el anhídrido carbónico es uno de los gases más importantes en la regulación térmica de la atmósfera. Del mismo modo, a menudo se ha expresado la preocupación de que la eliminación de los productos de desecho de las reacciones de fisión, que son fuertemente radiactivos y mortales, constituyan una dificultad para el amplio desarrollo de estas fuentes de energía.

La mayor fuente de energía, no del todo aprovechada, es la energía de la radiación solar que cae sobre la Tierra. Muchos expertos la consideran como una fuente de energía a largo plazo a la cual el hombre, al final, tendrá que recurrir; en la actualidad es una fuente de energía potencial cuya explotación será más bien problemática en el orden tecnológico que en el de la abundancia.

Los métodos que aprovechan la energía solar se fundamentan en dos principios importantes: concentración de los rayos solares en un punto por medio de espejos parabólicos y absorción de los rayos solares por medio de superficies absorbentes, que suelen ser grandes placas ennegrecidas.

Los hornos solares funcionan por medio de un espejo; el más importante es el instalado en Mont Louis, en Francia, que tiene 11 metros de diámetro; en su foco se han logrado temperaturas de 3.000 ºC, lo que ha permitido la fusión de materiales muy refractarios. Existen instalaciones semejantes en Argel y en California. Los denominados motores solares actúan a partir de espejos parabólicos.

En Los Angeles existe un motor solar que consta de un espejo de 10 metros de diámetro y produce vapor a 12 atmósferas que acciona un alternador, lo mismo que en las centrales térmicas. En Egipto se han instalado motores solares para accionar bombas de riego. Algunos de estos motores solares funcionan por medio de placas planas, pues lo que se necesita no es mucha temperatura, sino mucha cantidad de calor repartida en una gran superficie; con ellos, en Italia, se vaporiza anhídrido sulfuroso.

También las necesidades más ordinarias en la vida del hombre, y no únicamente los fines técnicos, han creado medios para aprovechar la energía solar. Tal vez el más curioso fue el instalado en Monte Wilson a base de un espejo accionado por un aparato de relojería en cuyo foco había un tubo ennegrecido por el interior del cual circulaba aceite de un termosifón que alimentaba un recipiente de 200 litros. La temperatura lograda fue de 1750º.

En la India se montan hornillos de uso doméstico en una especie de espejo parabólico orientado de cara al Sol, en cuyo foco se dispone la olla que se quiere calentar. Sin gasto alguno de combustible se obtienen resultados como si se tratara de una cocina eléctrica de 300 vatios.

Sin embargo, los estudios más recientes se aplican al uso de la energía solar en la calefacción doméstica. El tejado se recubre con hojas de metal ennegrecido, encima de las cuales va dispuesto un haz tubular, llamado base, y los puntos en que se apoyan, insolador, por el que circula agua calentada por el sol entre los tubos y un depósito del que parten las conducciones para la distribución del agua por la casa. A veces se usan colectores verticales situados en la fachada de mediodía.

Otros usos más peculiares son los de destilación de agua, muy útil para países como Túnez y Argelia, donde se han instalado aparatos similares a los construidos en Mónaco por J. Richard. Constan de madera ennegrecida y vidrio delgado, que pueden dar 3,5 litros de agua destilada por metro cuadrado y por día en junio y 0,5 en diciembre.

En Turquestán se han instalado aparatos para refrigerar enviando los rayos concentrados del Sol hacia un frigorífico de amoníaco. Con estos sistemas se han logrado temperaturas de 60 bajo cero.

Aprovechando el principio físico de las corrientes de convección, debidas a diferencias de densidad, ocasionadas, en este caso, por las diversas temperaturas existentes en los dos conductos de aceite que parten del depósito superior, se puede lograr un transporte de ca. br desde los espejos exteriores, calentados por el sol, al interior de las habitaciones.

Ecuación de Drake Posibilidades de Vida Extraterrestre

Ecuación de Drake – Posibilidades de Vida Extraterrestre

La detección de vida en otro punto del universo sería el mayor descubrimiento de todos los tiempos. El profesor de física Enrico Fermi se preguntó por qué, teniendo en cuenta la y la vastedad del universo, así como la presencia de miles  millones de estrellas y planetas que han existido durante de millones de años, ninguna civilización alienígena se ha puesto en contacto con nosotros. Esta era su paradoja.

Mientras charlaba con sus colegas a la hora del almuerzo en 1950. Fermi, al parecer, se preguntó: «¿Dónde están?». Nuestra galaxia contiene miles de millones de estrellas y hay miles de millones de galaxias en el universo, así que hay billones de estrellas. Si sólo una pequeña fracción de ellas tuviera planetas, eso suponía un gran número de ellos. Si una parte de esos planetas albergaba vida, debería haber millones de civilizaciones ahí afuera. Así que, ¿por qué no las hemos visto? ¿Por qué no se han puesto en contacto con nosotros?

Así pensaba Carl Sagan, respecto a la vida extraterrestre: ¿hay alguien ahí fuera con quien hablar? ¿Es posible, habiendo una tercera parte o una mitad de un billón de estrellas en nuestra galaxia Vía Láctea, que la nuestra sea la única acompañada por un planeta habitado?.

Es mucho más probable que las civilizaciones técnicas sean una trivialidad, que la galaxia esté pulsando y vibrando con sociedades avanzadas, y por lo tanto que no esté muy lejos la cultura de este tipo más próxima: quizás esté transmitiendo con antenas instaladas en un planeta de una estrella visible a simple vista, en la casa de al lado.

Quizás cuando miramos el cielo nocturno, cerca de uno de esos débiles puntos de luz hay un mundo en el cual alguien muy distinto de nosotros esté contemplando distraídamente una estrella que nosotros llamamos Sol y acariciando, sólo por un momento, una insultante especulación.

Es muy difícil estar seguros. Puede haber impedimentos graves en la evolución de una civilización técnica. Los planetas pueden ser más raros de lo que pensamos. Quizás el origen de la vida no es tan fácil como sugieren nuestros experimentos de laboratorio. Quizás la evolución de formas avanzadas de vida sea improbable. 0 quizás las formas de vida compleja evolucionan fácilmente pero la inteligencia y las sociedades técnicas requieren un conjunto improbable de coincidencias: del mismo modo que la evolución de la especie humana dependió del fallecimiento de los dinosaurios y de la recesión de los bosques en la era glacial; de aquellos árboles sobre los cuales nuestros antepasados se rascaban y se sorprendían vagamente de algo. 0 quizás las civilizaciones nacen de modo repetido e inexorable, en innumerables planetas de la Vía Láctea, pero son en general inestables; de modo que sólo una pequeña fracción consigue sobrevivir a su tecnología y la mayoría sucumben a la codicia y a la ignorancia, a la contaminación y a la guerra nuclear.

Ecuación de Drake: En 1961, Frank Drake trasladó a una ecuación la probabilidad de que una civilización alienígena con la que pudiéramos contactar viva en otro planeta de la Vía Láctea. Se conoce como la ecuación de Drake. Nos dice que existe la posibilidad de que coexistamos con otras civilizaciones, pero la probabilidad es bastante incierta. Carl Sagan sugirió una vez que hasta un millón de civilizaciones alienígenas podrían vivir en la Vía Láctea, pero más adelante rechazó su propia afirmación, y desde entonces otros científicos han considerado que esa cifra se reducía a una civilización, concretamente, la humana.

 número de estrellas en la galaxia Vía Láctea; fracción de estrellas que tienen sistemas planetariosnúmero de planetas en un sistema dado que son ecológicamente adecuados para la vida,fracción de planetas adecuados de por sí en los que la vida nace realmente,fracción de planetas habitados en los que una forma inteligente de vida evoluciona,fracción de planetas habitados por seres inteligentes en los que se desarrolla una civilización técnica comunicativa;fracción de una vida planetaria agraciada con una civilización técnica.=N

FORMULA DE DRAKE: Es posible continuar explorando este gran tema y hacer una estimación basta de N, el número de civilizaciones técnicas avanzadas en la Galaxia. Definimos una civilización avanzada como una civilización capaz de tener radioastronomía. Se trata desde luego de una definición de campanario, aunque esencial. Puede haber innumerables mundos en los que los habitantes sean perfectos lingüistas o magníficos poetas pero radioastrónomos indiferentes. No oiremos nada de ellos. N puede escribirse como el producto o multiplicación de unos cuantos factores, cada uno de los cuales es un filtro y, por otro lado, cada uno ha de tener un cierto tamaño para que haya un número grande de civilizaciones:


Nt, número de estrellas en la galaxia Vía Láctea;
fp, fracción de estrellas que tienen sistemas planetarios,
ne, número de planetas en un sistema dado que son ecológicamente adecuados para la vida,
fj, fracción de planetas adecuados de por sí en los que la vida nace realmente,
f¡, fracción de planetas habitados en los que una forma inteligente de vida evoluciona,
fc, fracción de planetas habitados por seres inteligentes en los que se desarrolla una civilización técnica comunicativa; y
fL, fracción de una vida planetaria agraciada con una civilización técnic
a.

Esta ecuación escrita se lee N = N*. fp . ne . f1 . fi . fc . fL Todas las efes son fracciones que tienen valores entre 0 y 1; e irán reduciendo el valor elevado de N0.

Para derivar N hemos de estimar cada una de estas cantidades. Conocemos bastantes cosas sobre los primeros factores de la ecuación, el número de estrellas y de sistemas planetarios. Sabemos muy poco sobre los factores posteriores relativos a la evolución de la inteligencia o a la duración de la vida de las sociedades técnicas. En estos casos nuestras estimaciones serán poco más que suposiciones. Os invito, si estáis en desacuerdo con las estimaciones que doy, a proponer vuestras propias cifras y ver cómo afectan al número de civilizaciones avanzadas de la Galaxia. Una de las grandes virtudes de esta ecuación, debida originalmente a Frank Drake, de Cornell, es que incluye temas que van desde la astronomía estelar y planetario hasta la química orgánica, la biología evolutiva, la historia, la política y la psicología anormal. La ecuación de Drake abarca por sí sola gran parte del Cosmos.

Conocemos N*, el número de estrellas en la galaxia Vía Láctea, bastante bien, por recuentos cuidadosos de estrellas en regiones del cielo, pequeñas pero representativas. Es de unos cuantos centenares de miles de millones; algunas estimaciones recientes lo sitúan en 4 x 1011. Muy pocas de estas estrellas son del tipo de gran masa y corta vida que despilfarran sus reservas de combustible nuclear. La gran mayoría tienen vidas de miles de millones de años o más durante los cuales brillan de modo estable proporcionando una fuente de energía adecuada para el origen y evolución de la vida de planetas cercanos.

Hay pruebas de que los planetas son un acompañamiento frecuente de la formación de estrellas. Tenemos los sistemas de satélites de Júpiter, Saturno y Urano, que son como sistemas solares en miniatura; las teorías del origen de los planetas; los estudios de estrellas dobles; las observaciones de los discos de acreción alrededor de estrellas, y algunas investigaciones preliminares de las perturbaciones gravitatorias de estrellas cercanas. Muchas estrellas, quizás la mayoría, pueden tener planetas.

Consideramos que la fracción de estrellas que tienen planetas, es aproximadamente de 1/3. Entonces el número total de sistemas planetarios en la galaxia sería N. fp = 1,3 x 1011 (el símbolo = significa aproximadamente igual a ). Si cada sistema tuviera diez planetas, como el nuestro, el número total de mundos en la Galaxia sería de más de un billón, un vasto escenario para el drama cósmico.

En nuestro propio sistema solar hay varios cuerpos que pueden ser adecuados para algún tipo de vida: la Tierra seguro, y quizás Marte, Titán y Júpiter. Una vez la vida nace, tiende a ser muy adaptable y tenaz. Tiene que haber muchos ambientes diferentes adecuados para la vida en un sistema planetario dado. Pero escojamos de modo conservador ne = 2. Entonces el número de planetas en la Galaxia adecuados para la vida resulta
N. fp
ne = 3 x 1011.

Los experimentos demuestran que la base molecular de la vida, los bloques constructivos de moléculas capaces de hacer copias de sí mismas, se constituye de modo fácil en las condiciones cósmicas más corrientes. Ahora pisamos un terreno menos seguro; puede haber por ejemplo impedimentos en la evolución del código genético, aunque yo creo que esto es improbable después de miles de millones de años de química primigenio.

Escogemos f1=1/3, implicando con esto que el número total de planetas en la Vía Láctea en los cuales la vida ha hecho su aparición por lo menos una vez es N* fp ne f1 = 1 x 1011, un centenar de miles de millones de mundos habitados. Esta conclusión es de por sí notable. Pero todavía no hemos acabado.

La elección de fi y de fc es más difícil. Por una parte tuvieron que darse muchos pasos individualmente improbables en la evolución biológica y en la historia humana para que se desarrollara nuestra inteligencia y tecnología actuales. Por otra parte tiene que haber muchos caminos muy diferentes que desemboquen en una civilización avanzada de capacidades específicas.

Tengamos en cuenta la dificultad aparente que para la evolución de grandes organismos supone la explosión del cámbrico, y escojamosfi x fc = 1/100; es decir que sólo un uno por ciento de los planetas en los cuales nace la vida llegan a producir una civilización técnica.

Esta estimación representa un punto medio entre opiniones científicas opuestas. Algunos piensan que el proceso equivalente al que va de la emergencia de los trilobites a la domesticación del fuego se da de modo fulminante en todos los sistemas planetarios; otros piensan que aunque se disponga de diez o de quince mil millones de años, la evolución de civilizaciones técnicas es improbable.

Se trata de un tema que no permite muchos experimentos mientras nuestras investigaciones estén limitadas a un único planeta. Multiplicando todos estos factores obtenemos: N* fp ne f1 fi fc = 1 X 109, mil millones de planetas donde han aparecido por lo menos una vez civilizaciones técnicas. Pero esto es muy distinto a afirmar que hay mil millones de planetas en los que ahora existe una civilización técnica. Para ello tenemos que estimar también fL.

¿Qué porcentaje de la vida de un planeta está marcado por una civilización técnica? La Tierra ha albergado una civilización técnica caracterizada por la radioastronomía desde hace sólo unas décadas, y su vida total es de unos cuantos miles de millones de años. Por lo tanto, si nos limitamos a nuestro planeta fL es por ahora inferior a 1/108, una millonésima de uno por ciento. No está excluido en absoluto que nos destruyamos mañana mismo. Supongamos que éste fuera un caso típico, y la destrucción tan completa que ninguna civilización técnica más o de la especie humana o de otra especie cualquiera fuera capaz de emerger en los cinco mil millones de años más o menos que quedan antes de que el Sol muera.

Entonces N = N* fp ne f1 fi fc fL = 10 y en cualquier momento dado sólo habría una reducida cantidad, un puñado, una miseria de civilizaciones técnicas en la Galaxia, y su número se mantendría continuamente a medida que las sociedades emergentes sustituirían a las que acababan de autoinmolarse. El número N podría incluso ser de sólo 1.

Si las civilizaciones tienden a destruirse poco después de alcanzar la fase tecnológica, quizás no haya nadie con quien podamos hablar aparte de nosotros mismos, y esto no lo hacemos de modo muy brillante. Las civilizaciones tardarían en nacer miles de millones de años de tortuosa evolución, y luego se volatilizarían en un instante de imperdonable negligencia.

Pero consideremos la alternativa, la perspectiva de que por lo menos algunas civilizaciones aprendan a vivir con una alta tecnología; que las contradicciones planteadas por los caprichos de la pasada evolución cerebral se resuelvan de modo consciente y no conduzcan a la autodestrucción; o que, aunque se produzcan perturbaciones importantes, queden invertidas en los miles de millones de años siguientes de evolución biológica. Estas sociedades podrían vivir hasta alcanzar una próspera vejez, con unas vidas que se medirían quizás en escalas temporales evolutivas de tipo geológico o estelar.

Si el uno por ciento de las civilizaciones pueden sobrevivir a su adolescencia tecnológica, escoger la ramificación adecuada en este punto histórico crítico y conseguir la madurez, entonces fL = 1 / 100, N= 107, y el número de civilizaciones existentes en la Galaxia es de millones. Por lo tanto, si bien nos preocupa la posible falta de confianza en la estimación de los primeros factores de la ecuación de Drake, que dependen de la astronomía, la química orgánica y la biología evolutiva, la principal incertidumbre afecta a la economía y la política y lo que en la Tierra denominamos naturaleza humana. Parece bastante claro que si la autodestrucción no es el destino predominante de las civilizaciones galácticas, el cielo está vibrando suavemente con mensajes de las estrellas.

Estas estimaciones son excitantes. Sugieren que la recepción de un mensaje del espacio es, incluso sin descifrarlo, un signo profundamente esperanzador. Significa que alguien ha aprendido a vivir con la alta tecnología; que es posible sobrevivir a la adolescencia tecnológica. Esta razón, con toda independencia del contenido del mensaje, proporciona por sí sólo una poderosa justificación para la búsqueda de otras civilizaciones.


Si hay millones de civilizaciones distribuidas de modo más o menos casual a través de la Galaxia, la distancia a la más próxima es de unos doscientos años luz. Incluso a la velocidad de la luz un mensaje de radio tardaría dos siglos en llegar desde allí. Si hubiésemos iniciado nosotros el diálogo, sería como si Johannes Kepler hubiese preguntado algo y nosotros recibiéramos ahora la respuesta.

Es más lógico que escuchemos en lugar de enviar mensajes, sobre todo porque, al ser novicios en radioastronomía, tenemos que estar relativamente atrasados y la civilización transmisora avanzada. Como es lógico, si una civilización estuviera más avanzada, las posiciones se invertirían.

Más de medio siglo después de que Fermi planteara su pregunta, todavía no hemos oído nada. A pesar de nuestros sistemas de comunicación, nadie ha llamado. Cuanto más exploramos nuestro vecindario local, más solitario parece. Ni en la Luna, ni en Marte, ni en asteroides ni en los planetas del sistema solar exterior se ha encontrado rastro alguno de signos concretos de vida, ni siquiera de la bacteria más simple. Tampoco hay signos de interferencia en la luz de las estrellas que pudieran indicar máquinas gigantes orbitando a su alrededor y cosechando energía de ellas. Y no es porque no haya mirado nadie. Dado lo que está en juego, se presta mucha atención a la búsqueda de inteligencia extraterrestre.

Búsqueda de vida ¿Cómo saldríamos a buscar signos de vida? La primera manera es buscar microbios en nuestro sistema solar. Los científicos han escudriñado las rocas de la Luna, pero son basalto inanimado. Se ha sugerido que los meteoritos de Marte podrían contener vestigios de bacterias, pero todavía no se ha probado que las burbujas ovoides de esas rocas hayan albergado vida alienígena o no se hubieran contaminado después de haber caído a la Tierra, o bien que se hayan producido por procesos naturales.

Las cámaras de naves y sondas han recorrido las superficies de Marte, de asteroides y ahora incluso de una luna del sistema solar exterior (Titán, que órbita Saturno). Pero la superficie de Marte está seca, y la de Titán está empapada de metano líquido y, por ahora, desprovista de vida. Europa, una luna de Júpiter, puede albergar mares de agua líquida debajo de su superficie congelada. Por tanto, el agua líquida tal vez no sea un artículo extraño en el sistema solar exterior, lo que aviva las esperanzas de que pueda encontrarse vida algún día.

Sin embargo, los microbios no van a venir a llamar a nuestra puerta. ¿Y qué hay de los animales o plantas más sofisticados? Ahora que se están detectando planetas alrededor de estrellas lejanas, los astrónomos planean diseccionar la luz que proviene de ellos en busca de algún vestigio de vida.

Fuente Consultada: COSMOS Carl Sagan

Medida de La Via Lactea Cantidad de Estrellas en la Galaxia

Medida de La Via Láctea y Descripción
Cantidad de Estrellas en la Galaxia

LA VÍA LÁCTEA: Los astrónomos saben ahora que el conjunto de estrellas que vemos durante la noche es parte de un gigantesco sistema. La forma de este sistema estelar se parece bastante a la de dos platos encarados con sus bordes en contacto y una especie de abultamiento en su parte central.

El sistema solar no está ni mucho menos cerca del centro de este sistema estelar, sino a unos dos tercios de él. Las estrellas aparecen concentradas con mayor densidad en la parte central y en la porción plana situada entre los dos bordes de los “platos”, esto es, en el plano central. Podemos darnos cuenta de esto al observar el cielo en una noche clara: una tenue banda luminosa atraviesa el cielo de un extremo al otro.

Los hombres primitivos ya se dieron cuenta de la presencia de esta banda luminosa muchas leyendas tuvieron su origen en ella, conociéndose con el nombre de Vía Láctea. Tras la invención del telescopio, los astrónomos observaron que está constituida por gran número de estrellas individuales, y ahora sabemos que tal conjunto de estrellas representa el plano central de nuestra Galaxia.

Aunque el sistema solar esté situado cerca del borde de este. sistema estelar, la Vía Láctea se ve atravesando todo el, cielo eh forma de una batida rectilínea, tanto al norte como al sin del ecuador, lo cual indica que el sistema solar se encuentra el el plano central de la Galaxia, de modo que de cualquier lado que nos volvamos podemos observar esta densa reunión. de estrellas.

Cuando miramos hacia el cielo en una dirección distinta a la de la Vía Láctea, vemos que las estrellas no están ya tan agrupadas; por el contrario, aparecen muy repartidas por el firmamento. Esto es debido a que entonces miramos hacia fuera del plano central y a través de la parte menos densa de la Galaxia. En efecto, la Vía Láctea nos señala en el espacio la dirección del plano central del sistema de estrellas del cual el Sol es un miembro más.

Nuestra Galaxia es inmensa en comparación con la magnitud de las distancias estelares antes mencionadas. Desde la «parte superior a la inferior” —esto es, a lo largo del diámetro menor de su abultamiento central— tiene un espesor de 20.000 años-luz. Y desde un borde al otro la distancia es de 100.000 años-luz.

DESCRIPCIÓN DE LA VÍA LÁCTEA: DIMENSIONES, CANTIDAD DE ESTRELLAS Y CARACTERÍSTICAS

La mitología griega dice que la diosa Hera, esposa de Zeus, se negaba a amamantar al pequeño Hércules pues había sido fruto de una aventura. En una ocasión lo acercaron a su pecho mientras dormía, pero Hera despertó, lo retiró suavemente de su pezón y la leche se derramó por los cielos, dando forma a las brillantes constelaciones que admiramos en la noche.

Estos valores no incluyen, sin embargo, la distancia a ciertas estrellas que se encuentran por encima y por debajo de ‘la propia Galaxia. Algunas de estas estrellas están solas, pero la mayoría de ellas constituyen grandes cúmulos estelares. Estos cúmulos (denominados cúmulos globulares) forman una especie de halo alrededor de la Galaxia. Cada cúmulo lo forman millares y, a veces, decenas de millares de estrellas agrupadas en forma de esfera o de globo. El más cercano de ellos se encuentra a unos 20.000 años-luz del sistema solar.

Nuestra Galaxia, por lo tanto, está constituida por un conjunto de estrellas, la mayor parte de las cuales se encuentra en el plano o en el abultamiento centrales, junto con mi halo de estrellas individuales y de cúmulos globulares. En nuestro siglo los astrónomos han demostrado que la Galaxia contiene además una considerable cantidad de gas y de polvo.

Observado a través del telescopio, parte de este gas y polvo presenta el aspecto de grandes nubes luminosas nebulosas, de la palabra latina que significa nube. La más famosa de das estas nebulosas es la gran nube gaseosa de la constelación de Orión. A simple vista aparece como un puntito luminoso en medio de las tres estrellas que representan la espada de Orión. Pero aun a través de un pequeño telescopio se convierte en un objeto interesante para la observación.

Las estrellas del cúmulo abierto, denominado las Pléyades, están rodeadas de polvo iluminado por las mismas. Si barremos el cielo con un telescopio, descubriremos muchas más nebulosas que las que se aprecian a simple vista.

La propia Vía Láctea contiene gran número de ellas. Por ejemplo, nebulosas del tipo de las que presenta la Vía Láctea al cruzar Sagitario cubren regiones que miden centenares de años-luz, y muchas contienen brillantes estrellas sumergidas en su seno.

«La Vía Láctea es parte de un barrio cósmico más grande –un grupo de más de 35 galaxias conocido como el Grupo Local. Estas galaxias se mueven por el espacio como una sola unidad, unidas por su mutua atracción gravitatoria. El número de galaxias que pertenecen al Grupo Local es incierto, debido a que los astrónomos siguen encontrando nuevos residentes de este barrio galáctico. Por ejemplo, una de las galaxias del Grupo Local fue descubierta en 1997, a unos tres millones de años luz de la Tierra. Esta nueva galaxia es diminuta: sólo contiene un millón de estrellas aproximadamente, comparado con los cientos de miles de millones de la Vía Láctea.»

En muchas nebulosas gaseosas aparecen surcos y regiones oscuras. La Vía Láctea también presenta surcos entre las estrellas, como si existieran huecos en el fondo estrellado. Las regiones oscuras en la Vía Láctea, así como en las nebulosas gaseosas brillantes, son debidas a gas no luminoso y a polvo. Como veremos más adelante, los astrónomos pueden distinguir el gas carente de luz del polvo cósmico, pero aquí consideramos sólo el hecho de que ambos oscurecen la luz procedente de las estrellas y nebulosas brillantes situadas más allá de los mismos. Este efecto de cobertura en la Vía Láctea nos impide observar lo que debe ser una visión grandiosa.

Debido al gran número de nebulosas situadas entre nosotros y el centro de la Galaxia, no podemos ver el brillante y compacto conjunto estelar que constituye el núcleo de la Galaxia. Nuestros telescopios registran únicamente aquellas estrellas que están situadas de este lado de la densa parte central.

A pesar del problema inherente a la presencia del polvo y del gas oscuro, se ha descubierto que la totalidad de nuestra Galaxia experimenta un movimiento de rotación. El Sol  que es una estrella bastante común, toma parte en esta rotación cósmica, arrastrando consigo a la Tierra a los demás planetas. Como otras estrellas cercanas, el Sol se mueve a través del espacio a razón de 240 Km./seg, velocidad que permitiría dar la vuelta a la Tierra en poco más de dos minutos y medio. Aun así, la Galaxia es tan enorme, que el Sol tarda tarda 225  millones de años en completar una revolución. Este inmenso período de tiempo, denominado ano cósmico, cae fuera de nuestro significado al considerar que hace dos años cósmicos la vida en la Tierra estaba en sus albores, y hace menos de media centésima de año cósmico que apareció el hombre.

Todas las estrellas de la Galaxia intervienen en la rotación cósmica, aunque sus velocidades varían. Las situadas más hacia el centro de la Galaxia generalmente se mueven con mayor rapidez que las que se encuentran cerca del borde, Este movimiento alrededor de la Galaxia constituye el principal desplazamiento de las estrellas, pero cada una precedía a su vez pequeños movimientos locales. Dicho de otro-modo, las estrellas no se mueven alrededor del centro de la Galaxia como si se tratara de una masa sólida. Es más bien como si un grupo de personas se dirigiera a tomar el Metro durante las horas punta; aunque todas van en la misma dirección general, la trayectoria de cada individuo está constituida por muchos movimientos distintos, hacia la izquierda y hacia la derecha, a medida que evita el tráfico o a los demás peatones. Lo mismo sucede con las estrellas de nuestra Galaxia: la dirección general es la de giro alrededor del denso núcleo central.

Fuente Consultada:  Secretos del Cosmos Tomo 2 (Salvat)

Otros Temas Tratados en Este Sitio

Big Bang

Origen de la Vida

Origen del Hombre

Teoría de la Evolución

Muerte de una Estrella Los Pulsares Enana Blanca

Peso de Una Estrella de Neutrones

La Vida del Sol Tiempo de Vida Hidrogeno del Sol

La Luna Muestra Siempre la Misma Cara

Origen del aire que respiramos El Oxigeno

EL Tamaño del Universo Distancias del Sistema Solar

EL Tamaño del Universo
Distancias del Sistema Solar Planetas

Si se pudiera reducir el globo terráqueo al tamaño de una manzana, el hombre mediría en proporción una cienmilésima parte de milímetro. Ante él cualquier ínfimo bacilo o bacteria alcanzaría dimensiones verdaderamente monstruosas. Por otra parte, como el Sol es una esfera de materia incandescente, que supera en ciento nueve veces el diámetro de la Tierra, si mantuviéramos las proporciones anteriores este Sol estaría representado por un globo de nueve metros de diámetro, situado a casi 1 Km. del planeta que, con el tamaño de una manzana, significaría la Tierra. Pero en los límites de la familia solar, Plutón, el último y más distante de los planetas, figuraría como una bola de billar a 40 kilómetros del citado Sol de! ejemplo.

Ahora bien; sobre la bóveda infinita del espacio brillan las estrellas, enormes masas globulares de gases ardientes. La más próxima, denominada Alfa del Centauro, es otro sol similar al que nos ilumina, con casi su mismo peso y dimensiones. Al igual que todas las estrellas. Alfa del Centauro no permanece inmóvil. Surca el firmamento a una velocidad de 22 kilómetros por segundo, y debido a la enorme distancia que nos encontramos de ella, solamente a lo largo de siglos se apreciaría un movimiento casi imperceptible, puesto que dista de nosotros ¡42 billones de kilómetros!

Si se aplicara a esta distancia la misma proporcionalidad que se empleó al equiparar la Tierra con una manzana y se viera dónde habría que situar la estrella vecina, como se hizo con la distancia del Sol y Plutón, saltaría a la vista la imposibilidad de concretar el objetivo, ya que se necesitaría para esta escala un mapa de unos 260.000 kilómetros de amplitud, es decir, casi las dos terceras partes de nuestra distancia al satélite de la Tierra. Se puede comprobar, de este modo, que la proporción entre la estatura de un ser humano y su distancia a la estrella más cercana es igual a la que existe entre un organismo ultramicroscópico y 260.000 kilómetros.

Un poco más distante, otra brillante estrella de azul tonalidad atrae nuestra atención. Se trata de Sirio, notable por su magnitud en el espacio y por una estrellita que la acompaña y que constituyen con aquélla un sistema físico similar al que forman los planetas del sistema solar El diámetro de Sirio es 1,8 veces el del astro mayor, lo que no significa mucho; sin embargo, situado en el lugar de éste proporcionaría 40 veces más luz y calor del que actualmente suministra.

El misterio revelado
Con respecto a la diminuta estrella que gira en torno de Sirio corresponde aclarar someramente su singular historia. Poco luminosa y lejana, fue ignorada durante siglos por los estudiosos, quienes por razones de tipo especulativo intuían su existencia. Intentaremos explicarlo: la altura del Sol sobre ei horizonte varía con la hora del día; del mismo modo, respecto del movimiento de las estrellas se puede establecer exactamente la hora correspondiente a un momento determinado.

Debido a su gran luminosidad Sirio era utilizada por los astrónomos como estrella horaria. Pero en el firmamento ésta resultaba un astro poco puntual, que se retrasaba o adelantaba temporalmente. Observaciones posteriores permitieron constatar que la estrella describía en el firmamento una levísima órbita elíptica. Sin duda alguna, un astro perturbador, aún invisible, era el causante, con la atracción de su masa, del titubeante comportamiento de Sirio. Apelando a la ley de la gravitación universal se admitió la existencia de un nuevo astro, cuya órbita y posición fueron determinadas en 1850 por el astrónomo alemán Frederick Peters.

En 1862, mediante el uso de un anteojo, a la sazón recién fabricado, se lo descubrió inesperadamente y comenzó a plantearse un nuevo interrogante referido a la especial naturaleza de la materia que lo compone.

La incógnita fue revelada en 1924, cuando el astrónomo estadounidense Walter Adams, empleando el interferómetro de Michelson, logró la doble comprobación del efecto Einstein, y la confirmación de la extraordinaria densidad (23.000 veces más que la del platino) de la diminuta estrella. El «misterio» de la substancia radicaba en lo siguiente: en tamaño, el satélite de Sirio es sólo tres veces más grande que la Tierra, pero su masa es casi igual a la del Sol.

A fin de que toda esta materia pueda caber en tan escaso volumen hay que someterla a una intensa presión, comprimirla enormemente. Los átomos, elementos que componen toda materia, tienen un límite de resistencia mecánica, tras lo cual son deshechos en un confuso montón de núcleos y electrones que invaden y desbordan los espacios interatómicos. Roto el equilibrio interno del átomo, los espacios vacíos son cubiertos por los componentes de otros átomos triturados.

Así, el espacio ocupado disminuye y por lo tanto la densidad media (relación entre volumen y masa) se acrecienta. Era éste, pues, el íntimo secreto que guardaba en su seno la estrella más brillante del cielo.

La «fuga» del universo
Se se miden las velocidades de esos universos-islas se llega a la conclusión de que parecen alejarse entre sí, acrecentando su velocidad a medida que se van distanciando. Esta fuga desordenada no afecta las dimensiones propias de las galaxias, que, alejándose, siguen conservando su tamaño.

Habida cuenta de esto, y calculando el tiempo necesario para que todas esas islas estelares volvieran a juntarse marchando a idéntica velocidad, pero inversamente, se necesitarían unos 13.000 millones de años para volver a reunirse en un conjunto de estrellas distribuidas en un solo universo de manera uniforme.

Si a partir de este conjunto único de densidad estelar se han condensado en grupos de estrellas de modo similar a como suponemos que el gas primitivo se fue condensando en estrellas, sigue aún en pie uno de los tantos interrogantes que se plantea la astronomía, para cuya respuesta el hombre acude con su ciencia al más allá.

Con el misterio de la creación ha quedado atrás en el tiempo y sumida en las sombras del espacio, a 1.500millones de años de luz, una imperceptible manchita nebulosa: es nuestro universo. Confundido entre corpúsculos titilantes hay un sol que nos es familiar, y como un punto minúsculo, donde el hombre lucha por penetrar en el misterio de lo infinito, está la Tierra, nuestro planeta.

La mediciones indicadas mas abajo van variando según se logran técnicas
e instrumentos mas precisos para su medición

Magnitud
Visual
Distancia
Años-Luz
Diámetro
Años-Luz
Vía Láctea97.800
Nube de Magallanes (mayor)0,9156.48032.600
Nube de Magallanes (menor)2,5182.56026.080
Sistema de la Osa Menor228.2003.260
Sistema del Escultor8,0270.5807.170
Sistema del Dragón326.0004.560
Fornax8,3619.400 21.520
Sistema del León II12,04749.8005.220
Sistema del León I12,0912.8004.890
NGC 68228,91.500.0008.800
NGC 1479,731.858.0008.780
NGC 1859,431.858.0007.500
NGC 2058,172.217.00016.300
NGC 221 (M 32)8,162.217.0007.820
IC 16139,612.217.00015.300
Andrómeda (M 31)3,472.217.000130.400
NGC 538 (M 33)5,792.347.20055.420
Maffei I11,0

3.260.000

 

EstrellaConstelacionesMagnitud
Aparente
Distancia
Año-Luz
Sirio +
Canope +
Rigil Kent
Arturo
Vega
Rigel +
La Cabra +
Proción
Achernar
Hadar +
Altair.
Aldebarán +
Acrux +
Betelgeuse + + +
Antares +
La Espiga +
Pólux
Fomalhaut
Deneb
Mimosa
Régulo +
Adhara +
Bellátrix
Shaula
Alnath
Alfa del Can Mayor
Alfa de Argos (Carina) .
Alfa del Centauro
Alfa del Boyero
Alfa de la Lira
Beta de Orión
Alfa del Cochero (Auriga)
Alfa del Can Menor
Alfa de Erídano
Beta del Centauro
Alfa del Águila
Alfa del Toro
Alfa de la Cruz del Sur
Alfa de Orión
Alfa del Escorpión
Alfa de la Virgen
Beta de los Gemelos
Alfa del Pez Austral
Alfa del Cisne
Beta de la Cruz del Sur
Alfa del León
Epsilón del Can Mayor
Gamma de Orion
Lamda del Escorpión
Beta del Toro
-1,47
-0,71
-0,27
-0,06
0,03
0,08
0,09
0,34
0,49
0,61
0,75
0,78
0,80
0,85
0,92
0,98
1.15
1.16
1,26
1,28
1,33
1,42
1,61
1,61
1,64
8.7
300
4
36
26
850
45
11
75
300
16
65
270
650
400
220
35
23
.500
370
85
620
450
300
270
(+):Estrella Doble  (+++): Estrella Variable

Fuente Consultada: Mundorama Geografía General Tomo I

Otros Temas Tratados en Este Sitio

Big Bang

Origen de la Vida

Origen del Hombre

Teoría de la Evolución

Muerte de una Estrella Los Pulsares Enana Blanca

Peso de Una Estrella de Neutrones

La Vida del Sol Tiempo de Vida Hidrogeno del Sol

La Luna Muestra Siempre la Misma Cara

Origen del aire que respiramos El Oxigeno

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

La Gran Ciencia – Grandes Proyectos Científicos del Mundo

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos.

Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías). Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro.

Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia.

Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas.

En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea.

La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político.

En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil.

En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

El Vuelo de Gordon Cooper Faith 7 Viajes de la Exploración Espacial

El Vuelo de Gordon Cooper

Historia de la Exploración Espacial El Vuelo de Gordon Cooper Faith 7

El vuelo espacial de la “Faith 7”, además de ser el primero de importancia (en relación con los efectuados por los soviéticos), resultó de suma trascendencia ya que dio respuesta a distintos interrogantes.

Asimismo, su tripulante, Gordon Cooper, fue él primer astronauta que debió prescindir para el reingreso a la atmósfera y descenso en la Tierra del sistema automático maniobrado desde el centro espacial, resolviendo un problema estimado en ese entonces de la mayor gravedad.

Cooper estaba llamado a realizar luego proezas relevantes en el programa Géminis (junto a Conrad completó 120 órbitas), .pero fue, sin duda, en aquellos días de mayo de 1963. cuando resultó de una utilidad mayor para los técnicos y científicos de la NASA. Por otra parte, develó un enigma que se mantenía desde el vuelo de Johh Glenn: la presencia de partículas luminosas que, a manera de luciérnagas, seguían o aparecían cerca de las cápsulas espaciales.

Cooper demostró que no se trataba de partículas congeladas que se desprendían del vehículo —como se supuso en un primer momento— Sino que provenían de los pequeños motores de reacción de la cabina

Por todas estas circunstancias, trataremos de revivir los momentos vividos a bordo de la “Faith 7”, cuyas 22 orbitas indicaron que las diferencias se estaban acortando en relación con la URSS, no obstante que en ese mismo año, 1963, la astronáutica soviética seguiría sorprendiendo al mundo  con nuevos éxitos.

UN INSTANTE DRAMÁTICO: El lanzamiento se cumplió sin inconvenientes el 15 de mayo, en las condiciones Casi cosmonauta dentro de la cápsulade rutina en el centro espacial norteamericano. Lo que distó de ser “rutina” fueron las cosas que le ocurrieron al cosmonauta dentro de la cápsula. (imagen )

El primer problema se produjo en las instalaciones de eliminación de vapor de agua que se condensaba en el interior de su pesado traje de vuelo.

Tuvo que accionar durante más tiempo que el previsto una bomba especial pero, aún así, el agua se acumuló en la escafandra, molestándolo bastante. A pesar de este inconveniente, realizó otro de los objetivos previstos lanzando un satélite: una pequeña esfera luminosa que tomó una órbita muy cercana a la de la astronave.

En la cuarta órbita, preocupado en la atención de otros aspectos de su misión, Cooper observó de pronto un resplandor atravesando la noche, Esto le causó un breve sobresalto hasta que comprobó que, simplemente, se trataba de dicho satélite.

Por un momento, supuso que se trataba de un cohete que pudiera haber sido disparado desde Tierra y no precisamente desde territorio norteamericano. Posteriormente estudió el misterio de las “luciérnagas” logrando establecer su procedencia.

Luego se dedicó a dormir. Sus periodos de sueño no superaron una hora, aunque posteriormente declaró que no recordaba nada de sus “siestas” en el espacio.

Al despertaste se sintió un poco confuso, y por un momento no supo si se hallaba en un vuelo simulado; en la punta del cohete Atlas aguardando el momento de la partida o en su propia casa. Esta confusión fue la causa de que en tierra se le registrase una aceleración del pulso y una mayor presión sanguínea.

Durante las 34 horas 20 minutos que estuvo volando a alturas oscilantes entre los 161 (perigeo) y 272 kilómetros (apogeo) tuvo perfecta visibilidad y reconoció sin mayor esfuerzo los distintos accidentes geográficos que abarcaba su campo visual.

LA FALSA SEÑAL:

En la órbita 18, a 28 horas 59 minutos desde el momento del lanzamiento, una falla eléctrica dejó a oscuras la cabina. Cooper debió apelar a todas sus reservas para mantener la serenidad y solucionar el desperfecto. Cuando volvió la luz, advirtió que se habla encendido espontáneamente la “05G”. Esta solo debía encenderse cuando la nave espacial registrara el primer indicio de gravitación, o sea una vigésima parte de la gravedad terrestre. En consecuencia, de ser cierto lo que estaba viendo el astronauta, su nave habla comenzado a descender (lo cual era falso).

El mismo Cooper relatara la tremenda experiencia: «Al principio pensé que simplemente no le haria caso, pero luego decidí que eso no me convenía, pues el problema no se resolverla solo.” Al confirmársele que no estaba reingresando a la atmósfera terrestre, demostración de que el sistema, automático no funcionaba bien, realizó algunas pruebas. Así llegó a la conclusión de que dicho sistema, más que dañado, en realidad había dejado de funcionar. Asimismo, al fallas  del dispositivo eléctrico que dejó a oscuras la cabina, todos los controles automáticos quedaron eliminados (“Entonces decidí que reingresaría prescindiendo de todo lo que no fuera el instrumental manual”).

Tomar este tipo de decisiones “allá abajo”, en nuestro mundo, puede revelar un mayor o menor  grado de rapidez mental. Pero hacerlo a más de 200 kilómetros de altura sin saber si el vehiculo en el que se viaja está  o no cayendo o puede precipitase, convertido en una tea, en cualquier momento resulta sin duda una experiencia estremecedora.»

Y quien la pasa, revela un temple mucho más allá de lo común, casi sobrehumano. Lo importante es que la decisión confirmó algo que estaba previsto, pero no demostrado:hasta que punto el entrenamiento puede convertir a un hombre en un ser capacitado para las anís fantásticas empresas.

Cooper se mantuvo sereno. En Tierra no se registró una sola pulsación que demostrara temor frente al riesgo. Tranquilamente cumplió la órbita 22 estipulada y, de inmediato, anunció que descendería. Manualmente disparó los retrocohetes. La cana del cono apuntó hacia la superficie del planeta. Y allá fue.. (“La multiplicación de la fuerza de la gravedad al reingresar no presentó ningún problema. La oscilación no fue objetable. La maniobra resultó lo más fácil del mundo. … en verdad, más fácil de lo que  esperaba. Al soltar el paracaídas de estabilización, este se abrió con un traqueteo, un rugido y un golpe sordo…»)-

UN BARCO TRASTORNADO

Descendió muy cerca del portaaviones “Kearsarge”. En las partes altas de la nave, la marinería le saludaba agitando sus gorras “(Yo suponía, mejor aún, estaba seguro de que el barco se trastornaría”). Se sintió muy bien al comienzo, pero mientras le tomaban la presión sanguínea experimentó un ligero vahido.  Le tomaron de los brazos para que no cayese, y enseguida volvió a sentirse bien, Luego bebió varios litros de liquido (“Estaba completamente deshidratado y con una sed increíble»).

Más tarde fueron los agasajos, los honores, la familia, El astronauta que había estado más cerca de la muerte; el que abrió los caminos para la gloria de otros de sus camaradas, volvió a vivir. Una trampa del destino quedó atrás.

En la dimensión fantástica de la “era espacial”, una coincidencia sellé los avances prodigiosos de poco más de una década. Cooper cumplió su vuelo casi exactamente a 36 años del día en que Charles Lindbergh, en su “Sprit of Saint Louis” saltaba sobre el océano en vuelo sin etapas para unir Nueva York con Paris. ‘El Águila Solitaria”, en 33 horas 29 minutos, volando a lo largo de 5800 kilómetros, abrió un camino en una fecha en la que Cooper tenía dos meses de edad. El intrépido de la “Faith 7”, en sus 22 órbitas, habla cubierto 960.000 kilómetros, los suficientes, para ir y volver a la Luna, Y todo ello en una hora más que el asombroso piloto de aviones correo que estremeció al mundo con su hazaña.

John Glenn Primer Americano en Orbitar Terrestre Carrera Espacial

John Glenn Primer Americano en Orbitar

John Glenn Primer Americano en Orbitar Terrestre Carrera EspacialEL VUELO DEL CORONEL GLENN:
El 20 de febrero de 1962 los norteamericanos, después de haberlo aplazado varias veces y anunciado sin reserva a todo el mundo, pusieron en órbita el cohete Friendship VII que llevaba una cápsula dentro de la cual se encontraba el astronauta piloto John H. Glenn de 40 años de edad.

A la hora prevista la cápsula se desprendió de los cuerpos del cohete Atlas y entró en órbita.

Después de dar tres vueltas a la Tierra, el astronauta pulsó los mandos que le llevaron a descender en aguas del Atlántico donde fue recogido por el destructor «Noah».

El vuelo había durado 4 horas, 55 minutos.

Durante el mismo, millones de espectadores habían podido seguir, gracias a la televisión, todos los detalles del lanzamiento.

Glenn había comunicado constantemente sus impresiones y repitiendo muchas veces que se sentía bien. Este vuelo, que causó gran impresión por su preparación, anuncio y exhibición, demostró que el astronauta puede dirigir las fases de marcha y controlar los mecanismos para su propia recuperación y la de la cápsula.

Hasta aquí la historia, con sus datos, sus hechos concretos y sus cifras irrebatibles.

Al iniciarse 1962, las dos grandes potencias espaciales, Estados Unidos y la URSS, se preparaban para emprender otras proezas.

El presupuesto para investigación espacial y tecnológica para dicho año en los Estados Unidos se elevó a 2.400 millones de dólares.
A partir de este año se suceden en forma ininterrumpida los vuelos espaciales tripulados.

Salida del cohete Atlas-Mercury MA6

Salida del cohete Atlas-Mercury MA6 llevando a bordo al primer astronauta americano John Glenn

1962John Glenn fue el primero en orbitar la Tierra1998
Aunque fue el tercer norteamericano en el espacio,John Glenn fue el primero en orbitar la Tierra. Aquí algunas cifras sobre su vueloEl año pasado, el senador Glenn regresó a la órbita como miembro de un viaje espacial. Como lo demuestra este informe algunas cosas —no todas— han cambiado.
El astronauta
Altura: 1,80 metro
Color de pelo: colorado

Edad: 40 años

Salario: 12.000 dólares.
Entrenamiento diario:
3,2 kilómetros trote
El astronauta
Altura: 1,80 metro
Color de pelo: blanco

Edad: 77 años

Salario: 136.672 dólares.
Entrenamiento diario:
3,2 kilómetros de caminata rápida
La nave
Nombre:  Friendship 7 (Amistad 7)
Tripulación:         1
Ventanas:   1
Computadoras: 0
Peso:    1,930 kilos
La nave
Nombre:  Discovery
Tripulación:         7
Ventanas:   10
Computadoras: 5
Peso:    69,770 kilos
La misión
Nombre:  Mercury 6

Despegue:  20 de Febrero de 1962.
a las 9h 47, 39″
La misión
Nombre:  STS-95

Despegue:  29 de octubre de 1998
a las 14 h.

Duración:
4
h. 55’ 23”.
Velocidad orbital:
28.234 kilómetros por hora
Tiempo por órbita:
1 h.28’29”.
Distancia recorrida:
121 .794 kilómetros
Lugar de aterrizaje:
Océano Atlántico, 800 kilómetros al sudeste de Bermudas
Rescate:
Un barco de la Armada recuperó la nave luego de caer al océano.

 Duración:
Aproximadamente 8 días y 20 h.Velocidad orbital:
8.164 kilómetros por horaTiempo por órbita:
90 minutosDistancia recorrida:
5.800.000 kilómetrosLugar de aterrizaje:
Centro espacial Kennedy, Florida

Rescate:
No fue necesario

Cronología de las
Misiones Espaciales
 Hitos de la
Carrera Espacial

Principio de Funcionamiento de Maquina Termicas Calderas y Turbinas

Funcionamiento de Máquina Térmicas

maquina termica

MÁQUINAS TÉRMICAS. Durante muchos siglos el hombre utilizó la energía térmica para calentarse, sin darse cuenta que ésta podría trabajar para él. Pero este hecho ocurrió en época muy reciente, hace poco menos de 200 años.

La invención de las máquinas térmicas abrió nuevos horizontes, cambiando en pocos años la marcha de la civilización, y contribuyó eficazmente a la revolución industrial, que caracteriza a los siglos XVIII y XIX. Los dispositivos destinados a transformar energía calorífica en energía mecánica se denominan máquinas térmicas, las cuales se pueden clasificar en dos tipos fundamentales: máquinas de vapor, que utilizan el vapor de agua producido por calentamiento, y motores de explosión, que funcionan gracias a la expansión de los gases producidos por la combustión de una mezcla explosiva.

LAS PRIMERAS MAQUINAS DE VAPOR.
En 1712, el inglés Newcomen construyó un dispositivo que transformaba el calor en trabajo, y que guarda un cierto parecido con las máquinas de vapor utilizadas en la actualidad. Estaba constituido por una caldera que mediante un tubo comunicaba con un cilindro vertical, cuyo pistón se unía al brazo de una palanca.

El vapor de la caldera empujaba el pistón hacia arriba, hasta alcanzar la posición superior; en este momento se proyectaba dentro del cilindro un chorro de agua fría, mediante una válvula accionada por la palanca. De este modo, el vapor se enfriaba y condensaba creando un vacío en el interior del cilindro y en la caldera. Entonces la presión de la atmósfera empujaba el pistón hacia abajo.

La máquina de Newcomen presentaba el inconveniente de que en cada carrera del pistón, el agua perdía la temperatura de ebullición, precisando recuperar ésta para que se repitiera el proceso.
Durante más de dos décadas este dispositivo se utilizó para bombear agua de las minas y de los pozos.

La utilización industrial de la máquina de vapor fue llevada a cabo por James Watt, ingeniero escocés, que modificó el dispositivo de Newcomen en el sentido de evitar las pérdidas de calor. Para ello construyó un aparato que llevaba una cámara separada que aspiraba el vapor y donde se condensaba por medio de un sistema de refrigeración. De este modo consiguió disminuir el tiempo de subida y bajada del émbolo y ahorró gran cantidad de combustible, lo que representa una considerable economía.

Hay que notar que estas máquinas no utilizan la presión del vapor, sino que su funcionamiento está basado en el vacío que se origina al condensar el gas que permite actuar a la presión atmosférica y hace descender el émbolo y, por consiguiente, da el impulso necesario para la ascensión.

La necesidad de refrigerar el vapor lleva consigo la utilización de grandes cantidades de agua que hace a la máquina de vapor inaplicable a la tracción. Unos años más tarde, el propio Watt ideó un dispositivo de doble efecto, y a partir de este momento la máquina de vapor fue utilizada para el transporte, construyéndose diversos tipos de vehículos y empleándose, también, para mover los barcos.

Para disminuir el riesgo que supone la elevada presión a que está sometido el vapor de la caldera, Watt ideó un dispositivo, llamado «regulador centrífugo», de cuyo fundamento nos hemos ocupado en páginas anteriores, para evitar posibles explosiones.

LA MÁQUINA DE VAPOR ACTUAL. Modernamente se utilizan dos tipos principales de generadores de vapor.

a) Caldera con tubos de humo, constituida por un haz de tubos de acero colocados en el interior de la caldera, a través de los cuales circulan los productos de la combustión procedentes del hogar.
b) Caldera con tubos de agua, que está provista de numerosos tubos por los que circula el agua de la caldera propiamente dicha, y que son lamidos superficialmente por las llamas y los gases calientes.

En el hogar se quema el combustible, que puede ser carbón, leña, aceites pesados, gas, etc. Cuando se utiliza carbón o leña, el hogar está dividido en dos partes por una parrilla. En la superior están las llamas y en la inferior, o cenicero, se recogen las cenizas procedentes de la combustión.

El vapor producido en la caldera entra en una caja de distribución, provista de una corredera a la que una excéntrica da movimiento de vaivén. Esta corredera distribuye alternativamente el vapor a ambos lados del émbolo, de modo que cuando el vapor penetra por la cara derecha empuja el émbolo hacia la izquierda, mientras el vapor contenido en el otro lado del émbolo escapa por un canal de la izquierda a través de la corredera. De este modo se origina el movimiento de vaivén del émbolo que por medio de un sistema de biela y manivela se transmite a la rueda.

Para obtener un mayor aprovechamiento de la energía calorífica se han ideado asociaciones de cilindros, como en las máquinas tándem o en serie, constituidas por dos cilindros que actúan sobre el mismo eje, o las máquinas compound o en paralelo, en las que los cilindros forman ángulo recto, y mediante unas manivelas actúan sobre un mismo eje.

La asociación también puede ser de más de dos cilindros. Muchas veces el vapor pasa de un cilindro a otro, cuyos diámetros son cada vez mayores, con lo que se producen varias expansiones, por lo que se habla de doble, triple y múltiple expansión.

TURBINAS. Mientras la máquina de vapor es un dispositivo de presión, la turbina es una máquina basada en el flujo del vapor. Obtiene la energía a partir de pequeñas fuerzas que trabajan a gran velocidad.

turbina

La constitución de la turbina de vapor es semejante a la hidráulica, de la que nos hemos ocupado anteriormente, El rodete recibe sobre sus paletas un chorro de vapor a presión dirigido por unos tubos llamados «toberas». El vapor penetra en la turbina y hace girar los discos, luego pasa a baja presión a una segunda cámara donde imprime movimiento a otros discos. A continuación entra en un condensador, donde por medio de un serpentín refrigerado se licúa, para volver de nuevo a la caldera y repetir el proceso.

El rendimiento es mucho mayor que en las máquinas de vapor antes descritas, llamadas de , pistón, por lo que cada día son más utilizadas las turbinas, sobre todo cuando se trata de obtener grandes potencias, como en las locomotoras, barcos, centrales termoeléctricas, etc.

La potencia de las turbinas empleadas en los barcos es muy grande. Para el buque «Queen Mary» se construyó una de 200.000 CV. Los barcos de guerra también van provistos de turbinas que les permiten desarrollar grandes velocidades y tienen la ventaja de ocupar un espacio reducido. La desventaja de este sistema de propulsión es que la turbina no puede girar en sentido contrario, por lo que la nave debe llevar una turbina auxiliar para la marcha atrás.

Principio Fisico del Funcionamiento de un Motor Explosion

Principio Físico del Funcionamiento
De Un Motor Explosión o Combustión Interna

El motor de combustión interna (o motor de explosión) es un mecanismo destinado a transformar la energía calorífica en trabajo. La combustión tiene lugar en el cilindro mismo de la máquina, lo que permite un mayor rendimiento en la transformación.(Tutoriales sobre Mecánica)

El motor de combustión interna fue diseñado a finales del siglo XIX. Su funcionamiento es, en algunos aspectos, similar al de la máquina de vapor: un pistón situado en un cilindro se expande y contrae ejerciendo una fuerza. El líquido introducido dentro del cilindro es un derivado del petróleo al que, a continuación, se prende fuego. Al estar sometido a presión, el combustible no arde normalmente, sino que estalla. Esta explosión empuja el pistón hacia afuera, ejerciendo un trabajo. Posteriormente, entra nuevo combustible en el cilindro y se vuelve a comprimir para empezar de nuevo el ciclo.

Los motores comerciales se fabrican con varios cilindros, ya que este sistema permite obtener más potencia y ofrece menos problemas que los que plantea un motor provisto de un único cilindro de mayor tamaño. En este dispositivo, la posición de los cilindros se calcula para que, en un momento dado, cada uno se halle en un ciclo distinto, uno en admisión, otro en compresión, otro en explosión y otro en escape. De este modo, se obtiene un funcionamiento más estable, sin vibraciones, y en el que cada cilindro, al hacer explosión, ayuda a los demás a moverse.

Los cilindros de un motor pueden estar dispuestos de varias formas, siempre en relación con su número y con las dimensiones del vehículo que deban impulsar. En el motor de los automóviles, se colocan generalmente en línea, si van todos paralelos; en y, si la mitad se halla inclinada en un pequeño ángulo con respecto a la otra mitad; y en Boxer o contrapuestos, si unos se encuentran enfrentados a los otros.

El motor de combustión interna ha sustituido a la gran mayoría de máquinas de vapor debido a sus considerables ventajas. En primer lugar, el aprovechamiento de la energía es mayor. El origen de la energía se sitúa en el interior del cilindro, y no en el exterior como en la máquina de vapor. Por otra parte, no es necesario cargar con grandes cantidades de agua.

Los vapores empleados son los propios del combustible al explosionar. El tamaño del motor se reduce considerablemente y facilita su instalación en vehículos pequeños. Por último, este motor es capaz de realizar en poco tiempo una gran variación de energía, comparado con la máquina de vapor.

Un motor de combustión interna ligero puede pasar en pocos segundos de una posición de reposo a otra en la que proporcione la máxima energía, tardando sólo unos minutos en sistemas de grandes dimensiones, como los barcos. Esta característica lo convierte en el mecanismo ideal para aplicaciones con cambios frecuentes de energía, como puede ser el motor de un automóvil, un tren o un barco.

Clasificación de motores de combustión interna

Existen distintos criterios para clasificar los motores de combustión interna: según el combustible utilizado, el número y la disposición de los cilindros, el tipo y la colocación de las válvulas o el sistema de enfriamiento empleado. La clasificación más frecuente se basa en el tipo de ciclo, es decir, en el número de tiempos por ciclo (entendiendo por tiempo una carrera hacia arriba o hacia abajo del émbolo a lo largo del cilindro).

En el denominado motor de explosión de cuatro tiempos, en cada ciclo de motor (llamado ciclo de Otto) se suceden cuatro tiempos (admisión, compresión, explosión y escape).

Principio Fisico del Funcionamiento de Un Motor Explosion Combustion Interna

En el denominado motor de dos tiempos, cada ciclo de motor consta de sólo dos tiempos, combinándose en uno la admisión y la compresión y en el otro la expulsión y el escape. Estos motores se emplean con gasoil.

Funcionamiento del motor de explosión de cuatro tiempos

El motor de explosión de cuatro tiempos es utilizado en la mayor parte de los automóviles. En su funcionamiento se suceden cuatro tiempos o fases distintas, que se repiten continuamente mientras opera el motor. A cada uno de estos tiempos le corresponde una carrera del pistón y, por tanto, media vuelta del cigüeñal.

En el primer tiempo, llamado de admisión, el pistón se encuentra en el punto muerto superior y empieza a bajar. En ese instante se abre la válvula de admisión, permaneciendo cerrada la de escape. Al ir girando el cigüeñal, el codo va ocupando distintos puntos de su recorrido giratorio, y, por medio de la biela, hace que el pistón vaya bajando y provocando una succión en el carburador a través del conducto que ha abierto la válvula de admisión, arrastrando una cantidad de aire y gasolina, que se mezclan y pulverizan en el carburador.

Estos gases van llenando el espacio vacío que deja el pistón al bajar. Cuando ha llegado al punto muerto inferior, se cierra la válvula de admisión y los gases quedan encerrados en el interior del cilindro. Durante este recorrido del pistón, el cigüeñal ha girado media vuelta.

Al comenzar el segundo tiempo, llamado de compresión, el pistón se encuentra en el punto muerto inferior y las dos válvulas están cerradas. El cigüeñal sigue girando y, por tanto, la biela empuja al pistón, que sube. Los gases que hay en el interior del cilindro van ocupando un espacio cada vez más reducido a medida que el pistón se acerca al punto muerto superior. Cuando alcanza este nivel, los gases ocupan el espacio de la cámara de compresión y, por tanto, están comprimidos y calientes por efecto de la compresión. Al elevarse la temperatura, se consigue la vaporización de la gasolina y la mezcla se hace más homogénea, por lo que existe un contacto más próximo entre la gasolina y el aire. Durante esta nueva carrera del pistón, el cigüeñal ha girado otra media vuelta.

El tercer tiempo es el llamado de explosión. Cuando el pistón se encuentra en el punto muerto superior después de acabada la carrera de compresión, salta una chispa en la bujía, que inflama la mezcla de aire y gasolina ya comprimida y caliente, la cual se quema rápidamente. Esta combustión rápida recibe el nombre de explosión y provoca una expansión de los gases ya quemados, que ejercen una fuerte presión sobre el pistón, empujándolo desde el punto muerto superior hasta el inferior. A medida que el pistón se acerca al punto muerto inferior, la presión va siendo menor, al ocupar los gases un mayor espacio.

En este nuevo tiempo, el pistón ha recibido un fuerte impulso, que transmite al cigüeñal, que por inercia seguirá girando hasta recibir un nuevo impulso. Cuando el pistón llega al punto muerto inferior, se abre la válvula de escape, y permanece cerrada la de admisión. Durante esta nueva carrera del pistón, denominada motriz por ser la única en que se desarrolla trabajo, el cigüeñal ha girado otra media vuelta.

Al comenzar el cuarto tiempo, llamado de escape, el pistón se encuentra en el punto muerto inferior, y la válvula de escape se ha abierto, por lo que los gases quemados en el interior del cilindro escaparán rápidamente al exterior a través de ella, por estar sometidos a mayor presión que la atmosférica. El cigüeñal sigue girando y hace subir al pistón, que expulsa los gases quemados al exterior. Cuando llega al punto muerto superior, se cierra la válvula de escape y se abre la de admisión. Durante el tiempo de escape, el pistón ha realizado una nueva carrera y el cigüeñal ha girado otra media vuelta. Acabado el tiempo de escape, el ciclo se repite.

Como ha quedado expuesto, las válvulas se abren y cierran coincidiendo con el paso del pistón por el punto muerto superior e inferior. Para conseguir un mayor rendimiento en los motores, se hace que las válvulas se abran y cierren con un cierto adelanto o retraso respecto a los momentos indicados. Son las llamadas cotas de la distribución, cuyos valores son determinados por el fabricante y calculados para que el motor desarrolle la máxima potencia.

ciclo del motor a explosion

Motor Wankel

El motor Wankel posee una forma especial de la cámara de combustión del pistón que permite un mejor aprovechamiento de la potencia obtenida

Principio Fisico del Funcionamiento de Un Motor Explosion Combustion InternaEn un motor tradicional, el pistón sube y baja verticalmente y un eje unido a ése encarga de transformar dicho movimiento en otro vertical que se transmite al cigüeñal. Este movimiento vertical del pistón tiene inconvenientes.

El primero consiste en que los bruscos cambios de dirección, de abajo hacia arriba y viceversa fatigan el metal y provocan una rotura anticipada Otro problema es que la transferencia de energía es ineficiente y parte se pierde en mover el pistón verticalmente sin invertirse en girar el cigüeñal.

El motor Wankel fue diseñado para que la fuerza de la explosión se empleara íntegramente en mover el cigüeñal y para que utilizara menos partes móviles. Consta de una cavidad curva que es la cámara de combustión  Dentro de ella se halla el pistón, que tiene forma de triángulo con los bordes cóncavos. La parte interior de dicho pistón tiene una circunferencia dentada que va unida a un engranaje del cigüeñal.

Al ir girando el pistón en la cavidad, toma el combustible en un punto y lo comprime hasta llegar a un segundo Punto en el que se produce la explosión Siguiendo con el giro, llega al área de expulsión de gases al exterior, ya Continuación vuelve a admitir combustible Se puede Considerar por tanto como un motor de explosión de cuatro tiempos.

Dado que el pistón tiene forma triangular, puede entenderse como si fueran tres Pistones Separados, cada uno en una fase cada vez. La energía se emplea en mover circularmente el Pistón y los cambios bruscos de movimiento se reducen en gran medida.

Con este motor se ha llegado, incluso, a doblar la Potencia de un motor normal, pero problemas de diseño y de desgaste, en especial de las esquinas del pistón que rozaban con la pared de la cámara han impedido su difusión a gran escala.

Haciendo ahora un poco de historia, podemos decir que la historia del motor de explosión de gasolina es la siguiente:

Primer motor de explosión de cuatro tiempos: Otto y Rochas (1861-1862).
Primer motor de explosión comercial: Otto (1876).
Primer automóvil con motor de explosión: Marcus (1875).
Primer motor comercial útil, aplicable a vehículos: Daimler y Maybach (1885, aproximadamente).
Primer automóvil moderno: «Mercedes» de Maybach  (1900)

Ampliar la historia desde aquí

Ver: Funcionamiento Motor Eléctrico

Ver:  Resumen Historia La Patente de Selden

 

Principios fisicos del funcionamiento del motor electrico Descripcion

Principio Físico del Funcionamiento
De Un Motor Eléctrico

Los motores eléctricos son máquinas eléctricas rotatorias que transforman la energía eléctrica en energía mecánica. Debido a sus múltiples ventajas, entre las que cabe citar su economía, limpieza, comodidad y seguridad de funcionamiento, el motor eléctrico ha reemplazado en gran parte a otras fuentes de energía, tanto en la industria como en el transporte, las minas, el comercio, o el hogar.Podemos decir que son unos dispositivos rotativos que incluyen, como los generadores eléctricos, dos armaduras ferromagnéticas cilindricas coaxiales, una fija (estator) y la otra móvil (rotor), separadas por un entrehierro.

motor electrico

Los motores eléctricos satisfacen una amplia gama de necesidades de servicio, desde arrancar, acelerar, mover, o frenar, hasta sostener y detener una carga.

Estos motores se fabrican en potencias que varían desde una pequeña fracción de caballo de fuerza  hasta varios miles, y con una amplia variedad de velocidades, que pueden ser fijas, ajustables o variables.

Un motor eléctrico contiene un número mucho más pequeño de piezas mecánicas que un motor de combustión interna o uno de una máquina de vapor, por lo que es menos propenso a los fallos. Los motores eléctricos son los más ágiles de todos en lo que respecta a variación de potencia y pueden pasar instantáneamente desde la posición de reposo a la de funcionamiento al máximo. Su tamaño es más reducido y pueden desarrollarse sistemas para manejar las ruedas desde un único motor, como en los automóviles.

El inconveniente es que las baterías son los únicos sistemas de almacenamiento de electricidad, y ocupan mucho espacio. Además, cuando se gastan, necesitan varias horas para recargarse antes de poder funcionar otra vez, mientras que en el caso de un motor de combustión interna basta sólo con llenar el depósito de combustible. Este problema se soluciona, en el ferrocarril, tendiendo un cable por encima de la vía, que va conectado a las plantas de generación de energía eléctrica.

La locomotora obtiene la corriente del cable por medio de una pieza metálica llamada patín. Así, los sistemas de almacenamiento de electricidad no son necesarios.

Cuando no es posible o no resulta rentable tender la línea eléctrica, para encontrar una solución al problema del almacenamiento de la energía se utilizan sistemas combinados, que consisten en el uso de un motor de combustión interna o uno de máquina de vapor conectado a un generador eléctrico. Este generador proporciona energía a los motores eléctricos situados en las ruedas. Estos sistemas, dada su facilidad de control, son ampliamente utilizados no sólo en locomotoras, sino también en barcos.

El uso de los motores eléctricos se ha generalizado a todos los campos de la actividad humana desde que sustituyeran en la mayoría de sus aplicaciones a las máquinas de vapor. Existen motores eléctricos de las más variadas dimensiones, desde los pequeños motores fraccionarios empleados en pequeños instrumentos hasta potentes sistemas que generan miles de caballos de fuerza, como los de las grandes locomotoras eléctricas

En cuanto a los tipos de motores eléctricos genéricamente se distinguen motores monofásicos, que Contienen un juego simple de bobinas en el estator, y polifásicos, que mantienen dos, tres o más conjuntos de bobinas dispuestas en círculo.

Según la naturaleza de la corriente eléctrica transformada, los motores eléctricos se clasifican en motores de corriente continua, también denominada directa, motores de corriente alterna, que, a su vez, se agrupan, según su sistema de funcionamiento, en motores de inducción, motores sincrónicos y motores de colector. Tanto unos como otros disponen de todos los elementos comunes a las máquinas rotativas electromagnéticas

Motores de corriente continua

La conversión de energía en un motor eléctrico se debe a la interacción entre una corriente eléctrica y un campo magnético. Un campo magnético, que se forma entre los dos polos Opuestos de un imán, es una región donde se ejerce una fuerza sobre determinados metales o sobre otros campos magnético5 Un motor eléctrico aprovecha este tipo de fuerza para hacer girar un eje, transformándose así la energía eléctrica en movimiento mecánico.

Los dos componentes básicos de todo motor eléctrico son el rotor y el estator. El rotor es una pieza giratoria, un electroimán móvil, con varios salientes laterales, que llevan cada uno a su alrededor un bobinado por el que pasa la corriente eléctrica. El estator, situado alrededor del rotor, es un electroimán fijo, cubierto con un aislante. Al igual que el rotor, dispone de una serie de salientes con bobinados eléctricos por los que circula la corriente.

Cuando se introduce una espira de hilo de cobre en un campo magnético y se conecta a una batería, la corriente pasa en un sentido por uno de sus lados y en sentido contrario por el lado opuesto. Así, sobre los dos lados de la espira se ejerce una fuerza, en uno de ellos hacia arriba y en el otro hacia abajo. Sí la espira de hilo va montada sobre el eje metálico, empieza a dar vueltas hasta alcanzar la posición vertical. Entonces, en esta posición, cada uno de los hilos se encuentra situado en el medio entre los dos polos, y la espira queda retenida.

Para que la espira siga girando después de alcanzar la posición vertical, es necesario invertir el sentido de circulación de la corriente. Para conseguirlo, se emplea un conmutador o colector, que en el motor eléctrico más simple, el motor de corriente continua, está formado por dos chapas de metal con forma de media luna, que se sitúan sin tocarse, como las dos mitades de un anillo, y que se denominan delgas. Los dos extremos de la espira se conectan a las dos medias lunas.

Dos conexiones fijas, unidas al bastidor del motor y llamadas escobillas, hacen contacto con cada una de las delgas del colector, de forma que, al girar la armadura, las escobillas contactan primero con una delga y después con la otra.

Cuando la corriente eléctrica pasa por el circuito, la armadura empieza a girar y la rotación dura hasta que la espira alcanza la posición vertical.

Al girar las delgas del colector con la espira, cada media vuelta se invierte el sentido de circulación de la corriente eléctrica. Esto quiere decir que la parte de la espira que hasta ese momento recibía la fuerza hacia arriba, ahora la recibe hacia abajo, y la otra parte al contrario. De esta manera la espira realiza otra media vuelta y el proceso se repite mientras gira la armadura.

El esquema descrito corresponde a un motor de corriente continua, el más simple dentro de los motores eléctricos, pero que reúne los principios fundamentales de este tipo de motores.

Motores de corriente alterna

Los motores de corriente alterna tienen una estructura similar, con pequeñas variaciones en la fabricación de los bobinados y del conmutador del rotor. Se dividen en dos familias: los motores asincronos y los motores síncronos. Su funcionamiento se basa en la noción de campo electromagnético giratorio. Dicho campo lo crean unas bobinas, que hacen de imanes, arrolladas en unas ranuras situadas en la periferia del estator y alimentadas con corriente alterna.

En un motor asincrono, el bobinado del rotor es polifásico (devanado o jaula de ardilla) y no está conectado a ninguna fuente de energía. Bajo la acción del campo magnético del estator, aparecen en el rotor unas corrientes inducidas y unas fuerzas de rotación. Un motor asincrono puede crear un par cualquiera que sea su velocidad de rotación, incluso durante el arranque.

En un motor síncrono, el campo magnético lo crea en el rotor un electroimán alimentado con corriente continua. El motor síncrono posee una sola velocidad de rotación, igual al cociente entre la frecuencia de la corriente y el número de pares de polos del estator. Su defecto reside en su incapacidad para arrancar por sí mismo.

Los motores síncronos y asincronos han presentado durante mucho tiempo problemas relacionados con su funcionamiento a velocidad variable. Los avances realizados en el terreno de los dispositivos a base de semiconductores permiten alimentar los motores por medio de cambios de frecuencia y onduladores de frecuencia variable.

Motores de asincrónico (o de inducción):

El motor de inducción no necesita escobillas ni colector. Su armadura es de placas de metal magnetizable. El sentido alterno de circulación, de la corriente en las espiras del estator genera un campo magnético giratorio que arrastra las placas de metal magnetizable, y las hace girar. El motor de inducción es el motor de corriente alterna más utilizado, debido a su fortaleza y sencillez de construcción, buen rendimiento y bajo coste así como a la ausencia de colector y al hecho de que sus características de funcionamiento se adaptan bien a una marcha a velocidad constante.

motor asincronico corte

Los motores asincronos trifásicos se utilizan para accionar muchas máquinas industriales. Este tipo de motor se impone en razón de su bajo coste, de su solidez y de su facilidad de mantenimiento. Gracias al convertidor de frecuencia, que permite hacer variar su velocidad de rotación, compite directamente con el motor de corriente continua.

Motores sincrónicos

Los motores sincrónicos funcionan a una velocidad sincrónica fija proporcional a la frecuencia de la corriente alterna aplicada. Su construcción es semejante a la de los alternadores Cuando un motor sincrónico funciona a potencia constante y sobreexcitado, la corriente absorbida por éste presenta, respecto a la tensión aplicada un ángulo de desfase en avance que aumenta con la corriente de excitación.

Esta propiedad es la que ha mantenido la utilización del motor sincrónico en el campo industrial, pese a ser el motor de inducción más simple, más económico y de cómodo arranque, ya que con un motor sincrónic0 se puede compensar un bajo factor de potencia en la instalación al suministrar aquél la corriente reactiva, de igual manera que un Condensador conectado a la red.

Motores de colector: El problema de la regulación de la velocidad en los motores de corriente alterna y la mejora del factor de potencia han sido resueltos de manera adecuada con los motores de corriente alterna de colector. Según el número de fases de las comentes alternas para los que están concebidos los motores de colector se clasifican en monofásicos y Polifásicos, siendo los primeros los más Utilizados Los motores monofásicos de colector más Utilizados son los motores serie y los motores de repulsión.

Funcionamiento Motor a Explosión

Ejemplo de como construir un motor eléctrico básico

Fuente Consultadas:
Gran Enciclopedia Universal de Espasa Calpe Tomo 27,
Revista Tecnirama N°52
Reparación de Motores Eléctricos de Martínez Domínguez

Las Fibras Opticas Fundamentos Tipos, Usos y Aplicaciones

Fundamentos y Uso de las Fibras Ópticas

Las investigaciones en el campo de la electrónica y las comunicaciones encuentran en la tecnología de la fibra óptica un interesante campo de experimentación. La fibra óptica es un filamento cilíndrico transparente, fabricado en vidrio, que posee la propiedad de propagar las ondas electromagnéticas colocadas en el espectro visible

Fundamento de las tecnologías ópticas

fibra optica

La comunicación entre dispositivos electrónicos se verifica a través de ondas electromagnéticas.

Cuanto mayor es la frecuencia de la onda mayor cantidad de información puede ser transmitida.

Dado que la luz es  también una onda electromagnética, cuya frecuencia es muy elevada, el flujo de información que transporta es, consecuentemente, muy superior al que se obtendría utilizando otros tipos de ondas.

Los cables de fibra óptica se emplean para la iluminación de espacios de difícil acceso (por ejemplo, en las operaciones de microcirugía), para la transmisión de imágenes (es el caso de la televisión por cable) e informaciones y, de manera especial, en el ámbito de las telecomunicaciones por láser.

Componentes de la fibra óptica

Las fibras ópticas están formadas por dos elementos: un núcleo cilíndrico y una funda envolvente, denominada vaina. Ambos componentes se fabrican en vidrio aunque siguiendo procesos distintos, puesto que es necesario que el índice de refracción difiera en uno y otro.

De este modo, la velocidad a la que viajan las ondas es distinta en el núcleo y en la vaina. La mezcla del vidrio con materiales impuros determina las variaciones en el índice de refracción.

El diámetro de una fibra óptica oscila entre los 10 y los 100 micrómetros un micrómetro equivale a la millonésima parte de un metro—; la unión de fibras ópticas determina la formación de haces que pueden ser rígidos o flexibles, y transmitir -tanto la luz como imágenes o informaciones, dependiendo de las aplicaciones.

El índice de refracción del material con el que está fabricada caracteriza una fibra óptica; asimismo, ha de tenerse en cuenta la caída de la señal que las atraviesa, que se encuentra estrechamente relacionada con su longitud y con la frecuencia de la radiación empleada.

Tipos de fibra óptica

Fibras de Índice abrupto

En las fibras de índice abrupto la velocidad a la que se propagan las ondas electromagnéticas es inferior en el núcleo con respecto a la envoltura. Cuando los rayos penetran en la fibra con un ángulo pequeño, rebotan al chocar con las paredes, en función de la diferencia del índice de refracción entre ambos componentes.

Por el contrario, si el ángulo de penetración de la radiación electromagnética es elevado, los rayos se pierden. Es también el ángulo de entrada del rayo de luz lo que determina la velocidad de transmisión.

Así, si su dirección es paralela al eje de la fibra, «viaja» más rápidamente; si, por el contrario, penetra desviado, describe una trayectoria más larga, puesto que avanzará rebotando en los puntos de unión del núcleo y la vaina.

En este caso, la señal luminosa se pierde progresivamente en función de la distancia. Para solucionar el problema es necesario incorporar al sistema repetidores de la señal, a determinadas distancias.

Fibras de Indice gradual

A diferencia de lo que ocurre con las fibras de índice abrupto, en este caso el índice de refracción del núcleo no es constante, sino variable: es mayor en el centro y menor en el borde —lo que determina un incremento en la velocidad de la luz—.

De esta manera se igualan las velocidades de los rayos, sin que el factor «ángulo de entrada» sea determinante.

En síntesis, en las fibras de índice abrupto la luz viaja por el núcleo, pero el desfase producido entre las ondas provoca pérdidas al cabo de pocos kilómetros, puesto que no todos los rayos recorren la misma distancia: unos pueden viajar rectos, mientras otros, al rebotar en las paredes, recorren un camino en zigzag y, consecuentemente, mayor distancia.

Esta cuestión se soluciona en las fibras de índice gradual, haciendo que la velocidad aumente en las partes laterales, para compensar así la mayor longitud del camino a recorrer. En cada punto de la fibra la velocidad es inversamente proporcional al índice de refracción.

Aplicaciones

Fibras conductoras de luz

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Fibras conductoras de imágenes

Para la transmisión de imágenes las fibras del haz han de aparecer ordenadas, no simplemente yuxtapuestas, como sucede en el caso de la conducción de la luz. Efectivamente, si la posición relativa de las fibras es idéntica en los dos extremos del haz, resulta posible que la imagen formada en el primer extremo se propague hacia el final del sistema, con un grado de nitidez que viene determinado por el diámetro de cada fibra individual. La longitud habitual de estos conjuntos ordenados de haces, también flexibles, oscila entre 50 cm y 1 m de longitud.

Fibras conductoras de información

A mediados de los años sesenta del siglo XX comenzó a pensarse en la posibilidad de transmitir a gran distancia la luz modulada por señales, utilizando para ello fibras ópticas. No obstante, los primeros resultados en este nuevo ámbito de experimentación se produjeron ya en la década siguiente, gracias a la obtención de fibras con un elevado grado de transparencia, que determinaran pérdidas suficientemente pequeñas. En un principio, el sistema se utilizó para transmisiones entre puntos cercanos —dentro, por ejemplo, de una aeronave—.

Sucesivos avances en este campo dejaron patente, á comienzos de los ochenta, la posibilidad cercana de sustituir el cableado coaxial por cables de fibra óptica. La reducción de las dimensiones y el peso del sistema, además de una mayor insensibilidad a las perturbaciones derivadas de eventuales campos magnéticos, se revelaron pronto como las principales ventajas de esta sustitución.

Asimismo, la introducción de cables de fibra óptica permitía un considerable ahorro de cobre y aseguraba, sin necesidad de recurrir a amplificaciones intermedias, un alcance muy superior al obtenido con los pares coaxiales.

Conexiones telefónicas

La introducción de cables de fibra óptica en las conexiones telefónicas, donde la señal ya no está constituida por una corriente eléctrica, sino por una onda luminosa, ofrece la posibilidad de transmitir impulsos en cantidad y calidad decididamente mayor, además de a una velocidad más elevada. El proceso requiere la instalación de una amplia red de fibras ópticas. Este proyecto, hoy en vías de realización, lleva el nombre de cableado y constituye un paso importante que cambiará sensiblemente los hábitos y costumbres del hombre, ahora en el centro de la revolución telemática.

La televisión por cable y las autopistas de información: En ambos campos, la tecnología de la fibra óptica ofrece interesantes posibilidades. La televisión por cable implica un cambio en la forma de transmisión de la señal, que, en lugar de propagarse a distancia, circula por cables. En un principio, se emplearon pequeños cables coaxiales normales, análogos a los utilizados para la telefonía; hoy, en cambio, se utilizan cables de fibra óptica que permiten una transmisión más rápida.

Asimismo, las autopistas de la información son posibles gracias a la sustitución del tradicional hilo metálico por los cables de fibra óptica. En este tipo de conexión, las señales circulan en forma digital, formadas esencialmente por secuencias de ceros y unos que sustituyen a las anteriores señales de tipo analógico.

Fuente Consultada: Gran Enciclopedia Universal (Espasa Calpe)

Fermi Enrico Biografia Pila Nuclear Primera Reaccion en Cadena

Fermi Enrico, Biografía
Logra La Primera Reacción en Cadena Controlada

Enrico Fermi nació en Roma, Italia, el 29 de septiembre de 1901.  Murió 28 de noviembre de 1954.  Era hijo de un oficial de ferrocarril, estudió en la Universidad de Pisa desde 1918 hasta 1922 y más tarde en las Universidades de Leyden y Gottingen.  Se convirtió en profesor de física teórica en la Universidad de Roma en 1927.

El dominio completo de la desintegración del átomo se alcanzó en 1942, cuando el italiano Enrico Fermi hizo funcionar, en la Universidad de Chicago, la primera pila atómica. En ella se provocó la primera desintegración autosostenida y controlada, es decir, la reacción en cadena. La desintegración de un átomo provoca la de otro, y así sucesivamente, hasta alcanzar la energía y el calor que se requieren.

A raíz de este trabajo se conoce a Fermi como el «Padre de la Bomba Atómica. El átomo, intuido y conocido por el hombre desde el siglo V antes de Cristo, siendo la base fundamental de la materia, ha sido estudiado y penetrado hasta arrancarle sus secretos y convertirlo, al menos por ahora, en el elemento más destructor que jamás la humanidad haya conocido. (Fuente Consultada: Libros Maravillosos Sobre Física)

Enrico Ferm

Sagaz teórico y brillante experimentador, FERMI, con sus colaboradores, sometió una larga serie de elementos al bombardeo por neutrones.

Una pequeña ampolla que contenía una mezcla de polvo de berilio y de radón constituía la fuente de proyectiles y lanzaba por segundo 20.000.000 de neutrones contra blancos formados por las sustancias elegidas para la investigación.

Las energías individuales de los proyectiles se repartían sobre una escala amplia; muchos alcanzaban hasta 8.000.000 de electrón-voltios.

La mayoría de los sesenta y tres elementos que FERMI y sus colaboradores investigaban, cedieron a la acción transformadora del bombardeo y se volvieron activos. Si bien la duración de la vida del núcleo activado raramente sobrepasó algunos minutos, FERMI y sus colaboradores lograron identificar la naturaleza química de los elementos portadores de la actividad inducida.

De las sustancias examinadas por FERMI, más de cuarenta se revelaron transmutables por la irradiación neutrónica. Así los muros del núcleo se habían abierto al intruso neutrón. Mas, seis meses después de sus primeros ensayos de bombardeó neutrónico, FERMI y su equipo, guiados por un azar benévolo, realizaron un descubrimiento de excepcionales alcances. Al procurar mejorar el rendimiento de las transmutaciones, notaron que la intensidad de la activación como función de la distancia a la fuente, presentaba anomalías que dependían —así parecía— de la materia que rodeaba a la fuente neutrónica.

Comprobaron que el pasaje de los proyectiles a través de sustancias hidrogenadas como agua y parafina, en vez, disminuir —como hubiera podido creerse—, aumentaba de manera sorprendente, a menudo en la relación de uno a cien, la eficacia de los proyectiles y la consiguiente actividad de la  materia bombardeada. FERMI interpretó con admirable sagacidad el efecto imprevisto: los neutrones —al penetrar en la sustancia hidrogenada— pierden rápidamente energía en sus reiterados choques con los protones.

Expulsados por la fuente  con una velocidad de varios millares de kilómetros por segundo, se convierten al atravesar una pantalla de parafina en neutrones lentos con una velocidad del orden de un kilómetro por segundo, casi desprovistos de energía y mas o menos en equilibrio térmico con la materia que los rodea.

El efecto descubierto por FERMI es sumamente extraño y sin modelo en nuestro mundo microscópico donde la eficacia de los proyectiles crece con su energía cinética. Lo mismo sucede con proyectiles cargados en el mundo  microscópico. Los físicos que habían bombardeado los blancos atómicos con partículas alfa, con deutones o protones, pusieron su empeño en acelerar los proyectiles: los tubos de descarga de COCKCROFT los generadores electroestáticos de VAN DF GRAAFF, los ciclotrones LAWRENCE, fueron inventados y construidos, en primer término para servir a esa finalidad. Antes del descubrimiento de FERMI los investigadores hubieran comprendido difícilmente que e: menester moderar la velocidad de un proyectil para aumento su eficacia.

Mas con los neutrones que no llevan carga y que por ende, están libres de toda repulsión por parte de las barro ras de potencial eléctrico de los núcleos, el problema cambio de aspecto. Dada su pequeña velocidad, los neutrones lento —explicó FERMI— tienen tiempo para sufrir la acción de lo núcleos que atraviesan y dejarse capturar por éstos gracias a un efecto de resonancia con las capas neutrónicas de los núcleos efecto del cual la mecánica ondulatoria permite dar cuenta.

La facilidad con que los neutrones lentos se incorporan en los núcleos, provocando su transmutación, permitió a FERMI y a sus colaboradores producir isótopos radiactivos de una larga serie de elementos Los isótopos así obtenidos, más pesados que la sustancia primitiva, se desintegran expulsando electrones negativos; como la pérdida de una carga negativa equivale a la ganancia de una Positiva, se forman de esta manera nuevos núcleos con números atómicos más elevados que el núcleo primitivo. Este proceso que FERMI encontró como regla para el bombardeo neutrónico de los elementos pesados, cobró particular interés cuando el físico italiano atacó en 1934 al más pesado de los elementos naturales, el uranio.

El núcleo de este último radiactivo en estado natural, se desintegra irradiando una partícula alfa, disminuyéndose así en dos su número atómico. Sin embargo, era de esperar que el núcleo de uranio, expuesto al bombardeo neutrónico, al capturar un neutrón, se desintegrara con emisión de un electrón, lo cual aumentaría su número atómico en una unidad, formando entonces un elemento desconocido de número 93.

Si éste resultaba radiactivo a su vez, podía dar nacimiento a un elemento de número 94 expulsando un electrón. Átomos nuevos, inexistentes en la naturaleza terrestre, aparecerían  así y ocuparían en la tabla de MENDELEIEV casillas situadas mas allá del uranio, elementos transuranianos.

IRENE CURIE

En efecto, en la primavera de 1934, FERMI creía haber producido núcleos con números atómicos mayores que el del uranio. Guiada por la misma hipótesis, IRENE CURIE, procuró establecer la naturaleza química de la enigmática sustancia engendrada por el bombardeo neutrónico del uranio.

Llegó al sorprendente resultado de que las propiedades del elemento desconocido eran análogas a las del lantano. El número atómico de este último es 57, el número de su masa 139; los números correspondientes de uranio son 92 y 238. ¿Cómo admitir, se preguntó IRENE CURIE, que la desintegración del uranio hubiese producido lantano?. (imagen izq. Irene Curie y Su esposo Joliet)

 Todas las reacciones nucleares conocidas hasta entonces habían llevado a elementos cercanos en número atómico y en número másico a los de la sustancia primitiva. Ni IRENE CURIE ni su colaborador PAUL SAVITCH sospecharon que se encontraban ante una reacción nuclear de tipo completamente nuevo, y estaban lejos de pensar que el intrigante fenómeno con que habían tropezado tenía alcances formidables, superiores a los del supuesto hallazgo de un elemento transuraniano. La presencia del lantano entre los productos de la desintegración del uranio, hizo nacer dudas en el espíritu del físico berlinés OTTO HAHN (1879-1968), quien resolvió repetir y verificar a fondo las experiencias parisienses.

HAHN y su colaborador FRITZ STRASSMANN

Para identificar los nuevos radio-elementos, HAHN y su colaborador FRITZ STRASSMANN (1902) (foto derecha: Hahn y Meitner) acudieron a los procedimientos clásicos de precipitación y cristalización fraccionadas. Sin embargo, cuando trataron de separar el nuevo radio-elemento del bario —empleado como elemento de arrastre—, fracasaron todos sus esfuerzos.

Ante la imposibilidad de realizar la aludida separación, HAHN y STRASSMANN terminaron por admitir, tras muchas vacilaciones, que el núcleo de uranio bombardeado por neutrones, en lugar de limitarse emitir partículas de pocas masa, se habría quebrado en gruesos fragmentos, de los cuales uno sería posiblemente el núcleo del bario y el otro probablemente el del kriptón.

Las masas de los dos fragmentos serían sólo aproximadamente iguales, ya que la ruptura puede producirse de distintas maneras y puede originar incluso más de dos fragmentos. Hipótesis osada fue ésta HAHN y STEASSMANN formularon en enero de 1939 con toda las reservas, puesto que ese tipo de reacción nuclear no tenía precedentes en la experiencia.

Sin embargo, el irrecusable testimonio de los hechos no tardo en apuntalar sólidamente la Suposición de los dos investigadores y las confirmaciones que afluyeron de todas partes pusieron pronto fuera de duda la realidad del fenómeno que HAHN y STBASSMANN habían bautizado como KERNSPAITUNG: partición o “fisión” del núcleo uránico. El nuevo fenómeno concentró casi inmediatamente el interés de todos los laboratorios de física atómica en el viejo y en el nuevo continente.

En efecto, si el núcleo de uranio se divide en gruesos fragmentos, la suma de las masas de estos es considerablemente inferior a aquella del núcleo inicial. En lugar de la masa que desaparece , se libera una cantidad extraordinaria de energía, a la que el cálculo asigna por núcleo cerca de 200.000.000 de electrón-voltios. Así, la ruptura de todos los átomos presentes de una molécula-gramo de uranio liberaría una cantidad de energia equivalente a 6.000.000 de kilovatios-hora, la suficiente para llevar a la ebullición instantánea 50.000.000 de litros de agua.

Dos investigadores expulsados de Alemania por el régimen hitleriano, LISA MEITNER (1878-1969) y ROBERT FRISCH (1904), simultáneamente con aportar la primera prueba experimental al fenómeno de HAHN y STRASSMANN, bosquejaron una teoría de la “fisión” nuclear. ¿Cómo explicar que una excitación moderada la captura de un neutrón, baste para producir una ruptura explosiva del núcleo? ¿Por qué esta captura provoca fisiones en los núcleos más pesados y no en los livianos?  La respuesta que MEITNER y FRISCH sugirieron se inspiró en el modelo de BOHR  del núcleo.

BOHR había asimilado el núcleo a una gota líquida; ésta, puesta en vibración, puede quebrarse en dos gotitas más pequeñas, como el núcleo puede dividirse en dos fragmentos gracias al aporte de una energía exterior. El fenómeno tiene mayor probabilidad de producirse cuanto mas pesado y menos estable es el núcleo considerado. En el  núcleo muy complejo del uranio repleto de protones, las fuerzas repulsivas que se ejercen entre las partículas cargadas son casi tan grandes como las fuerzas de intercambio protono-neutrónicas garantes de la cohesión del núcleo.

Es pues lógico admitir, concluyeron LISA MEITNER y FRISCH, que una excitación moderada de esos núcleos puede determinar su ruptura. Guiado por consideraciones teóricas, BOHR (foto izquierda)y su discípulo WHEELER reconocieron, en febrero de 1939, que el uranio “fisionable” por neutrones lentos no es el isótopo corriente con el número másico 238, sino el isótopo raro con número másico 235, presente en el uranio natural en cantidades muy reducidas (0,7%). Poco antes FERMI había sugerido que durante el proceso de la “fisión” del núcleo de uranio, además de los pesados fragmentos animados por una tremenda energía cinética, se lanzan también neutrones.

Esta suposición abrió una perspectiva de formidables alcances e hizo entrever la posibilidad de una reacción auto sustentadora, es decir, una reacción en cadena, capaz de poner al alcance del hombre la liberación de la energía atómica en una escala ponderable.

En efecto, por considerable que sea la energía de 200.000.000 de electrón-voltios liberada por la ruptura de un solo núcleo, la cantidad total de la energía liberada no pasaría de la escala microscópica, si solamente parte infinitesimal de los núcleos presentes se desintegrara por el bombardeo. Pero el problema cambia de aspecto si el proyectil neutrónico expulsa del átomo neutrones que pueden servir a su vez como proyectiles.

Al penetrar éstos en los núcleos vecinos, producen nuevos proyectiles, y de esta manera la “fisión” de un núcleo entraña rápidamente la de otros y la reacción, una vez desencadenada, es susceptible de mantenerse por sí misma, propagándose como fuego en un pajar. Distinta en todos sus aspectos de las reacciones nucleares estudiadas hasta entonces, la reacción en cadena prometía la utilización práctica de la energía nuclear, ya como fuerza propulsiva de máquinas, ya como explosivo para superbombas.

Esta promesa dio excepcional importancia a la perspectiva abierta por FERMI y confirió jerarquía histórica a la reunión de eminentes físicos realizada a fines de enero de 1939 en Washington en la que el problema fue discutido.

Fuente Consultada: Historia de la Ciencia Desidero Papp

Teoría de la Desintegración Nuclear

Porque la Luna Tiene Fases? Formación de las Fases Lunares

Porque la Luna Tiene Fases?
Formación de las Fases Lunares

Fases de la Luna
Su revolución completa la real iza la Luna en 27 días (la tercera parte de las que efectúa en un año). Tanto ésta como la Tierra carecen de luz propia y reflejan la que reciben del Sol. Por ello hay siempre en ellas una cara iluminada que en la Tierra denominamos día, y otra obscura, que llamamos noche. Combinados los movimientos lunar y terrestre se produce el ocultamiento permanente de una cara del satélite. Hasta octubre de 1959 ningún terrícola había podido ver la parte oculta. Pero en esa fecha fue fotografiada mediante un satélite artificial lanzado por la Unión Soviética.

Las variaciones que experimenta la Luna se denominan fases: en ocasiones vemos el disco lunar completo, en otras sólo una especie de hoz, y a veces nos resulta totalmente invisible, cuando se halla en con junción con el Sol decimos que se halla en fase de Luna nueva. Al otro día surge por occidente cual un delgado creciente luminoso cuya convexidad está siempre del lado del Sol en el ocaso.

El ancho creciente va aumentando hasta que, transcurridos seis días, aparece en forma de semicírculo cuya parte luminosa termina en una línea recta. En tal situación se dice que está en cuarto creciente (dicótoma). Se la observa con facilidad durante la tarde y en el anochecer. A medida que sigue su camino y se va alejando del Sol adquiere figura oval y su brillo va en aumento, hasta que al cabo de siete u ocho días se torna completamente circular. Esta fase se I lama de Luna llena, después de la cual la parte iluminada comienza a disminuir y las mismas fases se van repitiendo en sentido inverso. Es decir que, primeramente, toma la forma oval y después la de semicírculo en que llega al cuarto menguante, fácilmente observable al alba.

Por último, tras haber dado una vuelta completa al cielo, sale por la mañana un poco antes que el Sol, y ya cerca de éste, se pierde entre sus rayos y vuelve a la posición original de Luna nueva. Esta posición oculta se denomina conjunción, porque en ella se encuentra entre la Tierra y el Sol. De manera similar, las épocas de la Luna llena reciben el nombre de sicigias y las de los cuartos creciente y menguante, cuadraturas.

fases de la luna

Puedes Ver Una Animación En Flash (No Para Móvil)

Movimientos lunares
Dijimos que la Luna emplea 27 días y cuarto en dar una vuelta en torno de la Tierra: es su revolución sidérea. Pero como durante este lapso el Sol está en movimiento, transcurren 29 días y medio hasta que la Luna vuelve a ocupar el mismo lugar respecto del Sol y repetir sus fases: es su revolución sinódica.

Resultado de la gran lentitud en la rotación lunar es la enorme duración del día y de la noche en su superficie, los cuales son casi quince veces más largos que los nuestros. La ausencia de atmósfera da lugar a que durante el día, con el Sol en el cénit, la temperatura llegue a 100°C. Al pasar del día a la noche, ésta desciende rápidamente hasta los 150°C bajo cero. La órbita que sigue el satélite de la Tierra en torno de ella es elíptica.

El punto en que la Luna está más cerca de la Tierra se denomina perigeo. Por consiguiente, ésta la atrae más que cuando se halla mas lejos (apogeo). Así, para contrarrestar la mayor atracción terrestre se traslada a más velocidad, la cual es mínima cuando se halla en su apogeo.

Su movimiento de traslación varía; en cambio, el de rotación es uniforme y por tal razón desde la Tierra se advierte un balanceo merced al cual se perciben, en el borde occidental del astro cuando pasa del perigeo al apogeo, detalles que van apareciendo hasta una amplitud máxima de 8° en el momento en que su velocidad y su distancia a la Tierra son las promedias. Ello ocurre también en el borde oriental, cuando pasa del apogeo al perigeo. Este fenómeno se denomina libración en longitud o transversal.

El plano de la órbita de la Luna forma un ángulo de 5° con el terrestre. Desde la Tierra se descubre un ancho de 6° 30′ del suelo lunar más allá de cada polo: del Polo Norte si la Luna está en la parte sur de su órbita, y del sur cuando se halla en su parte norte. Este fenómeno recibe el nombre de libración en latitud. Las dos libraciones citadas y una tercera llamada diurna, que solamente alcanza un grado, dan origen a que se reconozca el 59% de la superficie lunar en lugar de la mitad exacta que se vería si aquéllas no existiesen.

Información sobre La Luna
La Luna, que gira alrededor de la Tierra, es su vecino espacial más cercano, y el único otro cuerpo solar sobre el cual han caminado los seres humanos.

El tamaño de la Luna es solamente 1/4 del de la Tierra. La gravedad lunar es sólo 1/6 de la terrestre. Esto hizo a los astronautas norteamericanos 5/6 más ligeros durante sus paseos lunares, de lo que eran sobre la Tierra. Una persona que pesase 90 Kg. en la Tierra, pesaría únicamente 15 Kg. en la Luna. Debido a esta débil atracción gravitatoria, el campeón de salto de altura Dwight Stones, que superó los 2,30 m en la Tierra (Munich, Alemania Occidental, 1973) hubiese saltado 13,80 m si hubiera estado en la Luna.

Puesto que la gravedad lunar es demasiado débil para capturar y retener una atmósfera, en la Luna no hay en absoluto fenómenos meteorológicos —en realidad, ni viento, ni sonido, ni vida.

Durante un día lunar, el calor en la superficie de la Luna alcanza la temperatura del agua hirviente. Pero con la llegada de la noche lunar, desciende hasta los 160° C bajo cero.

La Luna tarda 27,3 días aproximadamente en recorrer una órbita alrededor de la Tierra.

Solamente el 5 9 % de la Luna es visible para los habitantes de la Tierra.
Desde la Tierra, se han observado 32.000 grandes cráteres en la Luna. Uno de los mayores cráteres visibles, Clavius, tiene 235 Km. de diámetro.

El meteorito que golpeó la Luna y excavó Clavius se cree que pesaba 200 mil millones de t. De todas las muestras de suelo traídas desde la superficie por los astronautas de EE.UU., la mas antigua revela una edad de unos 4.600 millones de años.

Biografia de Michael Faraday Descubridor de la Induccion Magentica

Biografia de Michael Faraday Cientifico Descubridor de la Induccion Magentica

BIOGRAFIA DE MICHAEL FARADAY: Después de las grandes realizaciones de Volta y Ampére, quedaba abierto un fecundo camino a los estudios sobre los fenómenos eléctricos.

El mérito de haber preparado la nueva teoría en esta rama tan importante de la Física, corresponde en gran parte a Miguel Faraday, cuya vida es, además, un ejemplo estimulante de la que puede el amor a la Ciencia.

Gracias a las conclusiones elaboradas por tan ilustre físico, se hizo posible la utilización técnica de la electricidad en muchas de las esferas de la vida industrial moderna.

Físico y químico británico, Michael Faraday es conocido, sobre todo. Por las aportaciones en el campo de la electroquímica. Fue el descubridor de la inducción y del efecto que lleva su nombre sobre el giro del plano de polarización de la luz por efecto de un campo magnético

Faraday

El origen de Faraday no pudo ser más humilde. Nacido en Newington, cerca de Londres, el 22 de septiembre de 1791, su niñez transcurrió al lado de la forja de su padre, maestro herrero.

Después de haber recibido una educación muy elemental, a los trece años fue colocado como aprendiz en un taller de encuader-nación de libros.

(Descargar Un Libro Sobre Su Vida)

Faraday nació en la localidad de Newington Butts, situada cerca de Londres en 1791. Perteneció a una familia humilde, aprendió a leer y a escribir una escuela de catequesis y, debido a las dificultades económicas, desde los 14 años trabajó como aprendiz en un taller de encuadernación.

En sus ratos libres aprovechaba y leía los libros que le llevaban a encuadernar, interesándose especialmente por los dedicados a la física y la química.

Después de unos años, gracias a la oportunidad que le dio un cliente, pudo asistir a las conferencias sobre temas de química que Humphry Davy daba en Royal lnstitution.

Faraday le hizo llegar, encuadernadas, todas las notas que había tomado a lo largo de estas sesiones, acompañadas de una petición de empleo.

Satisfecho con el material que Faraday le había enviado, Davy lo contrató en 1812, como asistente.

Comenzó su actividad realizando labores de mantenimiento, para pasar posteriormente a colaborar con el maestro en la preparación de las prácticas de laboratorio; de esta manera, se convirtió en uno más de sus discípulos.

FARADAY AUTODIDACTO: La lectura de muchos de los libros sobre los cuales debía trabajar, sin embargo, le creó una inagotable sed de conocimiento científico. Un día fue a escuchar las conferencias del gran Humphrey Davy y posteriormente entró a su servicio, primero como criado, luego como secretario.

El interés de Faraday por la física y por la química aumentó, y al llegar a los 31 años ya se encontraba leyendo sus propios trabajos ante la Institución Real de Londres (donde trabajaba Davy). Allí fue designado director del laboratorio en 1825 y luego, en 1833, profesor de química de la Institución, puesto que conservó hasta su muerte.

Los talentos de Faraday cubrieron muchos campos. Fue el primero en licuar el cloro, el bióxido de carbono y otros gases.

Investigó la inducción electromagnética y desarrolló el concepto de líneas de fuerza alrededor de un imán. Pero, lo más importante, desde varios puntos de vista, fue el enunciado  de  sus  leyes  de   la   electrólisis.

En 1813 Faraday acompañó como ayudante a Davy en un ciclo de conferencias que éste impartía por el extranjero; a su regreso continuó desempeñando sus tareas de asistente, al tiempo que comenzó a investigar de manera autónoma, centrándose inicialmente en el estudio de la química.

Dentro de las principales aportaciones en este ámbito se encuentra la obtención de los primeros compuestos conocidos de carbono y cloro: el hexacloroetano (C2C16) y tetracloroetano (C2C4), que llevó a cabo a principios de los años veinte.

Asimismo descubrió el benceno en el gas de alumbrado, y consiguió licuar el cloro y o gases, como el amoniaco y los anhídridos carbónico y sulfuroso.

A partir de 1821 Faraday se consagró al estudio de la electricidad y del magnetismo, campos donde iba a conseguir sus más grandes logros.

Las investigaciones realizadas por Faraday le llevaron a proponer una t ría unificada, según la cual todas las fuerzas de la naturaleza —luz, electricidad magnetismo— se reducen a una sola.

Con el tiempo, sus descubrimientos llegarían a tener consecuencias muy importantes, pues facilitaron el desarrollo de la técnica actual de producción y distribución de energía eléctrica, revolucionaron la electroquímica y abrieron paso a la teoría electromagnética J. C. Maxwell.

Nombrado profesor de la Royal lnstitution en 1827, entre 1829 y 1930 compaginó el cargo con el de profesor en la academia militar de Woolwich Miembro de la Royal Society de Londres y de las Academias de Ciencias de París, a pesar de todos sus éxitos y de su reconocimiento público, Faraday se negó a recibir ciertos honores —rechazó, por ejemplo, el título de Sir que le ofreció la reina Victoria.

En 1903 se fundó en su honor la Faraday Society.

Equipo Químico de Faraday

Equipo Químico de Faraday

►Leyes de Faraday sobre la Electrólisis

Fueron enunciadas por él en 1834, a partir de una serie de estudios experimentales sobre el fenómeno de la descomposición de sustancias químicas por la acción de una corriente eléctrica, fenómeno al cual denominó electrólisis.

Las dos leyes fundamentales de la electroquímica formuladas por Faraday fueron las siguientes:

— La cantidad de sustancia depositada al paso de una corriente eléctrica es proporcional a la cantidad de electricidad que pasa por la disolución.

— Para una cantidad de electricidad determinada, la cantidad de sustancia depositada es proporcional a su equivalente-gramo.

Las leyes de Faraday han permitido calcular la carga elemental de electricidad, es decir la carga del electrón, mediante la utilización del número de Avogadro (N = 6,06 x 10). Este número representa los iones positivos o negativos que se han formado en cada átomo-gramo de una sustancia ionizada.

Faraday introdujo también los términos de ánodo y cátodo, para designar respectivamente los electrodos positivo y negativo.

►El descubrimiento de la corriente electromagnética- Corriente inducida

Gracias a los trabajos de Ampére y Oersted, Faraday conocía que una corriente eléctrica generaba campos magnéticos.

Faraday Michael

En 1831 intentó reproducir este proceso, pero en sentido inverso, es decir, produciendo una corriente eléctrica a de efectos electromagnéticos.

La existencia de las corrientes inducidas fue descubierta por Faraday a partir de la realización de distintos experimentos.

En primer lugar, consiguió hacer una corriente eléctrica por un alambre unido a un galvanómetro, al producir un movimiento, relativo entre el alambre y un imán. Observó que, al interrumpir el movimiento, el paso de la corriente también cesaba, y en el galvanómetro rió registraba corriente alguna.

La corriente es generada por una fuerza electromotriz inducida, es decir por el imán.

Posteriormente, utilizando los resultados de sus anteriores estudios, Faraday descubrió el principio del motor eléctrico, al hacer girar un imán situado sobre pivote alrededor de una bobina de alambre de cobre; como en el caso anterior a través de este procedimiento se generaba una corriente eléctrica.

La inducción electromagnética se basa fundamentalmente en que cualquier variación de flujo magnético que atraviesa un circuito cerrado genera una corriente inducida, y en que la corriente inducida sólo permanece mientras se produce el cambio de flujo magnético.

►El descubrimiento de la primera dinamo

Fue llevado a cabo a partir de dos imanes de barra que generaban un campo magnético, y entre los cuales hizo girar un disco de cobre colocado sobre un eje. De esta manera obtuvo un flujo continuo de corriente eléctrica inducida.

Este experimento le condujo a introducir el concepto de líneas de fuerza eléctricas y magnéticas, y un concepto nuevo del espacio como medio capaz de mantener dichas fuerzas.

Ideó la denominada jaula de Faraday, recinto de paredes conductoras continuas o en malla, conectadas a tierra, que aíslan el interior de los efectos de los campos eléctricos exteriores, y viceversa.

Este dispositivo se utiliza para proteger espacios que contienen materias inflamables, conducciones de alta tensión y circuitos electrónicos entre los que puedan producirse acoplamientos indebidos.

► Corriente alterna

Faraday logró crear una corriente eléctrica inducida mediante la fabricación de un transformador compuesto por un núcleo de hierro con forma de anillo, en el cual estaban enrolladas dos bobinas de alambre separadas entre sí.

La corriente alterna que circula por una bobina produce en el anillo de hierro un flujo alterno que genera en la otra bobina una corriente eléctrica inducida.

►El efecto Faraday

Faraday llevó a cabo este descubrimiento en 1845. Consiste en la desviación del plano de polarización de la luz como resultado de un campo magnético, al atravesar un material transparente como el vidrio. Se trataba del primer caso conocido de interacción entre el magnetismo y la luz.

►La Electrólisis

La electrólisis es la descomposición que sufren algunos compuestos químicos cuando a través de ellos pasa corriente eléctrica. Tal vez el experimento de laboratorio más sencillo para ilustrar el efecto sea la electrólisis del agua (un compuesto de hidrógeno y oxígeno).

Haciendo pasar una corriente continua a través de agua acidulada (agua a la que se le han agregado algunas gotas de ácido, para que conduzca la corriente eléctrica) en los electrodos (los contactos eléctricos) se forman burbujas de oxígeno e hidrógeno.

La electrólisis posee hoy muchas aplicaciones prácticas, como ser, toda la galvanoplastia, la extracción y purificación de algunos metales, como el aluminio, el cobre el níquel, etc.

Las leyes que enunció Faraday fueron las siguientes:

1), el peso de una sustancia depositada es proporcional a la intensidad de la corriente (o sea, al número de electrones por segundo) y al tiempo que esta circula;

2) , el peso de una sustancia depositada durante la electrólisis es proporcional al peso equivalente de la sustancia. La primera parte no es difícil de comprender. Una corriente de mucha intensidad que circule a través del electrólito durante mucho tiempo depositará más sustancia que una corriente débil que actúe durante un tiempo corto.

La segunda parte dice que cuando la misma corriente circula durante el mismo tiempo, las cantidades de sustancia depositadas dependerán de su peso equivalente.

El peso equivalente de una sustancia es el número de unidades de peso de una sustancia que se combinarán con una unidad de peso de hidrógeno.

En una molécula de agua, dos moléculas de hidrógeno, cada una de las cuales pesa una unidad, se combinan con un átomo de oxígeno, que pesa dieciséis unidades.

De modo que si dos unidades de hidrógeno se combinan con dieciséis unidades de oxígeno, una unidad de hidrógeno se combinará con ocho unidades de oxígeno.

El peso equivalente del oxígeno es, entonces, ocho, de manera que durante la electrólisis del agua se libera, en peso, ocho veces más oxígeno que hidrógeno.

Cuanto mayor sea el peso equivalente de un elemento, tanto mayor será el peso de él, que se depositará durante la electrólisis.

ALGO MAS….EL ÁTOMO Y LA ELECTROQUÍMICA

En 1813, Michael Faraday, que contaba entonces 22 años y era aprendiz de encuadernación, obtuvo un empleo ce ayudante del laboratorio que dirigía H. Davy en la Royal Institution.

Al cabo de unos pocos años, Faraday impuso su talento científico, al llevar a cabo una serie de investigaciones que iban a constituir la base, de la electroquímica y del electromagnetismo.

Faraday estudió intensivamente la electrólisis de sales, ácidos y bases. Fue él quien propuso la nomenclatura utilizada hoy universalmente: electrodo, electrólisis, electrólito, ión, catión, etc.

Faraday estudió cuantitativamente la relación entre la cantidad de sustancias depositada en los electrodos y la magnitud de la corriente que se hacía pasar. Dejemos que él nos lo explique en sus propios términos: «Los equivalentes electroquímicos coinciden y son, en definitiva, lo mismo que los equivalentes químicos ya conocidos.

Estoy convencido de que no me engaña a mí mismo cuando concedo a la electroquímica tanta importancia. Más que ningún otro hecho anterior, nos sugiere muy directamente la bonita idea de que la afinidad química es una simple consecuencia de atracciones de tipo eléctrico entre las diversas partes de la materia

En caso de duda, los equivalentes electroquímicos podrán ser utilizados para deducir el verdadero equivalente químico, o magnitud proporcional, es decir, el peso atómico de un cuerpo.

No dudo de que, si asignamos al hidrógeno un peso atómico de 1, y despreciamos fracciones más pequeñas para simplificar, el peso atómico del oxígeno es 8, el del-cloro 37, el del estaño 59, etc.

No olvidemos que cuando Faraday expuso estas ideas, los trabajos de Avogadro no eran aún considerados tanto como merecían, y se suponía que una sustancia se descomponía simplemente en dos iones, uno positivo y otro negativo.

Dado que, mediante la electrólisis, se obtenían 8 gramos de oxígeno por cada uno de hidrógeno, Faraday concluyó que la fórmula del agua era HO y que el peso atómico del oxígeno era 8.

Aparte de este error que Avogrado resolvió posteriormente, las experiencias de Faraday fueron sumamente valiosas, puesto que contribuyeron a esclarecer definitivamente el concepto de peso atómico y, junto con ello, a sugerir una cuantización de la electricidad, que se cristalizó luego en el establecimiento del electrón como unidad eléctrica fundamental.

OTRAS OBRAS  DE  FARADAY

A él se debe la introducción de muchos términos técnicos relacionados con la electrólisis. Electrólito es el líquido a través del cual pasa la corriente. Ánodo y cátodo son los nombres de los electrodos positivo y negativo respectivamente. Estos términos fueron inventados para Faraday por su amigo Guillermo Whewell.

Otros fueron, además, los trabajos realizados y llevados a buen término por este notable hombre ele ciencia, inglés. Sus investigaciones sobre corrientes inducidas constituyen el fundamento de las máquinas eléctricas; sus otros descubrimientos en el campo de la electricidad y magnetismo son también de gran importancia.

Dado lo tesonero de sus investigaciones, Faraday descubrió la inducción electromagnética; para ello enroscó un solenoide en un tubo de hierro en forma de U, hizo pasar luego una corriente y en otro solenoide arrollado en la otra rama de la U apareció entonces una corriente inducida. Además creó el primer generador de electricidad (alternada); esto lo consiguió moviendo un conductor entre los polos de un imán.

Otro de sus descubrimientos fue que el electroimán desviaba el plano de vibración de la luz. La importancia de esto radica en que tendía a probar que ésta es de naturaleza electromagnética. Dicha teoría fue después ampliamente demostrada por el genial Maxwell.

Ver: Entrevista a Michael Faraday

Fuente Consultada:
TECNIRAMA Enciclopedia del la Ciencia y la Tecnología (CODEX) Fasc. N°19 – Biografia de Michael Faraday –

Entrada en Historia Y Biografias: Biografia de Michael Faraday