Movimiento de los Satélites

Disputa Newton y Hooke Las Orbitas Elípticas de los Planetas

HISTORIA DE LA PUBLICACIÓN DE LOS “PRINCIPIAS” – CONFLICTO NEWTON-HOOKE

ANTECEDENTES DE LA ÉPOCA. El incipiente desarrollo científico que se inició en el siglo XVII,  comenzó cuestionando el primitivo y anacrónico aristotelismo (Conjunto de las doctrinas del filósofo griego Aristóteles que explicaban los fenómenos naturales ), como teoría sintetizadora general que da cuenta del conjunto del cosmos, es decir,  fue vulnerado seriamente por los nuevos descubrimientos científicos, pero éstos no bastaron, hasta Newton, para dar ocasión a una teoría que ordenara y diera sentido a la acumulación de descubrimientos parciales. Ello explica que en los más altos científicos de la época, las nociones matemáticas y astronómicas de la mayor exactitud se dieran junto a ideas místicas y religiosas tradicionales, tal como en el caso de Kepler.

En el campo de la astronomía se continuó la labor de Copérnico, especialmente por obra de Kepler, y los perfeccionamientos del telescopio que llevó a cabo Galileo permitieron comprender mejor la estructura del sistema solar.

La. investigación de la realidad física ensayó con éxito una metodología y una conceptuación nuevas cuando Galileo formuló las leyes del movimiento de los cuerpos, en 1638. El descubrimiento de la circulación de la sangre por William Harvey (1578-1657), significó un extraordinario avance para la fisiología.

En la segunda mitad del siglo, el mundo científico, tal como aconteciera con el mundo filosófico, estaba dominado por la polémica en torno del cartesianismo. La explicación dada por Harvey a los movimientos del corazón se impuso a la observación empírica, pese a la oposición de Descartes. Leibniz refutó las ideas cartesianas acerca del movimiento, y Pascal estableció la teoría de la probabilidad de las hipótesis.

Pero la culminación científica del siglo XVII fue la obra de Isaac Newton (1642-1727), quien había de resumir en sí y superar todas las tendencias intelectuales de la época. Descubrió el cálculo infinitesimal y formuló la ley de la gravitación universal, que pasó a ser la nueva concepción totalizadora del universo y desplazó definitivamente al aristotelismo.

Newton y Hooke

Robert Hooke (1635-1703), científico inglés, conocido por su estudio de la elasticidad. Hooke aportó también otros conocimientos en varios campos de la ciencia.Nació en la isla de Wight y estudió en la Universidad de Oxford. Fue ayudante del físico británico Robert Boyle, a quien ayudó en la construcción de la bomba de aire. En 1662 fue nombrado director de experimentación en la Real Sociedad de Londres, cargo que desempeñó hasta su muerte. Fue elegido miembro de la Real Sociedad en 1663 y recibió la cátedra Gresham de geometría en la Universidad de Oxford en 1665.

LA HISTORIA Y DESCRIPCIÓN DE LOS “PRINCIPIA”: Hacia 1680 el problema del sistema planetario, en el sentido de dar una explicación racional a las leyes, que Kepler había dado empíricamente, estaba, por así decir, en el aire entre los astrónomos ingleses. Se sabía, en virtud de las leyes de la fuerza centrífuga, que en un movimiento circular uniforme de un punto, que obedeciera a la tercera ley de Kepler, la fuerza era inversamente proporcional al cuadrado del radio.

¿Sería válida esta ley en el movimiento de los planetas, cuya órbita no era circular sino elíptica, y los cuerpos en cuestión no siempre podían asimilarse a puntos? Es a esta pregunta que Newton contesta afirmativamente en su célebre libro, en latín, Principios matemáticos de la filosofía natural (es decir de la física), conocido, abreviadamente como los Principia.

La obra se compone de tres libros, el Libro I de los cuales expone los fundamentos de la mecánica a la manera euclideana con definiciones, axiomas, teoremas y corolarios, introduciendo en los sistemas, además de la ley de inercia, el concepto de masa y el principio de acción y reacción. Este libro se ocupa del movimiento en el vacío, comprobándose las leyes de Kepler en el caso de un movimiento central en el cual la fuerza que actúa sobre el punto móvil es inversámente proporcional al cuadrado de ia distancia al centro fijo, foco de la órbita elíptica del móvil.

El Libro II se ocupa, en cambio, del movimiento en un medio resistente, y entre las distintas cuestiones que trata aparece la primera fórmula teórica que expresa la velocidad del  sonido.

Los dos primeros libros sientan los principios matemáticos, es decir teóricos, de la ciencia del movimiento; el Libro III estudiará el movimiento “filosóficamente”, es decir físicamente, tomando como ejemplo el “sistema del mundo”. Antepone para ello las “Reglas del razonamiento en filosofía”, es decir las normas que desde entonces constituyen las bases del método científico en la investigación de los fenómenos naturales; pasando luego al enunciado del grupo de fenómenos celestes que debe explicar, demostrando que la ley: “Dos cuerpos gravitan mutuamente en proporción directa de sus masas y en proporción inversa del cuadrado de sus distancias”, es de validez universal, dando así por primera vez una demostración matemática que elimina la milenaria distinción entre el mundo celeste y el mundo sublunar.

A continuación comprueba las leyes de Kepler y de la caída libre, demuestra el achatamiento de la Tierra, explica por vez primera las mareas y la precisión de los equinoccios, incluye los cometas en el sistema planetario…

En las ediciones sucesivas de los Principia que Newton publicó en vida, introdujo modificaciones y agregados entre los cuales el célebre “Escolio general”, en el cual el científico da paso al metafísico o, mejor, al creyente, expresando que “Este muy hermoso sistema del Sol, los planetas y cometas sólo puede proceder del consejo y dominio de un Ser inteligente y poderoso… discurrir de Él a partir de las apariencias de las cosas, eso pertenece, sin duda, a la filosofía natural”.

EL ORIGEN DEL CONFLICTO: LA LEY DE LA INVERSA DEL CUADRADO
EL ODIO ENTRE NEWTON Y HOOKE

A principios del siglo XVIII, el matemático y astrónomo alemán Johannes Kepplee había propuesto tres leyes del movimiento planetario, que describían con precisión como se mueven los planetas respecto al Sol, pero no conseguía explicar por qué los planetas  se movían como se movían, es decir en órbitas elípticas.

orbita elpitica de un planeta

1° Ley de Kepler: Los planetas recorren órbitas elípticas y el Sol ocupa uno de sus focos

Newton se propuso descubrir la causa de que las órbitas de los planetas fueran elípticas. Aplicando su propia ley de la fuerza centrífuga a la tercera ley de Kepler del movimiento planetario (la ley de las armonías) dedujo la ley del inverso de los cuadrados, que  establece que la fuerza de la gravedad entre dos objetos cualesquiera es inversamente proporcional al cuadrado de la distancia entre los centros de los objetos. Newton reconocía así que la gravitación es universal que una sola fuerza, la misma fuerza, hace que  una manzana caiga al suelo y que la Luna gire alrededor de la Tierra. Entonces se propuso contrastar la relación del inverso de los cuadrados con los datos conocidos.

Aceptó la estimación de Galileo de que la Luna dista de la Tierra unos sesenta radios terrestres,  pero la imprecisión de su propia estimación del diámetro de la Tierra le impidió completar esta prueba satisfactoriamente. Irónicamente, fue un intercambio epistolar en 1679  con su antiguo adversario Hooke lo que renovó su interés en este problema. Esta vez dedicó su atención a la segunda ley de Kepler, la ley de la igualdad de las áreas, Newton pudo demostrar a partir de la fuerza centrífuga.

Hooke, sin embargo, desde 1674 estaba intentando explicar las órbitas planetarias, y había logrado dar con el problema del movimiento orbital. En un tratado que se publicó aquel mismo año, descartó la idea de un equilibrio entre las fuerzas que empujaban hacia dentro las que empujaban hacia afuera para mantener a un objeto como la Luna en su órbita. Constató que el movimiento orbital resultaba de suma: por una parte, la tendencia de la Luna a moverse en línea recta y, por otra, una fuerza «única» que la atraía hacia la Tierra.

Mientras tanto el propio Newton, Huygens y todos los demás seguían hablando de «una tendencia a alejarse del centro», y Newton había llegado al extremo de aceptar vórtices cartesianos (una vieja teoría de Descartes) como responsables de empujar a los objetos para que volvieran a situarse en sus órbitas, a pesar de su tendencia desplazarse hacia el exterior.

También se sabe que  algunas de las cartas enviadas a Newton sobre este tema resultaron de particular interés para el científico, pues había despertado una gran idea para aplicar como teoría en sus investigaciones.  En una de sus cartas Hooke escribió a Newton para pedirle su opinión sobre estas teorías (que ya se habían publicado). Le habló de la ley del cuadrado inverso, que Newton ya tenía, de la acción a distancia, y de la idea a la que había llegado: no había fuerza centrífuga ninguna, sino solamente una fuerza centrípeta que apartaba a los planetas de una trayectoria rectilínea y la curvaba mediante la gravedad.

En el gran libro sobre la historia del pensmaiento científico, de Moledo y Olszevicki, conocido como:”Historia de las ideas científicas”, nos relata al respecto:

“Probablemente fue esta carta la que liberó a Newton del asunto de la fuerza centrífuga (que es una fuerza artificial, simplemente la reacción a la fuerza centrípeta —esta última sí real—) y lo estimuló para demostrar, en 1680, que una ley de la gravedad con cuadrados inversos a las distancias exige que los planetas se muevan recorriendo órbitas elípticae implica que los cometas deben seguir trayectorias elípticas o parabólicas alrededor del Sol. Ésta es la razón por la que ya tenía la respuesta preparada cuando, en 1684, Halley se apareció en la puerta de su casa.

Porque fue así: aprovechando un viaje, Halley, en agosto de 1684. visitó a Newton en Cambridge, donde debatieron sobre las órbitas de los planetas y la ley del cuadrado inverso. Según contó Newton después, cuando llevaban cierto tiempo reunidos, Halley le preguntó qué tipo de curva creía él que describirían los planetas, suponiendo que la fuerza de atracción hacia el Sol fuera inversa al cuadrado de las distancias respectivas de los planetas a dicho astro.

Newton dijo inmediatamente «una elipse», ante lo cual Halley le preguntó cómo lo sabía. «Porque la he calculado», respondió Newton de inmediato. Tras esto, Halley le pidió que le dejara ver los cálculos, pero Newton buscó entre sus papeles y no pudo encontrarlos. Se comprometió entonces a volver a hacerlos v a enviárselos apenas los tuviera listos.

Ese encuentro entre Halley y Newton y los cálculos que nunca encontro se convertirían en el puntapié inicial para que nuestro protagonis:: se pusiera a escribir los Principia.”

A petición de Halley, Newton pasó tres meses rehaciendo y mejorando la demostración. Entonces, en una explosión de energía sostenida durante dieciocho meses, durante los cuales se absorbía tanto en su trabajo que a menudo se olvidaba de comer, fue desarrollando estas ideas hasta que su presentación llenó tres volúmenes. Newton decidió titular su obra Philosophiae Naturalis Principia Mathemañca, en deliberado contraste con los Principia Philosophiae de Descartes.

Ya en 1684 Newton publicó un trabajo en el que explicaba la ley de cuadrado inverso, pero recién en 1687 vio la luz su gran obra épica.

Los tres libros de los Principia de Newton proporcionaron el nexo entre las leyes de Kepler y el mundo físico. Halley reaccionó con «estupefacción y entusiasmo» ante los descubrimientos de Newton. Para Halley, el profesor Lucasiano había triunfado donde todos los demás habían fracasado, y financió personalmente la publicación de la voluminosa obra como una obra maestra y un regalo a la humanidad.

“Los Principia fueron celebrados con moderación al ser publicados, en 1687, la primera edición sólo constó de unos quinientos ejemplares. Sin embargo, la némesis de  Newton, Robert Hooke, había amenazado con aguar la fiesta que Newton hubiera podido disfrutar.

Cuando apareció el libro segundo, Hooke afirmó públicamente que las cartas que había escrito en 1679 habían proporcionado las ideas científicas vitales para los descubrimientos de Newton. Sus pretensiones, aunque dignas de atención, parecieron abominables a Newton, que juró retrasar o incluso abandonar la publicación del tercero. Al final, cedió y publicó el último libro de los Principia, no sin antes eliminar cuidadosamente cualquier mención al nombre de Hooke.

El odio que Newton sentía por Hooke le consumió durante años. En 1693 todavía  sufrió otra crisis nerviosa y abandonó la investigación. Dejó de asistir a la Royal Society hasta la muerte de Hooke en 1703, y entonces fue elegido presidente y reelegido cacada año hasta su propia muerte en 1727.”

Fuente: “A Hombres de Gigantes”

Fuente Consultadas:
El Saber de la Historia de José Babini Edit. Biblioteca Fundamental del Hombre Moderno
Grandes Figuras de la Humanidad Edit. Cadyc Enciclopedia Temática Familiar
A Hombres de Gigantes Edit. CRÍTICA
Historia de las Ideas Científicas Leonardo Moledo y Nicolás Olszevicki Edit. PLANETA

Trabajo Enviado Por Colaboradores del Sitio

Cuadro sinoptico del Universo, Sistema Solar, Planetas y Galaxias

SINTESIS EN UN CUADRO SOBRE EL SISTEMA SOLAR

Nuestro sistema solar que está contenido en la galaxia llamada Vía Láctea, está conformado por el Sol y ocho planetas que gravitan a su alrededor. Los planetas siguen órbitas que, casi en su totalidad, están situadas en el mismo plano; y todos se desplazan en torno al Sol en el mismo sentido.

El tiempo que tardan en dar una vuelta constituye el año de cada planeta: Mercurio, el más cercano, demora tres meses terrestres. Además de los planetas, entre Marte y Júpiter circulan cuerpos pequeños, bloques de rocas cuyo diámetro no suele pasar los pocos kilómetros. Se cree que estos asteroides son los restos de un planeta que, o bien se fragmentó, o no llegó a formarse jamás.

Ampliar Sobre la Evolución del Universo

cuadro sinoptico universo

Diferentes clases de astros
Los astros se pueden dividir en cuatro tipos: a) ios que poseen luz propia, como el Sol, las estrellas, las nebulosas de emisión y algunos cometas: b) los que brillan con luz reflejada, como la Luna, los planetas, satélites, asteroides, ciertos cometas y ciertas nebulosas: c) los que no emiten luz alguna, como las nebulosas obscuras, cuya existencia se conoce en virtud de que impiden pasar la luz de los astros situados detrás de ellas; y d) las estrellas fugaces y bólidos, que lucen porque al entrar velozmente en nuestra atmósfera se tornan incandescentes al rozar con los gases de ésta.

Los movimientos aparentes de los astros difieren según los casos.

Las estrellas, los conglomerados, las nebulosas y las galaxias, describen un círculo completo alrededor de la Tierra en 24 ñoras menos cuatro minutos.

Los planetas tienen un movimiento aparente complejo. Se clasifican eñ interiores o exteriores según sea que su órbita esté, respectivamente, dentro o fuera de la que sigue la Tierra. Los planetas interiores, Mercurio y Venus, siguen una ruta cercana al astro mayor y sólo son visibles antes de orto o salida de éste, y después de su ocaso o puesta. Vistos a través del telescopio los planetas interiores presentan fases porque,estando sus órbitas dentro de la terrestre, su disco se ve más o menos iluminado por el Sol. Cuando se hallan a la mayor distancia aparente del Sol -máxima elongación- tienen la mitad del disco iluminado.

La elongación puede ser oriental u occidental, de acuerdo a cómo están situados respecto del Sol. Los planetas exteriores se ven de noche y, por lo común, viajan aparentemente de O a E a través de las estrellas, pero, según los movimientos combinados de cada planeta y la Tierra, hay un momento en que parece que se detienen: están esfa-cionarios; acto seguido cambian de rumbo y se dirigen de E a O, hasta llegar a otro punto donde permanecen de nuevo estacionarios, para continuar posteriormente con su marcha normal. Entre dos posiciones estacionarias llegan a la oposición, en que se sitúan en la línea Sol, Tierra y planeta. Si la disposición es planeta, Sol y Tierra, se dice que el planeta está en conjunción (con el Sol interpuesto). Los planetas se mueven dentro del Zodíaco, que es una faja de 8o de anchura a cada lado de la eclíptica.

Biografía de TESLA Nikola Resumida Historia de Vida del Inventor

Resumen de la Biografía e Historia de TESLA NIKOLA

VIDA DEL INVENTOR – CIENTÍFICO: Nikola Tesla (1856-1943) En la pequeña ciudad de Smiljan en la provincia servia de Lika, llamada entonces Croacia (Yugoslavia), tuvo lugar un hecho aparentemente sin importancia —la muerte de un caniche francés—, pero éste fue un hecho que desencadenaría una serie de acontecimientos relacionados con el futuro del Mundo.

Nikola Tesla tenía cinco años de edad cuando encontró el pequeño caniche negro de su hermano Dane muerto bajo un matorral al lado de la carretera. Su hermano acusó a Nikki de la muerte del perro. Poco después encontraron a Dane inconsciente al pie de la escalera de piedra del sótano.

Dane murió a consecuencia de sus heridas, y hasta el fin de sus días Nikki Tesla creyó que sus padres le consideraban causante del empujón que hizo caer a su hermano. Al cabo de poco tiempo, Nikki oyó que su madre, cansada de batir huevos, se quejaba de dolor de muñeca. Deseoso de congraciarse, Nikki se puso inmediatamente en acción con la idea de aprovechar la fuerza de un cercano riachuelo de montaña para hacer girar el batidor. «Voy a capturar la fuerza del agua» anunció Nikki confidencialmente.

Cuando su padre dijo inadvertidamente que Dane era diferente de Nikki, porque «Dane era un genio», Nikki se propuso demostrar que él también lo era. Decidió en aquel momento que inventaría algo que asombraría al mundo. Nikki emprendió experimentos para aprovechar la fuerza del agua, pero a los nueve años abandonó de momento su trabajo para dedicarse al estudio de la fuerza del viento.

Deseaba desesperadamente inventar algo que impresionara a los mayores, especialmente a sus padres. Cuando tenía 10 años, Nikki ingresó en el Gimnasio real de Gospic, una institución con cursos de cuatro años equivalente a la escuela secundaria. Le gustaban especialmente las matemáticas y cuando demostró por primera vez sus dotes en la utilización de fórmulas y la solución de ecuaciones, incluso sus profesores se asombraron.

Fue acusado de «copiar» y tuvo que pasar un «juicio» escolar ante sus padres y profesores. A pesar de la atmósfera de desconfianza y hostilidad pasó el examen fácilmente, pero con una sensación de desgracia y confusión. La infancia de Tesla estuvo llena de ideas excéntricas y experimentos con aparatos; continuó su formación en el Instituto politécnico de Graz, donde se especializó en física y matemáticas. Finalizó sus estudios en la Universidad de Praga, en 1880. Un año después, inventó un amplificador para teléfono que ampliaba el sonido de la voz reduciendo al mismo tiempo los ruidos molestos, es decir, la estática.

El aparato completo, su primer invento, que no patentó nunca, fue llamado «repetidor telefónico». Hoy en día lo llamaríais altavoz. En un año, Tesla empezó a desarrollar la teoría de la corriente alterna. Tesla explicó a su ayudante: “Voy a producir un campo de fuerza que gire a gran velocidad. Rodeará y abrazará una armadura que no precisará conexiones eléctricas. El campo rotatorio transferirá su energía, sin cables, a través del espacio dando energía a través de sus líneas de fuerza a las bobinas cortocircuitadas de la armadura que formará su propio campo magnético siguiendo el remolino magnético rotatorio producido por las bobinas del campo. No habrá necesidad de cables, ni de conexiones defectuosas, ni de conmutador”.

Tesla fue a Budapest y luego a París para encontrar un patrocinador de su sistema de energía de corriente alterna. Trabajó una temporada con la compañía Continental Edison, de París. Le aconsejaron que buscara un empleo en la Compañía Edison de Nueva York, y Tesla, cuatro años después de haber obtenido su título en la Universidad de Praga, partió de París para América.

Tesla dijo a Thomas Edison que había perfeccionado —por lo menos en teoría— un sistema de energía de corriente alterna. Edison trató con desdén las ideas de Tesla y le dijo que «jugar con corrientes alternas era perder el tiempo. Nadie va a utilizarlas jamás, es demasiado peligroso. Un cable de corriente alterna a alto voltaje puede matar a una persona con la misma rapidez que un rayo. La corriente continua es segura». Pero Edison contrató a Tesla y el joven europeo hizo exactamente lo mismo que hacía en la Continental Edison de París: presentó un plan que permitiría ahorrar muchos miles de dólares, tanto en la construcción como en el uso de las dínamos y motores de Edison. Trabajaba desde las diez de la mañana hasta las cinco de la mañana siguiente, siete días a la semana. Pero Tesla dejó pronto a Edison y tras uno cuantos empleos misceláneos, encontró a gente dispuesta a invertir en su persona; de este modo se formó la Compañía eléctrica Tesla La labor de Tesla para desarrollar la corriente alterna en sus aplicaciones prácticas empezó en serio, y logró su objetivo.

Todos los elementos complicados y de difícil ejecución de la Feria mundial de Chicago de 1893, iban alimentados con la corriente alterna de los motores y dínamos Westinghouse, inventados por Tesla. Sus equipos se utilizaron después en las instalaciones generadoras de las cataratas  del Niágara. Tesla, instalado ahora en un laboratorio de Nueva York, dedicó todo su tiempo a investigar. El gran científico fue haciéndose más paranoico con la edad, una evolución que podía seguirse desde los traumas de su infancia.

Al informársele, en 1917, que seria invitado de honor en una cena ofrecida por el Instituto americano de Ingenieros eléctricos, donde recibiría la medalla Edison del Mérito, Tesla rechazó la invitación diciendo: «Cada vez que el Instituto concede una medalla Edison, la gloria va más a Edison que al homenajeado. Si tuviese dinero para gastar para estas tonterías, me lo gastaría gustosamente para que se concediera una medalla Tesla al señor Edison».

Le convencieron para que aceptara el honor, pero no se presentó en la cena. Sus amigos lo encontraron dando de comer a las palomas detrás de la Biblioteca pública de Nueva York. Tesla pasó los últimos años de su vida como un egoísta solitario e incomunicativo, absorbido en pensamientos y sentimientos que le separaban tanto del mundo como de las demás personas. No quería dar la mano por miedo a los microbios de los demás; las superficies redondas como las bolas de billar o los collares de perlas le asustaban; siguió teniendo celos de Edison y sólo quería a las palomas, que alimentaba diariamente.

Su gran talento se esfumaba intentando inventar rayos de la muerte y aparatos para fotografiar pensamientos en la retina del ojo. Tesla falleció en 1943 de un ataque al corazón. Las instituciones científicas del mundo conmemoraron el centenario de su nacimiento en 1956. Como un tributo final se dio el nombre de tesla a la unidad electromagnética de densidad de flujo en el sistema MKS.

RESUMEN DE SU VIDA:

Musica en el Voyager Violin Stradivarius Gaitas Escocesas Violines

LOS SONIDOS DEL PLANETA TIERRA:

¿CÓMO HACER comprender a un habitante de un planeta lejano lo que son y cómo viven los seres humanos en la Tierra? Ésta fue la pregunta que se  planteó a un comité de expertos en 1977, cuando las naves espaciales de EUA Voyager 1 y 2 iban a ser lanzadas en un viaje al espacio con un saludo para cualquier forma de vida inteligente con que se toparan.

Para sorpresa de muchos, los expertos coincidieron en que uno de los mejores modos de comunicarse con extraterrestres sería no con palabras o imágenes, sino con música. Dedicaron los 87 minutos del videodisco de los Voyager a una selección de los “grandes éxitos musicales de la Tierra”. ¿Por qué la música?.

Disco de oro The Sounds of Earth (arriba), protegido por un estuche de aluminio con chapa de oro, es instalado en el Voyager 2. Con éste se envió al espacio exterior, donde los científicos esperan que lo reciba alguna forma de vida inteligente no humana.

En primer lugar,  porque su estructura —desde un blues de ocho compases hasta una compleja fuga de Bach— se basa en números, y la armonía es de fácil análisis matemático. Las matemáticas son el lenguaje más universal, por lo que era más probable que los extraterrestres comprendieran la estructura matemática de nuestra música más que cualquier otra cosa sobre nosotros.

Además, expresa los sentimientos humanos mejor que otros medios y podría representar la variedad de culturas. No ha habido sociedades sin su música típica para expresar tristeza y dolor, alegría y tranquilidad. Al seleccionar la música que representaría a la humanidad en el universo, la clave fue la variedad.  Se eligieron canciones aborígenes de Australia, el Night Chant de los navajos y una canción de boda peruana; música de gamelán de Java, de zampoñas de las islas Salomón y de Perú, un raga de la India y música ch’in de China; piezas para gaitas de Azerbaiyán, flautas de bambú de Japón y percusiones del Senegal. También se incluyeron canciones de Georgia, Zaire, México, Nueva Guinea y Bulgaria; el blues Dark Was the Night con Blind Willie Johnson, Melancholy Blues con el trompetista de jazz Louis Armstrong y Johnny B. Goode con el cantante de rock Chuck Berry. De la tradición culta occidental se seleccionó música para flauta renacentista, tres obras de Bach y dos de Beethoven, un aria de La flauta mágica de Mozart y La consagración de la primavera de Stravinsky.

¿Son éstos los éxitos musicales de la Tierra? Al menos son hoy los que más podrían persistir. El videodisco, de cobre con chapa de oro, fue fabricado para que dure 1.000 millones de años.

INSTRUMENTOS DE GUERRA:

EL SONIDO estridente de las gaitas ha acompañado a los escoceses de laS Tierras Altas en las batallas cuandc menos durante los últimos 400 años, dando nuevos ánimos a los ardientes guerreros de las montañas y provocando miedo en el corazón de sus enemigos. Según registros, en la Batalla de Pinkie (1549), “los violentos escoceses se incitaban a la guerra con el sonido de las gaitas”. Y éstas se escucharon también en 1942, cuando tropas de las Tierras Altas escocesas avanzaron por campos minados del desierto contra el Afrika Korps de Rommel, en la batalla de El Alamein.

Desde Suecia hasta Túnez

Las gaitas simbolizan a Escocia tanto como el haggis y el whisky. Pero los escoceses no pretenden ser los inventores de la gaita. Es casi seguro que haya surgido en el Imperio Romano durante el siglo 1. Se cree que el emperador Nerón la tocaba, y es más probable que estuviera practicando este instrumento, no el violín, mientras Roma ardía.

Hacia 1300, gaitas de un tipo u otro zumbaban y chillaban desde Inglaterra hasta la India, y de Suecia a Túnez casi en cualquier parte, menos en Escocia. Fue un siglo después, cuando ya el resto del mundo había empezado a cansarse del instrumento, que los escoceses lo adoptaron.

Llamado a la gloria En 1915, el gaitero Laídlaw (foto izquierda) incitó a las tropas británicas para que continuaran el avance a través de una nube de gas mostaza en el frente occidental. Su valentía lo hizo merecedor de la Cruz de Victoria.

Las gaitas fueron populares en parte porque podían fabricarse con materiales que se conseguían en la sociedad rural. Sólo se requería la piel de una oveja o el estómago de una vaca para hacer el odre, y unas pocas cañas perforadas para los canutos. El principio del instrumento es ingenioso, pero sencillo. El gaitero sopla en el odre, que actúa como depósito para mantener la circulación constante de aire a los canutos. Estos son de dos tipos, caramillo y roncón. En una versión sencilla de dos canutos, el gaitero ejecuta la melodía en el caramillo, mientras el roncón produce el bajo continuo característico del sonido de la gaita. En algunas variantes, el aire para el odre proviene de un fuelle.

Las gaitas aún se emplean en la música folklórica de muchos países. Por ejemplo, acompañan las danzas tradicionales de los bretones, en el noroeste de Francia. Muchas personas relacionan con regimientos escoceses el sonido de las gaitas entremezclado con el estruendo de una batalla. Pero los escoceses no tienen exclusividad al respecto: durante siglos los irlandeses también las han usado para llamar a las armas.

EL VIOLIN STRADIVARIUS:

Los violines Stradivarius son los más preciados instrumentos musicales del mundo. Entre los cerca de 600 ejemplares que aun se conservan hay algunos valorados en más de un millón y medio de euros, es decir, más de cien veces de lo que costaría el más perfecto ejemplar artesano moderno y más de diez mil veces que los procedentes de fabricaciones industrializadas.

Un violín hecho en el siglo XVIII por Antonio Stradivarius, de Cremona, Italia, puede costar hasta un millón de dólares. Los stradivarius se cotizan a tan altos precios porque todavía se los cataloga como los violines más finos que se hayan producido.

Stradivarius fue un genio tranquilo, un artesano asentado en Cremona, donde residió toda su vida en una modesta casa taller del barrio antiguo. A crear esta aureola de misterio ha contribuido el hecho de no conocer apenas datos biográficos de su vida, a lo que hay que sumar las extrañas circunstancias en las que se perdió su cadáver.

No se sabe con certeza en que año nació ni en que ciudad exactamente, pues no queda registro del hecho. Se piensa por otras fechas posteriores que pudo nacer en torno a los años 1640-1645. Se conoce mejor su estancia en la ciudad Italiana de Cremona donde desarrolló toda su carrera como constructor de violines. En total construyó más de mil violines, de los que se conservan cerca de la mitad.

Stradivarius enseñó a sus dos hijos el arte de hacer instrumentos de cuerda y, aunque ellos no lograron alcanzar la misma calidad mágica del padre, su trabajo fue notable. Ha sido un misterio qué confiere a un stradivarius su calidad única; las conjeturas se han centrado en el barniz empleado en estos instrumentos. Stradivarius escribió su fórmula del barniz en la guarda de la Biblia familiar; mas, por desgracia, uno de sus descendientes la destruyó.

El italiano Antonius Stradivarius (1644-1737) introdujo una geometría y un diseño que se convirtieron en los modelos a seguir por todos los fabricantes de violines. De los 1.100 instrumentos que construyó, aún sobreviven unos 650. El extremadamente alto valor de estos instrumentos quedó demostrado en una subasta realizada en el mes de abril en Londres. El violín Stradivarius ‘Lady Tennant’ vendido en esa oportunidad, batió un récord en el mundo de las subastas de instrumentos musicales, con un precio astronómico de un millón y medio de euros.

Madera veneciana:

Pese a lo anterior, Joseph Nagyvary, profesor de bioquímica y biofísica en la Universidad de Agricultura y Mecánica de Texas, cree haber descubierto el secreto de Stradivarius: la madera de abeto que éste usó procedía de Venecia, donde se guardaba junto al mar. Esto producía diminutos agujeros en la madera, sólo visibles con un microscopio electrónico de 2 000 amplificaciones. La madera curada en seco de los violines modernos no tiene estos orificios. Según Nagyvary, esto confiere riqueza y resonancia especiales al sonido.

Nagyvary también descubrió, al examinar el barniz, que incluía diminutos cristales de mineral. Infirió que procedían de piedras preciosas molidas, que añadían los alquimistas al preparar el barniz en la creencia de que las piedras tenían propiedades mágicas. En un violín, estos cristales filtran los armónicos agudos y producen un sonido más puro y terso.

Nagyvary puso a prueba su teoría al fabricar un violín con madera curada en la humedad y recubierta de un barniz que contenía polvo de piedras preciosas. Un experto calificó el resultado como “el mejor violín nuevo que jamás he escuchado”. La famosa violinista Zina Schiff quedó tan impresionada que tocó el instrumento en conciertos públicos.

¿Se percataban Stradivarius u otros famosos violeros de Cremona —como los Amati y los Guarnen— de la singular calidad de los materiales que utilizaban? Al respecto, Nagyvary dice: “Sinceramente pienso que los antiguos violeros no sabían, acerca de la fabricación de violines, más de lo que saben los actuales artesanos… Solamente fueron los afortunados beneficiarios de una feliz coincidencia histórica.”

Silos violeros actuales usaran los descubrimientos de Nagyvary, ¿disminuiría el valor de un stradivarius? Es casi indudable que no, pues no parece haber nadie capaz de revivir su ingrediente mágico: su genialidad.

Fuente Consultada: Sabia ud. que….? Editorial Reader Digest

El planeta sedna, Características y datos, Distancia y medidas

OPINION CIENTIFICA –1

Sedna: el décimo planeta en el Sistema Solar

Aunque es más pequeño que Plutón, es el cuerpo más grande en órbita alrededor del Sol identificado desde el descubrimiento de Plutón, en 1930. Existe discusión entre los astrónomos si, por su pequeño tamaño, tendrá o no status de planeta…o será solamente un planetoide.

planeta sedna

Planeta Sedna, N°:10 del sistema solar

Mercurio, Venus, Tierra, Marte, Júpiter, Saturno, Urano, Neptuno, Plutón… ¡y Sedna!… Sí, porque entre los astrónomos ya se hizo oficial el descubrimiento del décimo planeta del Sistema Solar, el cuerpo celeste más lejano al Sol y de un tamaño muy similar a Plutón.

Está tan lejos del Sol que es el más frío del Sistema Solar. De hecho, su temperatura nunca sobrepasa los -240º C. Pero es el cuerpo celeste más importante y más grande en órbita alrededor del Sol identificado desde el descubrimiento de Plutón, en 1930.

¿Cómo se hizo posible la confirmación de este nuevo planeta?… El equipo encabezado por el investigador Mike Browne, del California Institute of Technology (Caltech) lo detectó por primera vez el 14 de noviembre del 2003, con la ayuda del telescopio Samuel Oschin, en el Observatorio Palomar de Caltech, cerca de San Diego, en California. Con el correr de los días, los telescopios de Chile, España, Arizona y Hawai confirmaron la existencia de Sedna. También lo hizo el nuevo telescopio infrarrojo espacial Spitzer, de la NASA.

Michael Brown dijo que era tanta la distancia de Sedna con respecto al sol, que desde el nuevo planeta se podría tapar el sol con la cabeza de un alfiler.

Más acerca de Sedna

Este nuevo planeta fue bautizado como Sedna en honor a la diosa del mar entre los pueblos inuit, habitantes esquimales del Norte de Canadá y Groenlandia, dama de las profundidades del mar y de las emociones humanas.

Según el pueblo inuit, la diosa Sedna dio origen a las criaturas marinas desde una cueva congelada que ocupa en el fondo del océano.

Sedna se encuentra aproximadamente a 12.800 millones de kilómetros de la Tierra y su tamaño parece ser tres cuartas partes el de Plutón. Es seis veces más pequeño que la Tierra.

Posee un diámetro de unos 2.000 kilómetros y una superficie recubierta de hielo y roca, y debido a su dimensión pequeña, algunos científicos expresaron sus dudas a que pueda ser considerado un planeta más. Y es que – dicen – tal vez sería más correcto hablar de un “planetoide”.

Sedna es más rojo que cualquier otro cuerpo del Sistema Solar, con la excepción de Marte, y sigue una órbita muy elíptica, que en su punto más alejado lo sitúa a unos 135.000 millones de kilómetros del Sol, una distancia equivalente a 900 veces la existente entre el Sol y nuestro planeta, por lo cual tarda 10.500 años terrestres! en completar una sola órbita.

Para tener una idea, Plutón, el noveno planeta del Sistema Solar, y hasta ahora el último, tiene un diámetro de dos mil kilómetros y se encuentra a 6 mil millones de kilómetros de la Tierra.

Los primeros cálculos sugieren que Sedna se encuentra ubicado exactamente en una región del espacio llamada Cinturón de Kuiper. Éste posee cientos de objetos conocidos y los astrónomos creen que aún existen muchos otros esperando ser encontrados.

La mayoría son pequeños mundos de roca y hielo, aunque algunos también podrían ser tanto o más grandes que Plutón. La importancia de Sedna radica específicamente en que es el primero de este tipo de mundos que mantiene una órbita regular, ya que otros objetos similares son menos estables.

¿Qué viene ahora?…Intentar determinar si Sedna posee algún grado de atmósfera. Además, los científicos usarán el Hubble para descubrir por qué posee el tono rojizo más brillante después de Marte.

OPINION CIENTIFICA -2-

Sedna no es el décimo planeta del sistema solar. Numerosos medios de comunicación han cometido varios errores a la hora de describir el último descubrimiento de la NASA.

Entre otras cosas Sedna, un planetoide descubierto por astrónomos del Instituto Tecnológico de California ( Caltech) en cooperación con la NASA, no es un planeta ni tampoco, como se ha dicho, forma parte del cinturón de Kuiper.

El mismo equipo descubrió hace unos días otro planetoide, denominado 2004DW , y este si que forma parte del cinturón de Kuiper. De hecho, por su tamaño de 1600 km de diámetro, su descubrimiento habría sido una gran noticia sino fuera porque Sedna, a pesar de ser de un tamaño similar , tiene la particularidad de ser el primer planetoide situado más allá del cinturón de Kuiper, en una zona que hasta ahora era sólo intuida por la teoría y que se conoce como Nube de Oort.

Sedna está a más del doble de distancia que los objetos más lejanos de nuestro sistema conocidos hasta ahora y tres veces más lejos que Plutón. Por eso es noticia.

En nuestro sistema conocemos el cinturón de asteroides que se encuentra entre Marte y Júpiter, y un cinturón similar llamado Cinturón de Kuiper que se encuentra más allá de Plutón. De echo muchos astrónomos consideran que Plutón no es en realidad un planeta sino uno de los objetos que forman el Cinturón de Kuiper, ya que su tamaño es relativamente pequeño, su órbita es demasiado inclinada y a diferencia de los demás planetas sigue una trayectoría que hace que en ocasiones no sea el más alejado de la Tierra. Sedna es aún más pequeño que Plutón, su órbita también es muy inclinada, y su trayectoria es tan parabólica que sólo lo hemos detectado por casualidad, ya que dentro de unos 70 años volverá a alejarse de nuevo para no regresar y ser visible en las mismas condiciones en los próximos 10,500 años.

Ningún astrónomo calificaría a Sedna como planeta, y muchos dudan que Plutón lo sea, así que difícilmente se puede afirmar que Sedna es el décimo planeta de nuestro sistema. Se trata sólo de una exageración periodística.

Algunos Datos Sobre el Sistema Solar…

– El Sistema Solar está formado por una estrella central, el Sol, los cuerpos que le acompañan y el espacio que queda entre ellos.

– El Sol contiene el 99.85% de toda la materia en el Sistema Solar. Los planetas, los cuales están condensados del mismo material del que está formado el Sol, contienen sólo el 0.135% de la masa del sistema solar.

– Júpiter contiene más de dos veces la materia de todos los otros planetas juntos. Los satélites de los planetas, cometas, asteroides, meteoroides y el medio interplanetario constituyen el restante 0.015%.

– Los planetas terrestres son los cuatro más internos en el Sistema Solar: Mercurio, Venus, Tierra y Marte. Éstos son llamados terrestres porque tienen una superficie rocosa compacta, como la de la Tierra.

– Los planetas Venus, Tierra y Marte tienen atmósferas significantes, mientras que Mercurio casi no tiene.

– A Júpiter, Saturno, Urano y Neptuno se les conoce como los planetas Jovianos (relativos a Júpiter), puesto que son gigantescos comparados con la Tierra, y tienen naturaleza gaseosa como la de Júpiter. También son llamados los gigantes de gas, sin embargo, algunos de ellos tienen el centro sólido.

– Los asteroides son rocas más pequeñas que también giran, la mayoría entre Marte y Júpiter. Además, están los cometas que se acercan y se alejan mucho del Sol. Por su parte, los meteoritos son fragmentos de tierra extraterrestre que se encienden y se desintegran cuando entran a la atmósfera.

Propergoles Combustibles para cohetes Tipos y Componentes

Las aeronaves que operan dentro de la atmósfera utilizan considerablemente el aire, puesto que lo necesitan como sustentación para sus alas, queman el combustible con su oxígeno y, si poseen hélices, requieren aire a cierta presión para que éstas puedan “aferrarse”.

Como por encima de la atmósfera terrestre hay tan pocas moléculas de gas, los métodos convencionales de propulsión resultan insuficientes, al par que la falta de oxígeno obliga a que las aeronaves lleven consigo su provisión de él, ya sea en forma del elemento propiamente dicho, en estado líquido, o en la forma de algún compuesto oxidante.

Se han inventado varios tipos de combustibles y de fuentes de oxígeno para la propulsión de cohetes y otros vehículos espaciales, pero el principio fundamental de toda propulsión de cohete es el mismo en todos los casos, o sea, el principio de acción y reacción de la dinámica.

Al quemarse el combustible, ya sea sólido o líquido, crea enormes cantidades de gases calientes, que se encuentran a gran presión, debido al reducido tamaño de la cámara de combustión. Los gases que escapan por la parte de atrás del motor proveen el empuje necesario para impulsarlo hacia adelante. Los estadounidenses parecen preferir los propergoles líquidos. Entre las combinaciones que han utilizado con buen éxito está la de hidrógeno y oxígeno líquido, que al combinarse producen vapor. También emplearon el oxígeno líquido como oxidante de-combustibles tales como el queroseno y el amoníaco.

La combustión del queroseno produce vapor y bióxido de carbono. Como alternativa, en lugar de oxigeno han usado a veces el peróxido de hidrógeno (agua oxigenada), que se descompone en oxígeno y vapor. En otros cohetes, la combinación era dimetil-hidrazina, oxidada mediante ácido nítrico.

Cuando se emplean propergoles líquidos, el combustible y el oxidante deben ser mantenidos en recipientes separados. Los propergoles sólidos, por el contrario, deben ser mezclados antes de formar las “tortas” de combustible compacto. Los ingredientes típicos de una de esas tortas pueden .ser: perclorato de aluminio (agente oxidante), el ácido acrílico polibutadieno y polvo de aluminio (combustible), más un agente que tiene la función de endurecer la torta luego que ésta ha sido formada en el molde.

Las proporciones de agente oxidante y combustible se disponen de manera que siempre haya un ligero exceso de agente oxidante. Para esto hay dos razones: si la cantidad de agente oxidante es apenas la justa para la combustión completa, existe un serio riesgo de explosión, y, además, el aumento de presión que sufre el agente oxidante excedente, debido al calor de la combustión, se añade al aumento total de presión dentro de la cámara de combustión del motor cohete.

DISTINTAS FUENTES DE ENERGÍA PROPULSORA
Se obtiene el máximo aprovechamiento de la energía disponible por el combustible de un cohete, cuando la velocidad de salida de los gases de la combustión iguala a la velocidad con que el cohete se mueve hacia adelante. Por ello resulta conveniente comunicarle la energía inicial mediante algún medio exterior, tal como podría ser un poderoso motor, que le proporciona la energía de movimiento, o cinética, requerida para que su velocidad alcance un valor aproximado al de salida de los gases de combustión.

El principio de acción y reacción, en el cual se fundamenta la propulsión de cohetes, puede aplicarse no sólo con combustibles sólidos o líquidos convencionales, sino que podríanlos pensar en energía obtenible de distintos modos. En efecto, sabemos que cargas eléctricas, colocadas en un punto del espacio donde exista un campo eléctrico, experimentan fuerzas de naturaleza eléctrica. En los aceleradores modernos de partículas cargadas se obtienen valores elevados de la velocidad de las mismas. Éste sería un método apropiado para obtener la energía necesaria para la impulsión del cohete.

Las partículas podrían ser aceleradas mediante poderosos campos eléctricos. Dado que la materia es una dura concentración de energía, tal como surge de la teoría de la relatividad de la física moderna, fácil es ver que un combustible como éste ocuparía poco espacio, pero en cambio serían indispensables complejos aparatos construidos por la tecnología más avanzada.

Los cohetes de propergol sólido fueron conocidos desde hace mucho tiempo, pero sólo se volvieron a emplear hace muy pocos años. Ello se debió a la simplicidad del sistema y a la facilidad de almacenamiento. Los trabajos de investigación con combustibles sólidos son, en la actualidad, constantes.

cohete propergoles En los Estados Unidos se ha desarrollado, en la década de los 70, un combustible sólido que tiene la consistencia del caucho. Es el thiokol, que se fabrica en base a un derivado del caucho sintético líquido, mezclado con un oxidante sólido. El rendimiento potencial de un combustible depende de la eficacia de la oxidación.

Una idea de la bondad del combustible la da el impulso específico. Utilizando ácido nítrico como oxidante y anilina como combustible, se obtiene un empuje específico de 221, mientras que empleando oxígeno como oxidante y alcohol etílico como combustible, se obtiene un empuje específico de 242.

La fluorina como oxidante y el amoníaco como combustible dan una mezcla combustible de empuje específico igual a 288. El ozono y el hidrógeno, como oxidante y combustible respectivamente, dan una mezcla de empuje específico igual a 369.

La fluorina es uno de los agentes oxidantes más eficaces que se conocen. Es muy probable, con todo, que se mantenga, secreto el conocimiento de algún oxidante de rendimiento superior del tipo del ozono. La fluorina da un buen rendimiento oxidante, sobre todo con fluorita, pero el costo de esta mezcla es actualmente muy elevado. El ozono tiene un mayor poder oxidante que la fluorina, pero ofrece el inconveniente de que en estado puro manifiesta una marcada tendencia a descomponerse explosivamente.

El trimetilo es un compuesto de aluminio, fluido y de poder inflamable sumamente elevado. Su combustión es espontánea al ponerse en contacto con el aire. Su aplicación a la propulsión de cohetes no se halla desarrollada; mas puede constituir un elemento útil para el futuro.

Una fuente de energía hasta ahora prácticamente desconocida está en los radicales libres, que no son más que fragmentos moleculares libres de carga eléctrica, que se forman durante una reacción exotérmica. Las regiones superiores de la atmósfera terrestre son una fuente prácticamente inagotable de estos radicales libres, los cuales son originados por la radiación solar. Los radicales libres son el resultado de un proceso en que absorben energía. Luego pueden suministrar esa energía para la propulsión.

Recientemente se han realizado varios trabajos de experimentación e investigación. La tendencia de esos trabajos es la de aislar, los radicales libres para aprovecharlos como combustibles. Han sido aislados los radicales libres del vapor de agua, del amoníaco, del hidrógeno y del nitrógeno.

El empuje específico de los combustibles basados en los radicales libres resulta muy superior al de los elementos normales. Así, por ejemplo, en el caso del hidrógeno, si se fabrica un combustible con hidrógeno bajo la forma de radical libre, se obtiene un combustible cuyo empuje específico es cinco a seis veces superior al de los convencionales. De este modo, un cohete, propulsado con combustibles basados en los radicales libres, tendrá un alcance de unas treinta veces el del tipo común. No obstante estas ventajas de los radicales libres, en cuanto a concentración de energía, no han salido del campo teórico, debido a que es necesaria la solución de otros problemas muy complicados, tales como producción grande y barata, almacenamiento, control y estabilidad.

Empleando el radical de amoníaco con el hidrógeno líquido, se eleva a 7 u 8 veces el alcance de los cohetes comunes. La propulsión iónica es sin duda el medio más adecuado para impulsar las naves espaciales. En este procedimiento, la fuente de iones apropiados es el cesio.

Los iones de este elemento, acelerados en una superficie incandescente de tungsteno, y colocados bajo la acción de un potencial de unos 30.000 voltios, pueden alcanzar una velocidad de unos 220.000 m/seg., que es la requerida para que el impulso específico resulte elevado.

El berilio es un elemento que posee un elevado poder calorífico por unidad de peso, pero es muy tóxico, y se lo encuentra en la naturaleza en cantidades relativamente pequeñas. Por otro lado, el litio, que es un metal alcalino, y el boro, metaloide, permiten combinaciones con el hidrógeno, llamadas híbridos; estos son las bases esenciales de una gran parte de los supercombustibles empleados en la cohetería moderna. El boro no quema a temperaturas inferiores a los 700° C.

Los hídridos, tales como el de caborano, el pentaborano y el diborano, están destinados a reemplazar al carbono en sus combinaciones con el hidrógeno. El diborano es un gas tóxico, muy inestable en presencia de humedad o del aire. Los procesos tecnológicos requeridos para obtener combustibles basados en boro son en general complicados. En la práctica, se logra estabilizar los hídridos y eliminar su toxicidad, alcalinizándolos.

En Estados Unidos, el pentaborano alcalinizado es conocido bajo el nombre de Hi-Cal2 y Hef2, y el de caborano por Hi-Cal3 y Hef3. Estos combustibles son empleados en el desarrollo del avión cohete X-15.

Los combustibles que emplean borano en su composición química poseen un gran impulso específico, pero tienen una limitación. En efecto, sólo pueden usarse en los casos en que se dispone de aire.

Fuente Consultada: Historia de la Astronáutica – Ediciones Riego S.A.

Historia de la astronautica: vuelos tripulados y no tripulados

VUELOS NO TRIPULADOS

Vostok I, Primer Vuelo Ruso

VOSTOK 1     URSS 12-4-1961 Yury A. Gagarin. Primer hombre en el espacio dando una vuelta alrededor de la Tierra.

VOSTOK 2     URSS 6-8-1961 Gherman 5. Titov. Segundo astronauta ruso que estuvo en órbita durante 25 horas.

FRIENDSHIP 7 EE.UU. 20-2-1962 John H. Glenn Jr. Primer astronauta americano en órbita alrededor de la Tierra.

VOSTOK 3     URSS 11-8-1962 Andrian G. Nikolayev. En órbita simultáneamente con el Vostok 4.

VOSTOK 4     URSS 12-8- 1962 Pavel R. Popovich. En órbita simultáneamente con el Vostok 3.

VOSTOK 6     URSS 16-6- 1963 Valentina V. Tereshkova. Primera mujer en el espacio.

VOSKHOD 1     URSS 12-10-1964 Vladimir M. Komarov, Konstantin P. Feoktistov y Boris B. Yegorov. Primera cápsula espacial con más de un astronauta a bordo.

GEMINI 4     URSS 18-3- 1965 Pavel Belyayev y Aleksey Leonov que realizó el primer paseo espacial.

VOSKHOD 2 EE.UU. 3-6- 1965 James A. McDivitt y Edward H. Whíte II. Primer paseo espacial realizado por los norteamericanos.

GEMINI 7     EE.UU. 4-12- 1965 Frank Borman y James A. Lowell Jr. Establecen un nuevo record de permanencia en el espacio al efectuar 206 vueltas alrededor de nuestro Planeta.

SOYUZ 1     URSS 23- 4-1967 Vladimir M. Komarov, sufre el primer accidente mortal en la carrera del espacio.

APOLLO 8     EE.UU. 21-12- 1968 Frank Borman, James Lowell Jr. y William Anders. Primer vuelo de una nave tripulada alrededor de la Luna.

APOLLO 11 EE.UU. 16-7-1969 Neil A. Armstrong, Edwin E. Aldrin Jr. y Michael Collins. Llegada del hombre a la Luna.

APOLLO 13 EE.UU. 11-4-1970 James A. Lowell Jr., Fred W. Haise Jr. y John L. Swigert Jr. Una explosión en el módulo de mando obliga a suspender el alunizaje y el regreso a la Tierra se hace en precarias condiciones.

APOLLO 15 EE.UU. 26-7-1971 David R. Scott, Alfred M. Worden y James B. Irwin. Los astronautas utilizan por segunda vez el vehículo todo terreno, permitiéndoles de este modo hacer una experiencia lunar más extensiva.

SKYLAB 1 EE.UU. 25-5-1973 Charles P. Conrad, Joseph P. Kerwin y Paul J. Weitz son la primera tripulación que habita en el laboratorio espacial.

SKYLAB 3 EE.UU. 16-11- 1973 Gerald Carr, Gibson y Pogue. 84 días de permanencia en el espacio.

APOLLO– EE.UU. 15-7-1975 Stafford, Slayton, Brand, Leonov y Kubasov.

SOYUZ     URSS Primer vueló conjunto soviético- norteamericano y primera cita espacial.

SOYUZ 29 URSS 15-6-1978 Vladimir Kovalyonok y Aleksandr Ivanchenkov permanecen más de 4 meses en el espacio (139 días).

Resumen de la Vida de las Estrellas Evolucion Estelar Vida y Muerte Estrella

Resumen de la Vida de las Estrellas y Su Evolución Estelar

LA VIDA DE UNA ESTRELLA

Las estrellas tienen una fuente interna de energía. Pero, al igual que todo tipo de combustible, sus reservas son limitadas. A medida que consumen su suministro de energía las estrellas van cambiando y cuando se les acaba, mueren. El tiempo de vida de las estrellas, aunque muy largo comparado con las escalas de tiempo humanas, es, por lo tanto, finito.

A medida que envejecen sufren profundos cambios en sus tamaños, colores y luminosidades, siempre como consecuencia de la disminución de sus reservas. Para aumentar su expectativa de vida, la estrella lucha continuamente contra la fuerza gravitatoria que intenta contraerla. Las distintas etapas evolutivas son sucesiones de contracciones que terminan cuando la estrella comienza a quemar otros combustibles que mantenía en reserva y logra establecer una nueva situación de equilibrio.

Galaxias y estrellas del universo

El factor más importante en el desarrollo de una estrella es su masa inicial. Las estrellas más masivas tienen mayores temperaturas centrales y, en consecuencia, producen energía y consumen combustible a un ritmo creciente. Este hecho fue determinado observacionalmente y se llama relación masa-luminosidad. Podría parecer que las estrellas más masivas, las que tienen más combustible, deberían tener vidas más largas. Pero en realidad sucede exactamente lo contrario. Al igual que con el dinero o la comida, la duración del combustible estelar depende tanto de la cantidad disponible como del ritmo de consumo. Por ejemplo, la vida del Sol será de 10 mil millones de años. Una estrella de masa 10 veces mayor tiene 10 veces más combustible, pero lo quema a un ritmo tan grande (de acuerdo a la relación masa-luminosidad) que termina de consumirlo en 30 millones de años. En el otro extremo, una estrella de 0,1 M0 brillará durante 3 billones de años antes de morir.

¿Cómo se mide la masa, esa propiedad fundamental que determina completamente la estructura y evolución de una estrella?

El único método de determinación directa de masas es el estudio del movimiento de estrellas binarias. Las estrellas dobles o binarias están muy próximas entre sí y cada estrella gira alrededor del centro de gravedad del par. Aplicando a estos sistemas las leyes de Newton es posible deducir su masa. Sin embargo, la masa de cada estrella del sistema se puede determinar sólo en el caso de que el sistema binario sea ecipsante (es decir cuando una de las estrellas eclipsa a la otra). Estas mediciones, aunque pocas en número, son interesantes porque a partir de ellas se han podido establecer algunos resultados que dieron la clave para comprender la evolución estelar.

Una manera indirecta de determinar la masa estelar es usando la relación masa-luminosidad que pudo ser establecida cuando se desarrolló una de las herramientas más poderosas con que cuentan los astrofísicos, el diagrama R-R que consideraremos a continuación.

Se han observado estrellas muy masivas, hasta 120 M0, pero ¿hay una masa mínima para las estrellas? La respuesta a esta pregunta está todavía en estudio. Las estrellas de menor masa observadas son Ross 614B, de 0,08 M0 y Luyten 726-8B con 0,04 M0, pero la mayoría de las estrellas tienen masas de entre 0,3 y3 M0.

EL DIAGRAMA H-R  

En el año 1911 el astrónomo danés E. Hertzsprung comparó la magnitud absoluta y la luminosidad de estrellas pertenecientes a varios cúmulos. Trazó la curva de variación de uno de estos parámetros en función del otro y observó que los puntos no estaban esparcidos al azar en el diagrama, sino que se distribuían a lo largo de una línea bien definida. En 1913, el astrónomo norteamericano H. Russell llegó a la misma conclusión con datos de otras estrellas. Mostró empíricamente la existencia de una relación entre la luminosidad y temperatura estelares. El diagranta resultante se llama diagrama Hertzprung-Russell (H-R), y está representado en la figura.

La posición de unaa estrella en el diagrama H-R depende de su estado de evolución, y por eso la estructura y la historia de nuestra galaxia se pueden estudiar con este instrumento básico. Así como los botánicos pueden estimar la edad de un árbol a partir de la cantidad de anillos de su tronco, los astrónomos encuentran en el H-R la herramienta que les permite estimar la edad de una estrella.

Diagrama estelar E. Hertzsprung

El diagrama Herzprung-Russell. Cada estrella se representa según su magnitud absoluta, que mide su brillo intrínseco, y su tipo espectral, que refleja su color y su temperatura. Esta última aumenta hacia la izquierda

Un examen en el diagrama H-R de las estrellas con distancias conocidas muestra que no están distribuidas al azar, sino que muchas (entre ellas el Sol) están agrupadas en una banda angosta sobre la diagonal, llamada secuencia principal. Otro grupo de estrellas, la rama de las gigantes, se extiende horizontalmente sobre la secuencia principal. Las estrellas con luminosidades mayores que las gigantes se llaman supergigantes, mientras las estrellas sobre la secuencia principal se llaman enanas.

Estudiando los sistemas binarios se pudo establecer que la luminosidad de una estrella de secuencia principal es proporcional a su masa elevada a la potencia 3,5. Es decir que una estrella 2 veces más masiva que el Sol será 11 veces más 1 luminosa. Esta relación masa-luminosidad es una forma de estimar la masa de una estrella que no pertenece a un sistema binario a partir de su luminosidad, con la condición de que pertenezca a la secuencia principal, lo que se puede determinar, como veremos, con criterios espectroscópicos.

Las cantidades fundamentales que definen este diagrama se pueden medir con distintos parámetros, dándole así distintas formas. El H-R clásico usa dos cantidades: el tipo espectral (que es una determinación cualitativa de la temperatura) y la magnitud absoluta.

El tipo espectral

La única fuente de información sobre la naturaleza de las atmósferas estelares es el análisis de su espectro, del que se pueden hacer dos tipos de aproximaciones: cuantitativas y cualitativas.

Como hemos visto en el capítulo anterior, el análisis cuantitativo pernúte determinar los parámetros físicos que describen la atmósfera estelar. El análisis cualitativo descansa en la simple observación de que los espectros pueden agruparse en familias: esta clasificación espectral considera sólo la apariencia del espectro en el visible. Según ella, las estrellas se ordenan en 7 clases principales (de acuerdo a su temperatura) a las que se designa con las letras O, B, A, F, G, K y M. Para tener en cuenta las diferencias de apariencia entre espectros de la misma clase fue necesario establecer una subdivisión decimal, y entonces el tipo espectral se representa por BO, B1, B2, …, B9, AO, A1…

La clasificación espectral se basa en la presencia o ausencia de líneas de ciertos elementos, lo que no refleja una composición química diferente de las atmósferas sino sólo las diferencias de temperatura atmosférica.

Así el H, que es el elemento más abundante del universo y del que todas las estrellas tienen casi la misma abundancia, predomina en las líneas espectrales de estrellas con temperaturas cercanas a lO.0000K, porque la excitación del átomo de H es máxima a esta temperatura. En las atmósferas de las estrellas más calientes, de tipo espectral o, el H está casi todo ionizado y entonces no produce un espectro significativo de líneas de absorción.

En las atmósferas de estrellas frías (por ejemplo de tipo espectral K) los átomos de H son neutros (no ionizados) y prácticamente todos están en el estado fundamental, no excitado. El espectro de líneas así producido pertenece principalmente al rango ultravioleta, no observable desde la Tierra, mientras que las líneas de H observadas en el visible son muy débiles.

Las estrellas de tipo o que son las más calientes, muestran en sus espectros líneas de He ionizado, pero no líneas de H. Yendo a tipo BO hasta AO la intensidad de las líneas de He también decrece cuando las condiciones de temperatura no son favorables y la de los metales (elementos más pesados que el He) crece para tipos espectrales correspondientes a temperaturas más bajas. En las estrellas más frías, las líneas de metales neutros se hacen más y más intensas y aparecen bandas características de moléculas.

Las clasificación en “gigantes” y “enanas”, tiene sentido sólo para un dado tipo espectral. Si se consideran dos estrellas del mismo tipo espectral, una de la secuencia principal y la otra de la rama de las gigantes, las dos muestran gran diferencia en luminosidad. Como son del mismo tipo espectral, tienen la misma temperatura.

La diferencia de luminosidad se origina entonces en la diferencia de tamaño. Comparemos, por ejemplo, dos estrellas de clase M. La luminosidad de la gigante es 10.000 veces mayor que la de la enana (o de secuencia principal). Por lo tanto su área superficial debe ser 10.000 veces mayor y entonces el radio de la gigante será 100 veces mayor que el de la enana. (La ley de Stefan-Boltzmann dice que:  L es proporcional a R2.T4).

Las estrellas que aparecen por debajo de la secuencia principal son las enanas blancas, cuyos radios son muy pequeños.

NACE UNA ESTRELLA

Como ya hemos dicho la vida estelar es una sucesión de contracciones. La primera gran contracción es la de la nube interestelar que crea la estrella. La cuna de las nuevas generaciones de estrellas en nuestra galaxia parece estar en las nubes interestelares de átomos y moléculas. La densidad promedio del medio interestelar en la galaxia es de cerca de un átomo por cm3. La formación de una estrella requiere una densidad 1024 veces mayor. El único mecanismo capaz de actuar a grandes distancias y de originar tal factor de compresión es la fuerza de la gravedad, que juega aquí un papel esencial. Por otro lado el movimiento térmico de las moléculas y el movimiento turbulento del gas interestelar producen una presión que impide una contracción abrupta impuesta por el campo gravitatorio.

Cuando la gravedad rompe este equilibrio se puede formar una estrella o un grupo de estrellas. En términos muy generales, esto sucede cuando la masa de la nube sobrepasa una cierta masa crítica. Una nube colapsará si, por ejemplo, su masa aumenta por colisiones con nubes más pequeñas, pero su temperatura promedio sólo aumenta ligeramente, o si la masa de una nube permanece constante, pero su temperatura disminuye, de manera que la presión no puede frenar el colapso. Estas dos situaciones podrían ocurrir simultáneamente. Los cálculos indican que en nubes con masas mayores que unas 2.000 M0 la gravedad gana sobre las fuerzas de presión. La nube se hace gravitatoriamente inestable y se contrae más y más rápido. Como la masa de una estrella típica es unas 1.000 veces menor, hay que concluir que la nube se fragmenta.

Los complejos moleculares gigantes muy fríos, con temperaturas de unos 10 a 90 0K, son los lugares reconocidos de formación estelar. Sus masas son muy grandes; alcanzan hasta 1.000.000 M0. El polvo de la nube oculta las nuevas estrellas al astrónomo óptico, pero éstas se pueden detectar en el infrarrojo.

Hay un tipo de nubes moleculares pequeñas, llamadas “glóbulos de Bok”, algunos de los cuales se han observado en contracción gravitatoria. Su velocidad de colapso es de aproximadamente medio km/seg, y su radio es del orden de 2 años luz. Si nada frena su colapso, estos glóbulos se condensaran en estrellas dentro de 1.000.000 años, lo cual, en términos de la vida total de la estrella, es un período muy breve.

Estos objetos aislados (que se ven como zonas negras contra el fondo de la Vía Láctea) ilustran los modelos teóricos de formación estelar. La región central, altamente comprimida y mucho más densa que la periferia, atrae a la materia que la rodea. La temperatura aumenta progresivamente y la presión se hace suficientemente alta como para parar momentáneamente el colapso del núcleo.

Poco a poco toda la materia en la envoltura cae hacia la protoestrella. Cuando su temperatura pasa los 10 millones de °K, comienzan las reacciones termonucleares, es decir el autoabastecimiento de energía. En este momento la estrella entra en la secuencia principal y comienza su vida normal. En las galaxias espirales, como la nuestra, las estrellas se forman en los brazos espirales, donde se encuentran el polvo y el gas interestelares.

La observación de estrellas en formación o estrellas muy jóvenes junto con su ambiente provee importantes contribuciones a la teoría de formación estelar. En el esquema presentado la formación de estrellas está directamente relacionada a la evolución de las nubes moleculares, pero aunque es el caso más estudiado, no es el único. Una forma de aprender más sobre formación estelar es investigar galaxias vecinas.

La formación estelar en la Gran Nube de Magallanes presenta algunos problemas para este esquema: en una región llamada 30 Dorado se observan unas 50 estrellas O y B asociadas con una nube de 50 millones de M0 de hidrógeno neutro. No hay polvo en esta región ni se ha detectado ninguna nube molecular. Esto muestra claramente que la teoría de formación estelar basada en nubes moleculares no explica todos los nacimientos estelares. Este es un tema de gran actualidad en astrofísica que todavía no está resuelto.

La protoestrella entra al diagrama H-R por la derecha (la parte roja o fría), en el momento en que la temperatura central se hace suficientemente alta (recordemos que bajo compresión la temperatura de un gas aumenta) y la estrella comienza a convertir H en He. La posición inicial de la estrella en el H-R define la llamada secuencia principal de edad cero (ZAMs). Cuanto más masiva nace una estrella más arriba comienza su vida de secuencia principal y más luminosa es.

La posición de la ZAMS sobre el diagrama H-R depende de las composiciones químicas de las estrellas que se forman. La abundancia de metales (elementos más pesados que el He) aumenta de generación a generación, a medida que las estrellas más viejas evolucionan y enriquecen el medio interestelar con elementos pesados. En consecuencia la ZAMS se desplaza cada vez más hacia la derecha sobre el H-R a medida que la galaxia envejece, y este corrimiento permite estimar la edad de la galaxia.

La secuencia principal representa la primera pausa y la más larga en la inexorable contracción de la estrella. Durante este intervalo las estrellas son hornos nucleares estables y a esta estabilidad debemos nuestras propias vidas, ya que el Sol se encuentra en esta etapa. A medida que la estrella envejece se hace un poco más brillante, se expande y se calienta. Se mueve lentamente hacia arriba y a la izquierda de su posición inicial ZAMS.

Evolución de las Estrellas

Para una persona, incluso para una toda generación de seres humanos resultaimposible observar una única estrella para descubrir todo lo que le sucede en el transcurso de su existencia, ya que la vida estelar media es del orden de los miles de millones de años. Identificar y ordenar las distintas etapas en la vida de las estrellas, puede compararse con obtener una fotografía en conjunto de todos los habitantes de una ciudad; en la foto se tendría una visión de las posibles fases o estadios de la vida humana: habrían recién nacidos, niños, adultos, ancianos, etc.

Al analizar la imagen obtenida de cada persona y clasificándola de acuerdo a cierto carácter, podría establecerse el ciclo de la vida humana con bastante precisión; se podría estimar el ciclo completo, captado en un único instante de tiempo en la fotografía de conjunto.

Debido a la cantidad y a la gran variedad de estrellas existentes, se logra tener una idea de su evolución observando estrellas en las diversas fases (o etapas) de su existencia: desde su formación hasta su desaparición. Al respecto se debe tener en cuenta que, efectivamente, se han visto desaparecer estrellas (por ejemplo, la supernova de 1987) como también se han hallado evidencias de la formación de otras nuevas (como en el profundo interior de la Nebulosa de Orión, por ejemplo).

Ya mencionamos que en el estudio de las estrellas, se utilizan parámetros físicos como la temperatura o la masa, entre otros. Pero debe señalarse también otra de las técnicas usuales en Astronomía, denominada Espectroscopía.

La luz estelar se descompone en su gama intrínseca de colores, llamándose “espectro” al resultado de esa descomposición cromática (la palabra espectro que significa “aparición”, fue introducida por I. Newton, quien fue el primero es descubrir el fenómeno). En el espectro de las estrellas, además de los colores, aparecen ciertas líneas o rayas bien nítidas. Esas líneas o mejor dicho, cada una de las series de líneas, se corresponde, según su posición en el espectro, por una parte con la T de la superficie estelar y por otra, con los elementos químicos presentes en la atmósfera de la estrella.

Diferentes elementos químicos absorben o emiten luz según la temperatura a que se encuentren; de esta manera la presencia (o ausencia) de ciertos elementos en la atmósfera de la estrella, indica su temperatura.

Los astrónomos han diseñado un sistema de clasificación de estrellas, de acuerdo a las características que presentan sus respectivos espectros. En ese esquema, las estrella s se ordenan desde las más calientes a las más frías, en tipos espectrales que se identifican según el siguiente patrón de letras: O B A F G K M

Las estrellas más calientes (O) tienen temperaturas de unos 40.000 ºC; en el otro extremo, las más frías (M), alcanzan sólo 2.500 ºC; en este esquema, el Sol, con una temperatura superficial de 6.000 ºC, resulta una estrella de tipo espectral intermedio entre las más calientes y las más frías: es una estrella tipo G.

Este sistema de clasificación se corresponde además con los colores de las estrellas: las de tipo (O) son azules-violáceas y las de tipo M, rojas; el Sol (tipo G) es amarillo. Los colores observados también se relacionan con la temperatura, ya que las estrellas más calientes emiten la mayor parte de su luz en la zona azul del espectro electromagnético, mientras que las más frías lo hacen en la zona roja.

En las estrellas más calientes, las distintas capas interiores deben vencer mayor atracción gravitacional que las capas más externas, y por lo tanto la presión del gas debe ser mayor para mantener el equilibrio; como consecuencia, mayor es la temperatura interna. Implica que la estrella debe “quemar” combustible a gran velocidad, lo que produce una ingente cantidad de energía. Esta clase de estrellas sólo puede tener una vida limitada: unos pocos millones de años.

Las estrellas frías (generalmente pequeñas y con una fuerza de gravedad débil) sólo producen una modesta cantidad de energía; en consecuencia aparecen brillando tenuemente. Así, estas estrellas pueden existir como tales sólo algunas decenas de miles de millones de años.

En la siguiente Tabla se indican la temperatura característica (en grados centígrados, ºC) de cada tipo espectral (T.E.).

Tipo Espectral Temperatura (ºC)
O 40.000
B 25.000
A 11.000
F 7.600
G 6.000
K 5.100
M 2.500

Ahora bien, la temperatura y consecuentemente, la cantidad de energía que emite una estrella, depende de su masa: cuanto mayor es su masa, mayor es la temperatura y por consiguiente mayor es la cantidad de energía que irradia. Pero hasta que en su núcleola temperatura no alcance un valor de algunos millones de grados, no se producirán transformaciones nucleares (del tipo de transmutación de hidrógeno en helio) y, por lo tanto, mientras eso no ocurra, la cantidad de energía que emiten será bastante pequeña (objetos de esta clase son denominados protoestrellas). Cuando se inicia la vida de una estrella, el calor de su interior procede de la energía gravitacional, es decir, de la nube de gas que se comprime sobre sí misma (colapso).

La etapa de protoestrella se corresponde con grandes inestabilidades en su estructura interna, las que acaban cuando la temperatura de su núcleo alcanza los 10 millones de grados, iniciándose entonces la transmutación del hidrógeno en helio y, por lo tanto, la generación de energía desde su núcleo: en esa etapa el astro se considera ya una estrella.

Las estrellas contienen suficiente hidrógeno como para que la fusión en su núcleo dure un largo tiempo, aunque no para siempre. La velocidad de combustión del hidrógeno depende de la masa, o sea de la cantidad de materia que compone la estrella.

Llegará un momento en que se acabará todo el hidrógeno disponible y sólo quede helio. En esas condiciones la estrella sufrirá diversos tipos de transformaciones: aumentará de tamaño y el helio acumulado se transmutará en elementos más pesados como el carbono, el nitrógeno, el oxígeno, etc, mediante otras reacciones nucleares. Entonces la estrella dejará de ser estable: sufrirá cambios de volumen y expulsará al espacio parte de su material. Las capas mas externas serán las primeras en alejarse.

Después de cinco a diez mil millones de años, una estrella como el Sol evoluciona a un estado denominado de gigante roja: un objeto de gran tamaño (de dimensiones mayores que las originales), mucho más fría y de una coloración rojiza. Su temperatura superficial disminuye y por lo tanto toma color rojizo. La gigante roja brillará hasta que su núcleo genere cada vez menos energía y calor. En esas condiciones la estrella empieza a contraerse: disminuye su diámetro y al mismo tiempo aumenta su temperatura superficial.

Si la estrella, al formarse, tiene una masa cuarenta veces mayor que la masa del Sol, pasará al estado de gigante roja en sólo unas pocas decenas de millones de años. Luego irá disminuyendo de tamaño y perderá rápidamente una cantidad significativa de su masa expulsando materia hacia el espacio.

Otra modo de expulsar materia es lentamente, a través de fuertes vientos estelares; de esta forma los astrónomos han observado que se forma una envoltura gaseosa que circunda la estrella y que puede llegar a ser bastante densa; si ese proceso continúa puede dar lugar a un objeto denominado nebulosa planetaria.

Con el nombre de nebulosas planetarias, se define a una estrella muy caliente y pequeña, rodeada por una esfera de gas fluorescente en lenta expansión; algunas fotografiadas con potentes telescopios, muestran que esas nebulosas tienen forma de anillo, razón por la cual se le ha dado ese nombre, ya que su aspecto observada en el telescopio es similar al disco de un planeta.

Finalmente, hacia el término de su existencia, esas estrellas se convierten en objetos de pequeñas dimensiones (del tamaño de la Tierra o aún menor), calientes y de color blanco: son las enanas blancas. La materia de estos objetos se halla extremadamente comprimida: 1 centímetro cúbico de la misma puede pesar varias toneladas. En otras palabras, en un volumen similar al de nuestro planeta se halla condensada la misma cantidad de materia que hay en un volumen comparable al del Sol.

Pero no todas las estrellas acaban como enanas blancas. Cada estrella termina su vida de un modo que depende mucho de su masa inicial, aquella que tuvo cuando comenzó su existencia. Una estrella de gran masa (varias veces la del Sol) y que no pierde mucha materia durante su evolución termina su vida en una explosión muy violenta que se denomina supernova; cuando esto ocurre la estrella brillará tanto como toda la galaxia en la cual se encuentra, aunque su brillo será efímero: la estrella ya está condenada a extinguirse como tal.

En el siguiente cuadro se muestran los distintos estados evolutivos finales para estrellas de diferente masa inicial (M). La masa está expresada en masas solares (Msol = 1).

Masa Inicial Estado evolutivo final
M < 0,01 Planeta
0,01 < M < 0,08 Enana marrón
0,08 < M < 12 Enana blanca
12 < M < 40 Supernova + estrella de neutrones
40 < M Supernova + agujero negro

Distintos estados evolutivos finales para estrellas de diferente masa inicial <M>. La masa está expresada en masas solares (Msol = 1).

Los restos gaseosos de una supernova (que se denominan remanentes) se esparcen cubriendo una extensa zona del espacio, formando una nube en permanente expansión que se aleja a varios miles de kilómetros por segundo y cuyas características son bastante peculiares (por ejemplo, aparecen campos magnéticos sumamente intensos).

El gas que compone un remanente de supernova es bastante diferente al gas de la nube que formó a la estrella. La nube de origen estuvo compuesta casi exclusivamente por helio y helio, mientras que en el remanente existe una gran variedad de elementos químicos, restos de la fusión nuclear que ocurriera en la estrella desaparecida y también otros formados durante la explosión que se produce en la fase de supernova.

En el siguiente cuadro se muestran algunas estrellas con sus características físicas más importantes.

Estrella Magnitud
aparente (m)
Magnitud
Absoluta
Temperatura
(en ºC)
Radio
(en radios solares)
Características
Centauri 0,6 -5,0 21.000 11 gigante
Aurigae 0,1 -0,1 5.500 12 gigante
Orion 0,4 -5,9 3.100 290 supergigante
Scorpi 0,9 -4,7 3.100 480 supergigante
Sirio B 8,7 11,5 7.500 0,054 enana blanca

 De este modo se recicla el material estelar: las estrellas que se formen con el gas expulsado en una explosión de supernova, serán menos ricas en hidrógeno y helio, pero más ricas en los elementos químicos más pesados, que las estrellas de su generación anterior.

Pero sucede que luego de la explosión de una supernova, lo que queda del astro, además de sus remanentes, es un cuerpo de apenas algunos kilómetros de diámetro, conformado por él núcleo de la estrella original.

En la explosión de supernova se produce un catastrófico colapso de la estrella; debido a su gran masa, la enorme fuerza de gravedad comprime la materia con mucha más intensidad que en el proceso que genera a una enana blanca . En estas condiciones toda la masa de una estrella ordinaria (como el Sol) se comprime en una pequeña esfera de apenas 15 Km. de diámetro; a estos diminutos astros se los ha bautizado estrellas de neutrones (su denominación se debe a que se trata de objetos compuestos básicamente de neutrones). La materia en estos objetos se ha comprimido a tal extremo y su densidad alcanza a valores tan grandes, que los electrones se combinan con los protones dando lugar a la formación de nuevos neutrones.

Fuente Consultada: Astronomía Elemental de Alejandro Feinstein y Notas Celestes de Carmen Nuñez

SÍNTESIS DEL TEMA…

Ningún astrónomo ha podido contemplar, hasta ahora, el interior de las estrellas, pero todos los científicos conocen ya los fenómenos que se producen en el centro de éstas y en los estratos que lo cubren hasta llegar a la superficie visible.

Las estrellas son enormes esferas de gas, de un diámetro medio, equivalente a cien veces el de la Tierra. El gas que las compone contiene, aproximadamente, un 80 % de hidrógeno y un 18 % de helio. La mayor parte de los elementos se hallan presentes en ellas, aunque en cantidades insignificantes.

La superficie de las estrellas está incandescente: su temperatura oscila, según el tipo de estrella, entre miles y decenas de millares de grados centígrados. Pero, a medida que se penetra en su interior, esa temperatura va haciéndose cada vez más alta, hasta alcanzar, en el centro, decenas de millones de grados, lo cual pone a los átomos en un estado de “agitación” tan violenta, que los lleva a chocar entre sí, perdiendo electrones y formando iones (átomos que han perdido, por lo menos, uno de sus electrones). El gas de los iones y electrones se ve sometido a presiones tan altas, que en ocasiones alcanza una densidad miles de veces superior a la del agua.

¿Qué es lo que comprime el gas en el interior de las estrellas? El peso de los estratos superiores. Todo el mundo ha oído hablar de las elevadas presiones existentes en el fondo del mar o en el centro de la Tierra (éstas, particularmente, alcanzan cifras asombrosas). Pero, en el centro de una estrella, a una profundidad cien veces mayor, las presiones son tan enormes, que bastan para comprimir toda la materia estelar en un reducidísimo espacio. Los átomos, chocando entre sí, perdiendo y, a veces, adquiriendo electrones, emiten una gran cantidad de luz, comparada con la cual la superficie del Sol parecería oscura.

Llegados a este punto, conviene explicar que la luz ejerce presión sobre los cuerpos que ilumina: poca presión, cuando su intensidad es débil, y mucha, cuando es fuerte. Esta propiedad de la luz se encuentra, naturalmente, fuera de los límites de nuestra experiencia, ya que la Tierra, por fortuna, nunca se ve expuesta a radiaciones luminosas de tanta intensidad. Pero éstas son lo suficientemente intensas, en el interior de las estrellas, como para ejercer, sobre los estratos superficiales, presiones que llegan al millón de toneladas por centímetro cuadrado. Es decir: equilibran, en parte, la presión hacia el interior de estos estratos y evitan que la estrella se convierta en un pequeño y densísimo núcleo.

A las temperaturas descritas, los átomos chocan en forma tan violenta que, cuando los núcleos de hidrógeno entran en colisión entre si, o con núcleos de otros elementos (carbono y nitrógeno), se funden y originan núcleos de helio. Este proceso de fusión de núcleos se llama “-reacción termonuclear”, lo que significa “reacción nuclear provocada por la temperatura”. Cada vez que se forma un nuevo gramo de helio, se libera una energía equivalente a la que se obtendría quemando media tonelada de carbón. ¡Y se forman millones de toneladas de helio por segundo!

La fusión del hidrógeno es, pues, la reacción que mantiene el calor de las estrellas. Como la mayor parte de éstas contiene casi exclusivamente hidrógeno, y basta consumir un poco para obtener una gran cantidad de energía, se comprende que las estrellas puedan brillar ininterrumpidamente durante miles de millones de años.

La zona del interior de las estrellas en las que se produce ,La energía termonuclear es pequeña: muy inferior a una décima parte del volumen total de la estrella. Lo cual dificulta notablemente la llegada del calor a la superficie.

Una parte de éste se transmite por radiación (es decir: la energía térmica producida en el núcleo central es enviada, bajo forma de radiaciones electromagnéticas, a los átomos exteriores, que la absorben y la envían, a su vez, hacia átomos más exteriores, hasta que así, de átomo en átomo, la energía llega a la superficie de la estrella, irradiándose en el espacio). Pero la mayor parte de la energía térmica es transportada a la superficie por la circulación de la materia estelar, que se halla en continuo movimiento: sube caliente del centro, se enfría en la superficie, por cesión de calor, y vuelve fría al centro, en busca de más calor. Esta forma de transporte se llama transporte por “convección”.

Los movimientos convectivos de la materia estelar provocan importantes fenómenos magnéticos, que repercuten en la superficie, produciendo maravillosas y fantasmagóricas manifestaciones: fuentes de gas incandescente, gigantescas protuberancias de gas luminoso coloreado, y manchas oscuras de materia fría, rodeadas por campos magnéticos, de extensión .e intensidad enormes. De esta naturaleza son las famosas manchas solares descubiertas por Galileo, que siempre han despertado gran interés entre los investigadores, por su influencia sobre la meteorología de nuestro planeta, sobre las transmisiones electromagnéticas, e incluso, al parecer, sobre algunos fenómenos biológicos.

La existencia de una estrella depende, por tanto, del perfecto equilibrio entre los mecanismos que producen la energía en su interior y los encargados de transportarla a la superficie. Cuando este equilibrio es inestable, las estrellas experimentan variaciones (estrellas variables); cuando, en cambio, se altera completamente, puede producirse uno de los más grandiosos fenómenos cósmicos: la explosión de una estrella, de lo cual nos ocuparemos en otro artículo.

Agujeros Negros Origen, Formación y Características Breve y Fácil

Origen y Características de los Agujeros Negros
Muerte de Estrellas

Desde hace mucho tiempo uno de los temas predilectos de la ciencia-ficción han sido los agujeros negros, y en estrecha relación con ellos, el viaje a través del tiempo. El concepto de agujero negro fue popularizado por el físico británico Stephen Hawking, de la Universidad de Cambridge, quien describe con ese nombre a una región del Universo de la que no puede salir ningún objeto una vez que entró allí. Con esto en mente, sería interesante preguntarse qué le sucedería a alguien en el hipotético caso de encontrarse en las cercanías de una de estas regiones, qué sensaciones tendría y si la realidad que lo rodea sería igual a la que nos es familiar.

Hawking Físico astronomo

Para el físico Stephen Hawking y para la mayoría de los científicos un agujero negro es una región del Universo de la que no puede salir ningún objeto una vez que entró allí.

Agujeros negros: Como hemos visto en el nacimiento de las estrellas, una vez que el H y el He, el combustible termonuclear se han consumido en el núcleo de la estrella, sobreviene un colapso gravitatorio.

La evolución estelar culmina con la formación de objetos extremad mente compactos como enanas blancas o estrellas de neutrones cuando masa de la estrella no excede las 3 Mo (masa del Sol).

Si la masa es mayor, la compresión gravitatoria ya no se puede compensar con las fuerzas de repulsión de 1 electrones o neutrones degenerados y continúa tirando materia sobre la estrella: se forman los agujeros negros. En efecto, cuando los neutrones entre en colapso no existe ningún mecanismo conocido que  permita detener contracción.

Esta continúa indefinidamente hasta que la estrella desaparce, su volumen se anula y la densidad de materia se hace infinita. ¿Cómo entender una “estrella” más pequeña que un punto y con semejante densidad de materia en su interior?

Si una estrella se contrae, el campo gravitatorio en su superficie aumenta, aunque su masa permanezca constante, porque la superficie está más cerca del centro. Entonces, para una estrella de neutrones de la misma masa que el Sol la velocidad de escape será de unos 200.000 km/seg. Cuanto mayor es la velocidad de escape de un cuerpo más difícil es que algo pueda escapa de él.

En cierto momento la velocidad de escape llega al limite de 300.000 km/se Esta es la velocidad de las ondas electromagnéticas en particular de la luz que será entonces lo único que puede escapar de estos objetos. Ya hemos mencionado que no es posible superar esta velocidad y por lo tanto cuando la velocidad de escape de una estrella sobrepasa este limite, nada podrá escapar de ella. Los objetos con esta propiedad se llaman agujero negros.

Desde 1915, con la teoría de la relatividad general de Einstein se sabía que la gravedad generada por un cuerpo masivo deforma el espacio, creando una especie de barrera; cuanto más masivo es el cuerpo, mayor es la deformación que provoca. Los agujeros negros se caracterizan por una barrera  profunda que nada puede escapar de ellos, ni materia ni radiación; así t da la materia que cae dentro de esta barrera desaparece del universo observable.

Las propiedades físicas de estos objetos son tan impresionantes que por mucho tiempo quitaron credibilidad a la teoría.

Esta predice la existencia de agujeros negros de todos los tamaños y masas: los miniagujeros negros tendrían la masa de una montaña concentrada en el tamaño de una partícula; un agujero negro de 1cm. de radio sería tan masivo como la Tierra; los agujeros negros estelares tendrían masas comparables a las de las estrellas dentro de un radio de pocos kilómetros; finalmente, los agujeros negros gigantes tendrían una masa equivalente a varios cientos de millones de estrellas dentro de un radio comparable al del sistema solar.

Una forma de detectar agujeros negros sería a través de ondas gravitatorias. Estas ondas son para la gravedad lo que la luz es para el campo electromagnético. Sin embargo la tecnología actual no permite todavía esta posibilidad. El colapso de una estrella o la caída de un cuerpo masivo sobre un agujero negro originarían la emisión de ondas gravitatorias que podrían ser detectables desde la Tierra con antenas suficientemente sensibles.

 Aunque estas tremendas concentraciones de materia no se han observado todavía directamente hay fuerte evidencia de la existencia de estos objetos. Los astrofísicos comenzaron a interesarse activamente en los agujeros negros en la década del 60, cuando se descubrieron fenómenos sumamente energéticos.

Las galaxias superactivas, como las Seyferts, cuásares y objetos BL Lacertae emiten una cantidad de energía mucho mayor que una galaxia normal, en todas las longitudes de onda. Todos estos violentos fenómenos parecen asociados con cuerpos compactos muy masivos: estrellas de neutrones o agujeros negros estelares en el caso de binarias X, estrellas supermasivas o agujeros negros gigantes en los núcleos galácticos activos.

Las aplicaciones más importantes de los agujeros negros a la astrofísica conciernen a los núcleos activos de galaxias y cuásares. Los efectos de las enormes energías involucradas allí podrían ser sumamente interesantes y podrían permitir explicar fenómenos que todavía no se comprenden.

Fuente Consultada:Notas Celestes de Carmen Nuñez

GRANDES HITOS EN LA HISTORIA DE LOS AGUJEROS NEGROS
1783 El astrónomo británico John Michell señala que una estrella suficientemente masiva y compacta tendría un campo gravitatorio tan grande que la luz no podría escapar.

1915 Albert Einstein dio a conocer su teoría de la gravitación, conocida como Teoría General de la Relatividad.

1919 Arthur Eddington comprobó la deflexión de la luz de las estrellas al pasar cerca del Sol.

1928 S. Chandrasekhar calculó el tamaño de una estrella que fuera capaz de soportar su propia gravedad, una vez  consumido todo si combustible nuclear. El resultado fue que una estrella de masa aproximadamente una vez y media la del Sol nc podría soportar su propia gravedad. Se le otorgó el Premio Nobel 1983.

1939 R. Opphenheimer explice qué le sucede a una estrella qué colapsa, de acuerdo con la Teoría de la Relatividad General.

1963 M. Schmidt identifica un quasar desde el observatorio de Monte Palomar.

1965 – 1970 R. Penrose y S, Hawking demuestran que debe haber una singularidad, de densidad y curvatura del espacio-tiempo infinitas, dentro de un agujero negro.

agujero negro

En el interior de un agujero negro, el retorcimiento del tiempo y el espacio aumentan hasta el infinito.
A esto los físicos llaman singularidad.

■ Un rayo de luz se curva al pasar cerca de un objeto masivo ya que está curvado el espacio que atraviesa. Si el rayo pasa sucesivamente por varios cuerpos su trayectoria se curvará hasta que el rayo quede girando en círculo, del que no puede escapar. Este es el efecto gravitatorio de los agujeros negros.

■ Un agujero negro es una zona del universo con una gravedad tan enorme que ni el tiempo puede salir de él.

■ Los pulsares y los quasars proporcionan información complementaria sobre la ubicación de los agujeros negros.

■ Detectar un agujero negro no es fácil. Se los descubre por la poderosa emisión de rayos X que los caracteriza.
Si un astronauta penetrara en un agujero negro no tendría forma de vivir. Debido a la intensísima fuerza gravitoria nos estiraríamos como un fideo hasta despedazarnos.

■ En el interior de un agujero negro el espacio y el tiempo aumentan hasta lo, infinito.

■ Se estima que el número de agujeros negros en el Universo es muy superior al número de estrellas visibles y son de mayores dimensiones que el Sol.

■ Existen varios agujeros negros identificados, uno se halla en nuestra Via Láctea: el Cygnus X-1.

AMPLIACIÓN DEL TEMA:
Fuente: Magazine Enciclopedia Popular: Los Agujeros Negros

Hagamos un ejercicio mental e imaginemos por un momento que somos intrépidos astronautas viajando al interior de un agujero negro…

Repasemos algunas ideas importantes. Los físicos saben desde hace mucho que un rayo de luz se curva al pasar cerca de un objeto masivo ya que está curvado el espacio que atraviesa. Pero ¿qué sucede si este rayo pasa sucesivamente cerca de varios cuerpos?.

Cada vez su trayectoria se curvará un poco más hasta que finalmente el rayo estará girando en círculo, del que no podrá escapar. Este efecto gravitatorio se manifiesta en los agujeros negros, donde la atracción es tan fuerte que nada, ni siquiera la luz, puede escapar de él una vez que entró.

La gravitación distorsiona además del espacio, el tiempo. Veamos qué sucede en la superficie de un agujero negro, el horizonte de sucesos, que coincide con los caminos de los rayos luminosos que están justo a punto de escapar, pero no lo consiguen.

DONDE EL TIEMPO SE DETUVO
Según la Teoría de la Relatividad, el tiempo para alguien que esté en una estrella será distinto al de otra persona lejana, debido al campo gravitatorio de esa estrella. Supongamos que nosotros, astronautas, estamos situados en la superficie de una estrella que colapsa, y enviamos una señal por segundo a la nave espacial que está orbitando a nuestro alrededor.

Son las 11:00 según nuestro reloj y la estrella empieza a reducirse hasta adquirir untamaño tal que el campo gravitatorio es tan intenso que nada puede escapar y nuestras señales ya no alcanzan la nave.

Desde ella, al acercarse las 11:00, nuestros compañeros astronautas medirían intervalos entre las señales sucesivas cada vez mayores, pero este efecto sería muy pequeño antes de las 10:59:59. Sin embargo, tendrían que esperar eternamente la señal de las 11:00. La distorsión del tiempo es aquí tan tremenda que el intervalo entre la llegada de ondas sucesivas a la nave se hace infinito y por eso la luz de la estrella llegaría cada vez más roja y más débil.

El tiempo, desde nuestro punto de vista como astronautas sobre la superficie de la estrella, se ha detenido. Llegaría un punto en que la estrella sería tan oscura que ya no podría verse desde la nave, quedando sólo un agujero negro en el espacio.

Pero como astronautas, tenemos un problema más angustiante.

La gravedad se hace más débil cuanto más nos alejamos de la estrella, es decir, varía rápidamente con la distancia. Por lo tanto, la fuerza gravitatoria sobre nuestros pies es siempre mayor que sobre nuestra cabeza. Esto significa que debido a la diferencia de fuerzas, nos estiraríamos como un fideo o, peor aún, nos despedazaríamos antes de la formación del horizonte de sucesos (a diferencia de lo que sucede en la Tierra, donde la gravedad para nosotros prácticamente no varía con la altura). Este experimento no es, por ahora, recomendable.

¿Qué ocurre con la materia dentro del agujero negro? Las teorías de Stephen Hawking y Roger Penrose, de la Universidad de Oxford aseguran que en el interior el retorcimiento del espacio y del tiempo aumentan hasta el infinito, lo que los físicos llaman una singularidad. Si una estrella esférica se encogiera hasta alcanzar el radio cero, ya no tendría diámetro, y toda su masa se concentraría en un punto sin extensión. ¿Qué sucede si la materia no puede salir del agujero?.

Sólo caben dos respuestas: o deja de existir o viaja a otra parte. Esta última posibilidad dio pie a la teoría del agujero de gusano: al caer en el agujero podríamos salir en otra región de Universo. Para desgracia de los novelistas de ciencia-ficción, esta posibilidad no posee gran aceptación científica hasta ahora.

¿ALGUIEN HA VISTO UN AGUJERO NEGRO?
Dado que se conoce muy poco acerca de estos huecos en el espacio, su estudio comenzó a desarrollarse mediante modelos matemáticos, aun antes de que hubiese evidencia de su existencia a través de observaciones. Pero, ¿cómo podemos creer en objetos cuya existencia se basa sólo en cálculos?.

La lista de evidencias comienza en 1963, cuando desde el observatorio de Monte Palomar en California, se midió el corrimiento al rojo de un objeto parecido a una estrella en dirección a una fuente de ondas de radio. Este corrimiento era muy grande, por lo que se pensó que se debía a la expansión del Universo y, por lo tanto, el objeto estaba muy lejos. Para ser visible, este objeto debería ser muy brillante y emitir una enorme cantidad de energía. A ellos se los llamó quasars (quasi-strange objects), y podrían proporcionar evidencia acerca de la existencia de los agujeros negros.

Otros candidatos para darnos información sobre los agujeros negros son los pulsares, que emiten ondas de radio en forma de pulso debido a la compleja interacción entre sus campos magnéticos y el material intergaláctico. También las estrellas de neutrones, objetos muy densos, podrían colapsar para convertirse en agujeros negros.

Detectar un agujero negro no es tarea fácil. La forma más utilizada está basada en el hecho de que estos objetos son fuentes emisoras de rayos X. Esto se relaciona con los sistemas binarios, formados por una estrella y un agujero negro. La explicación para este hecho es que de alguna forma se está perdiendo materia de la superficie de la estrella visible.

Como en una pareja de baile en una habitación pintada de negro donde la chica está vestida de blanco y el chico de negro, muchas veces se han observado sistemas en los que sólo hay una estrella visible girando alrededor de algún compañero invisible. Vemos girar a la chica, aunque no podamos distinguir a su pareja. Cuando la materia va cayendo en este compañero comienza a girar como una espiral y adquiere gran temperatura, emitiendo rayos X. Además, el agujero negro debe ser pequeño.

Actualmente se han identificado varios agujeros negros: uno de ellos es el caso de Cygnus X-l en nuestra galaxia, y otros en dos galaxias llamadas Nubes de Magallanes. Sin embargo, el número de agujeros negros se estima que es muy superior, pudiendo ser incluso mayor al de estrellas visibles y de mayores dimensiones que el Sol.

Estrella de Neutrones Muerte Estelar Agujeros Negros Causas Vida

En 1934 los teóricos usaron la mecánica cuántica para predecir la existencia de las estrellas de neutrones: cuando la gravedad se hace demasiado fuerte como para que una enana blanca resista el colapso, los electrones son empujados al interior de los núcleos atómicos convirtiendo a los protones en neutrones.

Pero al igual que los electrones, los neutrones obedecen un principio de exclusión, de acuerdo al cual cada neutrón puede ocupar un determinado nivel de energía que no puede compartir con otro. Cuando todos estos niveles son ocupados, los neutrones están completa.. mente degenerados y ejercen una presión capaz de frenar el colapso gravitatorio.

Así, una estrella de neutrones es en muchos aspectos una versión extrema de una enana blanca: para la misma masa (aproximadamente 1 M0) una estrella de neutrones tiene un radio mucho menor (unos 15 km) y una densidad fantástica (un millón de toneladas por cm3).

La temperatura es de unos 10 millones de grados, pero debido a su tamaño pequeño, estos objetos son en general imposibles de detectar ópticamente. La masa de una estrella de neutrones no puede exceder 3 M0: por encima de este valor la gravedad le gana a la presión de los neutrones degenerados y el único estado final posible es un agujero negro.

La rápida rotación y los fuertes campos magnéticos son dos características importantes de estas estrellas ultradensas. Sabemos que todas las estrellas rotan. Al colapsar, la velocidad de rotación aumenta de manera de conservar el momento angular (así como un patinador baja los brazos para girar más rápidamente) La velocidad de rotación de las estrellas de neutrones es de varias vueltas por segundo También todas las estrellas tienen campos magnéticos pero cuando colapsan, éste aumenta. Los campos magnéticos de las estrellas de neutrones son un billón de veces más intensos que el terrestre. Estas dos propiedades son las que permiten detectar a las estrellas de neutrones en forma de púlsares.

La primera detección de un púlsar se produjo en 1986 en Inglaterra, 34 años después de haber sido predichos teóricamente. Aparece como un objeto que emite pulsos de radio de intensidad variable, pero espaciados a intervalos de tiempo regulares: el período, increíblemente preciso, es de 1,33730113 segundos. El fenómeno fue interpretado como una estrella de neutrones cuyas líneas de campo magnético aceleran los electrones a lo largo del eje magnético, causando la emisión de un rayo de ondas de radio que rotan con la estrella y producen un pulso cuando el rayo intercepta la línea de Visión del observador.

Desde entonces se han descubierto otros varios púlsares y se ha encontrado que algunos de ellos no sólo emiten en radio, sino también en frecuencias más altas como rayos x y y. Se conocen actualmente más de 300 púlsares, situados mayormente en el plano galáctico, a unos pocos kpc del Sol. Los lugares con más posibilidades para encontrar púlsares son los remanentes de supernova.

La famosa Nebulosa del Cangrejo es el remanente de la supernova de 1054 y contiene efectivamente el púlsar del Cangrejo. Debido a su reciente formación es uno de los que rotan más rápido: da 33 vueltas por segundo. Podemos predecir con facilidad, que la velocidad de rotación de un púlsar disminuirá lentamente con el tiempo, de acuerdo a la velocidad con que disipa energía. Por eso los púlsares más jóvenes rotan más rápido que los viejos. Sus períodos van de 0,006 a 0,03 segundos hasta 4,3 segundos. Cuando la velocidad de rotación se hace pequeña, el mecanismo del púlsar no sirve: su vida promedio es de unos pocos millones de años.

Hay otro efecto que contribuye a la modificación de la velocidad de rotación pero de manera más abrupta: son los “glitches”, que disminuyen el período de rotación una parte en un millón en pocos días. Se interpreta como sismos estelares debido a inestabilidades en la corteza o el núcleo de la estrella de neutrones. Estos fenómenos son muy útiles para estudiar la estructura interna de los púlsares, pero sólo aparecen durante unos pocos pulsos.

El púlsar de la supernova de 1987 trajo muchas sorpresas. Apareció antes de lo esperado y su rotación era extremadamente veloz, su período de 0,5 milisegundos era de lejos el más corto que se conocía. Todavía los científicos encuentran entretenimiento en este objeto.

 Aunque la detección de púlsares en los remanentes de supernovas se ha hecho difícil y rara, hay un fenómeno más extendido que permite descubrir muchos de estos objetos: las fuentes compactas de rayos x. En 1971, a partir del lanzamiento del satélite astronómico Uhuru, se descubrieron fuentes galácticas emisoras de un fuerte flujo de rayos x. La fuente llamada Centauro x-3, por ejemplo, tiene una luminosidad en rayos x 10 veces mayor que la luminosidad total del Sol.

Se eclipsa cada 2,087 días, lo que demuestra que la fuente de rayos X está en movimiento orbital alrededor de un objeto más masivo. Esta fuente es parte de un sistema binario formado por la estrella de neutrones y una estrella gigante. La primera atrae el viento estelar de la segunda y convierte la energía gravitatoria del gas en rayos x.

Este tipo de púlsares binarios proveen una de las pruebas de la teoría de la relatividad que predice que un cuerpo masivo acelerado radiará energía en forma de ondas gravitatorias. La disipación de energía de esta forma causa el temblor de la órbita y en consecuencia una lenta disminución del período orbital del púlsar a lo largo del tiempo. Las predicciones teóricas de Einstein concuerdan muy bien con las observaciones del periodo orbital de PSR 1913+16, que está disminuyendo unos 76 milisegundo por año.

Fuente Consultada:Notas Celestes de Carmen Nuñez

Estrellas Explosivas Novas y Supernovas Muerte Estelar Evolucion

Estrellas explosivas: novas y supernovas

Cuenta la leyenda que Hiparco se decidió a confeccionar su catálogo cuan do apareció una estrella nueva en la constelación zodiacal de Escorpio. Su objetivo era construir un sistema de movimientos planetarios y es probable que la observación de los planetas noche tras noche lo llevara a memo rizar las posiciones de las estrellas más brillantes, especialmente las que se encontraban cercanas a la franja del zodíaco.

La filosofía aristotélica vigente en ese momento suponía al cielo perfecto e inalterable. Entonces es posible imaginarse el asombro del astrónomo griego ante la sorprendente aparición.  Algunos historiadores consideran que Hiparco observó en realidad un cometa y no una estrella nueva. Pero dado que en la actualidad se observan algunas decenas de novas por año por galaxia es llamativo que no se hubieran observado con anterioridad y que incluso con posterioridad a Hiparco (hasta 20 siglos después!) no se observara ninguna en occidente.

La siguiente observación de una nova en Europa fue realizada por Tycho Brahe en 1572. A él se debe el término nova (del latín, nova stella ) e indica la idea original sobre estos objetos: de repente aparecía una estrella donde previamente no se había observado. Para descubrir una nueva estrella hay que ser un experto observador del cielo, como hemos mencionado, durante siglos se les prestó muy poca atención a los componentes del paisaje celeste que no fueran los planetas, por lo tanto si la nova aparecía en una constelación lejana al zodíaco muy probablemente pasara inadvertida.

También hay que considerar la fuerza de la teoría aristotélica: cualquier cambio en los cielos inmutables era imposible. La información sobre cualquier cambio celeste podía convertirse en tm sacrilegio y es muy probable que quien lo observara no lo hiciera público para no arriesgarse a ser tratado de loco, ciego o mentiroso. Pero afortunadamente, durante el período que va de la época de Hiparco hasta el año 1500 los chinos observaron cuidadosamente el cielo y registraron todos los cambios detectados. En la época antigua y medieval reportaron la aparición de cinco estrellas brillantes (en los años 185, 393, 1006, 1054 y 1181). La de 1006 fue por lo menos 200 veces más brillante que Venus, de manera que ni siquiera los desinteresados europeos pudieron ignorarla

Luego de Tycho, el siguiente en observar una nova fue un astrónomo alemán, F. Fabricio en 1596, y en 1604 lo hizo Kepler. Todas estas observaciones coincidían en que aparecía una estrella muy brillante donde previamente no se había observado nada y este brillo disminuía lentamente hasta desaparecer.

En la actualidad sabemos que lo que antiguamente se llamaba nova corresponde en realidad a dos tipos de objetos: novas y supernovas. Al igual que las novas, las supernovas son estrellas eruptivas o explosivas, pero se distinguen de aquéllas en que la cantidad de energía liberada es mucho mayor y además, en el caso de las novas, sólo aparecen afectadas por la explosión las capas exteriores, mientras que la explosión de una supernova afecta toda la estrella. Aún las más luminosas como Nova Cygni 1975, brillan 1.000 veces menos que las supernovas.

Novas: Estas estrellas se clasifican en novas, que ganan más de 10 magnitudes en la explosión, y novas enanas, que sólo aumentan su brillo unas pocas magnitudes. Algunas han explotado sólo una vez desde que fueron observadas, pero se cree que son recurrentes cada 10.000 o 100.000 años. Las novas recurrentes, menos energéticas, experimentan explosiones cada 10 a 100 años.

La observación de varias post-novas a mediados de este siglo demostró que muchas de ellas son miembros de sistemas binarios super próximos en los que una de las estrellas es una enana blanca y la otra una estrella fría (por ejemplo una gigante roja). Cuando la estrella ínicialmente menos masiva comienza a expandirse para formar una gigante roja, etapa que se acelera al aumentar su masa con la que se desprende de su compañera, sus capas exteriores se acercan tanto a la enana blanca que parte de su envoltura queda atrapada en el campo gravitatorio de ésta, formando lo que se llama un disco de acreción.

Tal nombre se debe a que, debido a colisiones entre las partículas del disco, éste pierde energía y algunas partes caen sobre la enana blanca, que gana así cierta masa en un proceso llamado acreción. La gran gravedad superficial de la enana blanca comprime esta masa formada esencialmente de hidrógeno, y la calienta. La temperatura se hace tan alta que comienza la fusión de este hidrógeno, lo que calienta aún más la superficie y se inicia la fusión en el disco de acreción, produciéndose un enorme destello de luz, y las capas superiores del disco son arrojadas lejos de la influencia gravitatoria de la enana blanca. Este destello de luz es lo que vemos desde la Tierra en forma de nova y la parte del disco de acreción impulsada hacia el exterior es la nube de gas y polvo que se observa alrededor de la post-nova.

El proceso de fusión disminuye gradualmente, pero el ciclo recomienza porque la compañera de la enana blanca sigue perdiendo masa y esto reconstruye el disco de acreción. De esta forma el fenómeno de nova puede repetirse muchas veces antes de que la supergigante finalice su expansión y se transforme ella misma en enana blanca.

Por lo visto, las condiciones necesarias para la formación de una nova son entonces bastante especiales, y muy pocas estrellas de nuestra galaxia las satisfarán. El Sol, como hemos visto, se transformará en enana blanca. Pero como no tiene compañera no será una nova.

Supernovas:El fenómeno de supernova es una explosión fenomenal que involucra la mayor parte del material de una estrella y determina el fin de la evolución de ciertos objetos estelares. Se supone que la mayoría de las supernovas de nuestra galaxia son indetectables debido a la extinción causada por el polvo interestelar. Actualmente se cree que las observaciones chinas de 1054 y las de Tycho y Kepler se trataban de supernovas. La de Kepler, en 1604, fue la última detectada en nuestra galaxia.

Hay esencialmente dos tipos de supernovas: a) las tipo I resultan de la explosión de estrellas viejas, de masa relativamente pequeña y pobres en hidrógeno pero ricas en elementos pesados, tal como corresponde a una fase avanzada de evolución; su composición indica que se trata de enanas blancas. b) Las tipo II son explosiones de estrellas masivas, también al final de su evolución, pero en una fase menos terminal que las de tipo 1; son ricas en hidrógeno y presumiblemente están en la etapa de supergigante roja.

En su máximo de luz, el brillo producido por las supernovas aumenta unas 15 magnitudes; las tipo 1 son casi tres veces más luminosas que las tipo II. Luego el brillo disminuye unas 304 magnitudes durante los primeros días y durante varios meses decrece casi exponencialmente.

La energía liberada durante el corto tiempo de la explosión es equivalente a la que irradiará el Sol durante 9 mil millones de años (recordemos que la edad actual del Sol es de unos 4,5 mil millones de años) o a la explosión simultánea de 1028 bombas de hidrógeno de 10 metagones cada una y la materia expulsada, alrededor de 5 M0,puede alcanzar velocidades de 36 x 106 km/h. Las supernovas de tipo 1 pueden alcanzar una magnitud absoluta de -18,6, es decir 2.500 millones de veces la luminosidad del Sol o unas 100 veces más brillantes que la luz integrada de toda la galaxia. Según el tipo, la masa eyectada puede ser de 1 a 10 M0, lo que en algunos casos es la masa total de la estrella y, por lo tanto, no queda nada después de la explosión. A partir del descubrimiento de los púlsares (estrellas de neutrones de muy rápida rotación) en 1968, se sabe que después de la explosión puede quedar un objeto extremadamente denso. Este objeto, que es el núcleo de la estrella, está formado exclusivamente por neutrones.

Los mecanismos responsables de estas explosiones no se conocen todavía con certeza. La mayoría de las teorías consideran que la energía liberada por la explosión es principalmente de origen nuclear, en particular la fotodesintegración del Fe. Esta es la etapa final en la cadena de reacciones nucleares que ocurren durante la vida de las estrellas de unas 10 M0. Las estrellas con masas necesarias para terminar como supernovas de tipo 1 son por lo menos 10 veces más numerosas que las estrellas más masivas que dan origen a las supernovas tipo II. Por lo tanto sería razonable suponer que se observarán 10 veces más supernovas de tipo 1 que de tipo II. Sin embargo no es así: los dos tipos se observan con la misma frecuencia. Por lo tanto hay que concluir que no todas las estrellas de poca masa terminan como supernovas y en consecuencia, que se necesitan ciertas condiciones especiales para que este fenómeno ocurra.

La pre-supernova de tipo II tiene una estructura de cáscara como una cebolla. A medida que descendemos de la capa superficial de H se encuentran capas de elementos de mayor masa atómica. Estas capas son producto de las distintas fases de la nucleosíntesis que han ocurrido durante la vida de la estrella. Las reacciones que originan los elementos más pesados se ordenan de acuerdo a la temperatura. Los aumentos de temperatura ocurrieron alternándose con contracciones gravitatorias. El centro de la supergigante que explotará como supernova está compuesto por una mezcla de núcleos de Fe y otros núcleos con números atómicos entre 50 y 60. Estos son los elementos con mayor energía de ligadura. Por lo tanto no se puede extraer más energía de ellos. Cualquier cambio nuclear ulterior con estos elementos, tanto si es fusión para dar elementos más complicados como si es fisión para dar núcleos menos complicados, no liberará energía sino que la absorberá.

El núcleo estelar de hierro crece, luchando contra la contracción gravitatoria gracias a la presión de los electrones degenerados. Pero al describir las enanas blancas vimos que hay un limite para esto: cuando la masa del núcleo ha alcanzado el límite de Chandrasekhar (1,4 M0), la presión de los electrones no alcanza para evitar la contracción y la estrella colapsa. En ese momento, todos los productos del proceso de nucleosíntesis se han aniquilado, el gas está formado ahora por neutrones, protones y electrones libres.

Pero éstos últimos experimentan un gran aumento de energía al comprimirse, su energía se hace mayor que la necesaria para transformar un protón en neutrón y así son absorbidos por los protones. Privado de la componente más significativa de presión, el núcleo estelar colapsa a un ritmo acelerado. La distancia entre neutrones es ahora muy pequeña (del tamaño del núcleo atómico, -fermi) y la estrella se ha transformado en una estrella de neutrones. Desde el inicio del colapso se requieren sólo unos pocos minutos para alcanza este estado.

Al comenzar el colapso del núcleo, las capas exteriores de la estrella, donde están ocurriendo algunas reacciones nucleares, caen arrastra das por él. Los gases se comprimen rápidamente y aumentan su temperatura. La velocidad de las reacciones nucleares aumenta notablemente, la gran cantidad de energía producida origina inestabilidades y, finalmente, la explosión de las capas exteriores.

Las supernovas de tipo 1 son parte de un sistema binario formado por una supergigante roja y una enana blanca, como el que da origen a las no vas. Sin embargo en este caso la masa de alguna de las componentes o d ambas es mayor que en el caso de la nova. En esta situación, la enana blanca puede ganar más masa y superar el límite de Chandrasekhar. Entonces sufre un colapso y comprime muy fuertemente los núcleos de carbono y oxígeno en su interior, creando las condiciones para una fusión con tal liberación de energía que su resultado es una explosión de supernova. Probablemente éste fue el caso de las supernovas de Tycho y Kepler ya que en ninguno de los dos casos se ha detectado estrellas de neutrones en las posiciones correspondientes.

Incluso mucho tiempo después de la explosión las supernovas se revelar por sus efectos sobre el medio interestelar. El remanente joven de la supernova aparece como una gran burbuja que emite radiación en todo el espectro y se expande a una velocidad de 10.000 km/seg. A medida que lo hace empuja al gas interestelar y se va frenando. Después de unos cientos de años la cáscara se enfría y el remanente se desintegra en el medio circundante Los remanentes son antigüedades astronómicas muy valiosas, capaces d revelar información sobre la explosión, la evolución posterior y la estructura y composición del medio interestelar.

Las supernovas son uno de los contribuyentes más importantes a la evolución de la materia galáctica. No sólo transmiten al medio interestelar energía térmica y cinética sino que también la enriquecen con elementos pesados de la nucleosíntesis estelar. El interés por las supernovas de los astrónomos interesados en la evolución estelar y el medio interestelar ha aumentado notablemente, dado que se piensa que podrían ser el detonante del proceso de formación de nuevas estrellas.

La última observación de una explosión de supernova ocurrió en 1987 en la Gran Nube de Magallanes. Miles de investigadores renovaron su interés y en los últimos años se han realizado importantísimos avances en nuestra comprensión de estos fenómenos. Esta supernova ha proporcionado la posibilidad de realizar la medición de distancia más precisa que se haya hecho para un objeto fuera de nuestra galaxia. El remanente de SN 1987A (como se denomina) está a 1,60 x 105 años luz, con una certeza de ±5%. Un anillo hecho del material eyectado por el progenitor de la supernova en su fase de supergigante, ya rodeaba a la estrella unos 5.000 años antes de la explosión, pero sólo se hizo visible cuando se calentó hasta unos 20.000 0K como consecuencia de la misma. Si ese anillo fuera perpendicular a la línea de la visión, se hubiera iluminado todo a la vez. Sin embargo, como está inclinado unos 450 respecto de esta posición, distintas partes se encuentran a distancias diferentes de nosotros.

La parte más cercana pareció encenderse tres meses después de la explosión, mientras que la más lejana permaneció oscura cerca de un año más. Esta diferencia indica que el diámetro del anillo es de 1,3 x 1013 km. La medición del diámetro angular fue realizada por la estación orbital Hubble y es de 1,66 segundos de arco.

Esencialmente, toda la energía cinética del núcleo que colapsa se convierte en una onda de choque que, al encontrar las capas exteriores que están colapsando, las hace rebotar y cambiar de dirección. Este proceso se ve favorecido por la gran cantidad de neutrinos emitidos por la estrella de neutrones que se está creando.

La luz puede ser emitida sólo cuando la onda llega a la capa más externa. En SN 1987A, la onda de choque demoró dos horas en atravesar toda la estrella. Los pocos (pero muy preciados) neutrinos detectados poseían características acordes con las predicciones teóricas —sus cantidades, energías y el intervalo de tiempo en que llegaron a la Tierra—, lo cual aumenta la credibilidad en los modelos.

El 99% de la energía liberada llega de esta forma, en los neutrinos que pueden escapar de la estrella mucho más rápido que los fotones de luz. Estas observaciones permiten abrigar esperanzas de observar más eventos de supernova en la medida en que mejoren los detectores de neutrinos. Se estima que los mismos ocurren cada 10 o 100 años, especialmente en las regiones centrales de nuestra galaxia, pero permanecen ocultos por el material interestelar que opaca la luz.

Si las predicciones teóricas respecto de los neutrinos de supernovas son tan precisas, ¿por qué hay una discrepancia tan grande entre las observaciones y las predicciones respecto de los neutrinos solares? Tal vez, más observaciones de supernovas ayuden a resolver este problema.

FORMACIÓN DE LOS ELEMENTOS QUÍMICOS: El aumento de presión y temperatura, después de producirse los primeros colapsos de la estrella, posibilita la fusión de núcleos de helio para formar uno de carbono. La persistencia de estas condiciones hará que los átomos de carbono se fusionen con otros para constituir otros más complejos. Así, el carbono, al fusionarse con un núcleo de deuterio, forma uno de nitrógeno, y al hacerlo con un núcleo de helio, constituye uno de oxígeno. A través de reacciones similares se forma el resto de los elementos químicos, siendo necesarias condiciones más extremas: en general, cuanto mayor es el número atómico (Z), mayor presión y temperatura se requieren para la formación.

Ciertas características de la estructura interna de los núcleos de los elementos alteran la proporción que sería previsible: más abundantes los de menor número atómico. No obstante, en muchos casos, los átomos de los elementos químicos muy pesados se descomponen espontáneamente, modificando las proporciones que podrían calcularse.

¿Sabían que el átomo de carbono, debido a su mayor estabilidad, es el más abundante del Universo después del hidrógeno, el helio y el neón? La abundancia del carbono y su característica de generar otros elementos biogénicos son datos de gran importancia para entender la formación de moléculas orgánicas en el Universo y la aparición de vida sobre la Tierra. Es interesante, además, conocer que la abundancia relativa de hidrógeno, nitrógeno, oxígeno, carbono, fósforo y azufre es casi idéntica a la que se encuentra en la materia viva.

SUPERNOVAS INQUIETANTES
Al igual que los seres vivos, las estrellas nacen, viven y murieron Se forman a partir de una nube de gas, encienden sus hornos nucleares, irradian su luz durante millones de milenios y después se apagan colapsan y desaparecen. Una de las formas que tiene de morir es la supernova. Pero para llegar a ese final explosivo el astro tiene que tener por lo menos una masa equivalente a la de tres soles.

La supernova también ocurre cuando la estrella ha consumido casi todas sus fuentes de energía. Entonces dos fuerzas entran en una lucha crítica. La declinante fusión nuclear no puede ya compensar la fuerza de gravitación y esta hace que el astro comience a hundirse sobre sí mismo. Las capas exteriores se precipitan hacia el núcleo en un cataclismo gigantesco que origina un rápido sobrecalentamiento de la materia, proceso que culmina con la explosión que ya hemos descrito.

supernova

La supernova de la Galaxia del Cigarro, que se encuentra a alrededor de 12 millones de años luz de la Tierra

Las supernovas no son fenómenos frecuentes. En grandes sistemas estelares, como la Vía Láctea, se produce una cada siglo. Por esta razón, no son muchas las que el hombre ha podido presenciar en su brevísima existencia como especie.

En el año 1006 apareció una supernova en los cielos del hemisferio sur. En su apogeo brillaba tanto como el cuarto de luna y su luz proyectaba sombras sobre la Tierra. Fue visible durante dos semanas en pleno día, y durante dos años por la noche.

El 4 de julio de 1054, los astrónomos chinos registraron la aparición de una “estrella intrusa”. Su brillo era de tal magnitud que también resultaba visible de día. Pronto se transformó en uno de los objetos más notorios del firmamento, al que únicamente el sol y la luna superaban en brillo. Se dejó ver durante dos meses y después comenzó a apagarse paulatinamente hasta desaparecer por completo.

Cuando los astrónomos contemporáneos dirigieron sus telescopios hacia la región del cielo donde hace 900 años había aparecido la “estrella intrusa”, encontraron un extraño objeto al que se dio el nombre de Nebulosa del Cangrejo. Es una nube de gas en rápida expansión que sólo pudo originarse a partir de un estallido titánico. Los cálculos indican que nueve siglos atrás toda esa masa de gas debió haber estado comprimida en un volumen pequeño.

Se comprobó, de esa forma, que la mencionada nebulosa no era sino la supernova observada por los astrónomos chinos a comienzos de este milenio, que continúa explotando. El estallido ocurrió, en realidad 6 mil años antes de que su luz llegara a la Tierra y fuera percibida por los hombres.

La última supernova observada en la Vía Láctea fue registrada por el célebre astrónomo y matemático Johannes Kepler,en 1604, antes de la invención del telescopio. Desde entonces el hombre no había tenido ocasión de usar sus modernos instrumentos astronómicos para estudiar una supernova cercana.

Pero a comienzos de 1987, un científico canadiense descubrió desde el Observatorio de Las Campanas, en el norte de Chile, una supernova muy próxima a la Tierra, situada en la Gran Nube de Magallanes, que es una galaxia satélite de la nuestra.

Esta espectacular supernova, bautizada como Shelton 1987 A se hizo visible a simple vista. Ocurrió en realidad hace 170 mil años, es decir, antes de que en la Tierra se irguiera el hombre de Neandertal.

Así, por primera vez los astrónomos han podido seguir el curso evolutivo de una supernova con telescopios poderosos y modernos La supernova es desde luego un fenómeno inquietante. Es posible que el hombre llegue a auscultar las estrellas cercanas para determinar cuales de ellas amenazan con incurrir en esos estallidos catastróficos.

La teoría predice que a las elevadas temperaturas que alcanza el núcleo del astro que está por explotar, se producen, entre otras partículas, los fantasmales y casi inasibles neutrinos. Estos carecen de masa, se mueven a la velocidad de la luz, atraviesan la Tierra con la misma facilidad con que el agua pasa a través de un colador, y rara vez se detienen para interactuar con otras partículas.

El descubrimiento de Shelton 1987 A, ha ayudado a comprobar la teoría. Como resultado de esta supernova, la Tierra está recibiendo una lluvia de  neutrinos que se han captado en detectores especiales instalados en minas subterráneas, en los Estados Unido, Europa Japón y la Unión Soviética.

Cuando se perfeccionen estos detectores y se construyan incluso telescopios de neutrinos, el hombre estará en condiciones de escudriñar  en los núcleos de las estrellas que presenten gigantismo rojo I H acuerdo con las cantidades de neutrinos que éstas emitan será posible predecir con bastante exactitud y antelación cualquiera amenaza cercana de supernova que pudiera sumergir a la Tierra en un peligroso baño de radiación.

Fuente Consultada: Notas Celestes de Carmen Nuñez

Muerte de las Estrella Enanas Blancas Gigantes Rojas Vida y Evolucion

ESTRELLAS MORIBUNDAS: Enanas blancas

Cuando la estrella agota su combustible no tiene con qué luchar contra la contracción gravitatoria, por lo que entra en colapso y se convierte en enana blanca. Sin embargo, la compresión que puede sufrir la materia tiene un limite dado por el llamado principio de exclusión de Pauli.

Las altas densidades observadas en las enanas blancas son difíciles de encontrar en otros cuerpos celestes o en la Tierra. En verdad, la posibilidad de existencia de materia más densa que la observada en el sistema solar no fue considerada hasta que se desarrolló la mecánica cuántica. La comprensión de la naturaleza atómica de la materia permitió considerar la existencia de materia degenerada, mucho más concentrada que la materia ordinaria.

El Sol tiene una densidad promedio semejante a la del agua: cerca de 1 gr/cm3 y se comporta como un gas, con sus partículas moviéndose libremente. El H en su interior, a una temperatura de 15 millones de grados, está en su mayoría ionizado. Los electrones se han separado de sus núcleos y la alta temperatura reinante les impide acercarse a ellos.

Como consecuencia, 1 cm3 de materia solar ordinaria es esencialmente vacío. Los protones y electrones pueden moverse libremente casi sin chocar entre sí.

En una enana blanca en cambio, una masa como la del Sol puede estar comprimida en un volumen no mayor que el de la Tierra. La densidad asciende a 1.000 kg/cm3. Aun cuando la temperatura ha disminuido por debajo de la temperatura de ionización, los átomos permanecen disociados por la enorme presión de la gravedad.

Las fuerzas gravitatorias actuantes en un cuerpo celeste masivo pueden comprimir su materia hasta un estado de degeneración electrónica y no más, ya que el principio de exclusión impide a dos electrones ocupar el mismo nivel de energía. Este efecto cuántico se llama presión de degeneración electrónica y es el limite que impone la mecánica cuántica a la compresión de un gas de electrones. Esto es lo que ha sucedido en las enanas blancas. Su interior es “frío” (aunque la

 temperatura puede alcanzar hasta un millón de grados) en el sentido de que para mantener a la estrella en equilibrio, las fuerzas autogravítantes no están compensadas por movimientos térmicos como sucede en las estrellas de secuencia principal, sino por la presión ejercida por los electrones degenerados que llegan al limite de compresión. El interior de una enana blanca no está en estado gaseoso sino que es como mi cristal gigante que se enfría lentamente. Las partículas están superpuestas y ya casi no hay espacios vacíos entre ellas. Por lo tanto, su posición y velocidad están determinadas cuánticamente. El principio de exclusión impide que dos partículas ocupen el mismo estado de energía y mientras en un gas ordinario quedan niveles de energía libre (no ocupados por ninguna partícula), los electrones de un gas degenerado ocupan todas las posiciones cuánticamente admisibles.

Las enanas blancas se descubrieron en 1910, aunque entonces no se entendían. Su temperatura superficial es muy alta y su luminosidad anormalmente baja. Esto sólo podía explicarse si su radio era muy pequeño, comparable al radio de la Tierra (recordemos la ley de Stefan: L oc R2T4).

S. Chandrasekhar (nacido en 1910) fue quien elaboró la teoría de una esfera de gas degenerado y este trabajo le valió el Premio Nobel de Física de 1983. Contrariamente a lo que podría suponerse, cuanto más grande es la masa de una enana blanca, menor es su radio. Esto resulta de la necesidad de una presión del gas suficiente para balancear la presión gravitatoria. La masa y el tamaño de una enana blanca están fijos por la composición de la estrella. Los cálculos teóricos indican que si está compuesta esencialmente de H tendrá una masa máxima posible de 5,5 M0. Pero si contiene elementos más pesados llegará sólo a 1,4 M0. Estos valores se conocen como limites de Chartdrasekhar. Una estrella más masiva perdería masa o sufriría una catástrofe antes de transformarse en enana blanca.

Actualmente sólo se han identificado algunos cientos de enanas blancas. Como tienen baja luminosidad intrínseca, sólo pueden observarse aquellas cercanas al sistema solar. Los modelos indican que son la fase evolutiva final de las estrellas de poca masa y, en ese caso, el 10% de las estrellas de nuestra galaxia deberían ser enanas blancas.

Aunque la temperatura central de una enana blanca es menor al millón de grados (compárese con los 15 millones de grados del Sol) su atmósfera es, por lo general, más caliente que la de una estrella de secuencia principal. Los electrones degenerados juegan también un rol muy importante en la determinación de la estructura térmica de la estrella. Esta función es semejante a la de los electrones exteriores de los átomos en los metales ordinarios:

SU capacidad para moverse libremente es responsable de la capacidad de los metales para conducir calor eficientemente. De la misma forma, los electrones degenerados son excelentes conductores de calor en las enanas blancas. En consecuencia, estas estrellas tienen casi la misma temperatura en todo su volumen, son casi isotérmicas. Cerca de la superficie la presión es suficientemente baja y los electrones no están degenerados, entonces las propiedades de la materia son más normales. La temperatura superficial es de unos 10.000°K.

Los espectros de las enanas blancas presentan la sorprendente característica de tener líneas correspondientes a un único elemento. Cerca de 80% de las enanas blancas observadas muestran en sus espectros sólo líneas de absorción de hidrógeno; la mayoría de las restantes tiene sólo líneas de He. El ciclo de contracciones gravitatorias impuestas por su propia evolución, ha purificado las capas exteriores de las enanas blancas más allá de la estratificación observada en las estrellas normales. De la misma forma en que los espectros de las estrellas ordinarias se clasifican en B, A, E y G de acuerdo a su temperatura superficial, los de las enanas blancas se dividen en DB, DA, DF Y DG (D indica dwarf :en inglés enana), correspondientes a temperaturas de 100.000 a 4.000 0K. Las más calientes consumen energía a velocidades tan grandes y evolucionan tan rápidamente que esto nos da la posibilidad de observar a estas estrellas envejecer en el transcurso de unos pocos años.

La evolución de las enanas blancas se ha estudiado intensamente en los últimos años y el modelo aceptado actualmente postula que cerca de 10 millones de años después de su formación, la luminosidad de una enana blanca se ha debilitado hasta un décimo de la solar y su temperatura superficial ha disminuido hasta los 30.000 °K.

La teoría sugiere que a una enana blanca le lleva cerca de mil millones de años enfriarse hasta transformarse en una tibia esfera de gas degenerado. Los cálculos indican que en esta etapa la estrella sufre un último cambio importante: comienza a cristalizarse. A través de su evolución hasta este punto permaneció en estado gaseoso.

A medida que se enfría cada ion del gas comienza a sentir fuerzas eléctricas con sus vecinos, produciendo una fase líquida en la materia. Mientras estas fuerzas comienzan a dominar a mayores distancias, más y más núcleos se unen y forman un cristal. Dicho proceso se debe a la disminución de la temperatura, pero es ayudado por la alta presión que comprime a los núcleos.

Este cambio de estado tiene un efecto importante en las etapas finales de evolución de la estrella. Primero el cambio de liquido a sólido libera energía, pero una vez que se ha cristalizado una fracción importante de su interior, la enana blanca se enfría rápidamente. Como el tiempo necesario para que una enana blanca llegue a la etapa de cristalización se calcula semejante a la edad de nuestra galaxia, se puede estimar la época inicial de formación de estrellas en la Vía Láctea observando las enanas blancas más frías.

Fuente Consultada:Notas Celestes de Carmen Nuñez

Historia de la Estacion Espacial Internacional Objetivos Megaproyecto

UN POCO DE HISTORIA…
Las estaciones espaciales
El hombre ha tenido ya bastantes éxitos en el espacio: ha logrado dar vueltas en torno de la Tierra, ha conquistado la Luna y las sondas con que I legó a Marte y a Venus hablan de su inalterable empeño por proseguirlos. El gran instrumento con que cuenta es su taller en el espacio: las estaciones planetarias.

La construcción de estaciones espaciales habitadas por el hombre, importante etapa en los futuros viajes interplanetario, fue puesta en órbita. Tanto podía funcionar automáticamente como con dotación a bordo. El 23 del mismo mes, el Soyuz y así permaneció durante 5 horas 30 minutos, tiempo durante el cual se cumplió un programa completo de experimentos ecológicos y médico-biológicos que incluía también la producción del propio alimento. Transcurrido ese lapso, retornó a la Tierra.

El 30 de junio del mismo año, el Soyuz 11, tripulado por los cosmonautas Dobrolvski, Volkov y Patsaiev, acoplaron su nave al Salyut y pasaron a su interior, donde permanecieron durante más de tres semanas. Ya en la Tierra, el drama: al abrirse la cápsula, los tres cosmonautas estaban muertos.

El 14 de mayo de 1973, por medio de un impulsor Saturno V, los Estados Unidos pusieron en órbita el laboratorio espacial Skylab 1 no tripulado de 85 toneladas de peso. Averiado al minuto de su lanzamiento, al aumentar peligrosamente la temperatura inicial de la astronave los técnicos de la NASA se abocaron a la tarea de repararlo.

El día 25 del mismo mes y año, los astronautas Conrad, Kerwin y Wwitz, lanzados en una cápsula tipo Apolo, abordaron el Skylab 1 y sobre la parte averiada desplegaron una especie de parasol para hacer descender la temperatura del laboratorio.

Durante 28días los cosmonautas realizaron la mayoría de los experimentos previstos, referidos casi todos ellos a observaciones de la Tierra, el Sol y el espacio sidéreo. Cumplida la misión, retornaron a la Tierra en la cápsula Apolo, Los laboratorios orbitales son plataformas con capacidad para dar albergue a varios tripulantes durante un lapso relativamente largo, y están provistos de los elementos necesarios para el transporte de cosmonautas en viajes de ida y vuelta.

La segunda misión del programa se cumplió en la estación Skylab 3, en condiciones similares a la anterior, el 28 de julio de 1973. Los cosmonautas fueron Bean, Garriott y Lousma, quienes tras instalar un parasol adicional, recargar las cámaras de los telescopios y descubrir un detector de meteoritos junto a la pared de la estación, durante 59 días estudiaron la Tierra y la Luna, en especial las reacciones del organismo durante casi dos meses en un ambiente falto de gravedad. Después de una caminata espacial de 6 hs. 31′, que constituyó un nuevo récord, retornaron a la Tierra el 25 dé septiembre. Su estado físico era excelente.

LA ESTACIÓN ESPACIAL INTERNACIONAL: La exploración y la conquista del espacio es uno de los desafíos más grandes y excitantes emprendidos por el hombre, y la aventura más audaz en la historia de la exploración espacial es, sin duda alguna, la construcción de la Estación Espacial Internacional (ISS).

astronautaEn 1984, el gobierno estadounidense lanzó un programa para la construcción de una es espacial. Los enormes costes que suponían las de estudio y de planificación retrasaron la propia marcha del proyecto, que no adquirió forma hasta que finalizó la Guerra Fría. En 1993, Rusia decidió a aportar la experiencia que había  en la construcción —iniciada en el año 1986— de la estación espacial soviética MIR (paz).

En 1998 se inició  la construcción de la ISS. En primer lugar debían crearse las condiciones técnicas para asegurar una colaboración estrecha. En este sentido, la lanzadera estadounidense emprendió varios viajes a la  MIR y efectuó entre otras cosas, maniobras de acoplamiento. 

El 20 de noviembre de 1998 se instaló el primer componente de la ISS, un módulo de carga y de que se colocó a 350 Km. de distancia de la Tierra. Le siguió ese mismo año una pieza de empalme, que el 12 de julio de 2000 atracó el módulo ruso.

Desde noviembre de aquel mismo año hasta el abril de 2003, la ISS acogió varias tripulaciones internacionales formadas por tres astronautas.

Estos permanecen de cinco a siete meses en el espacio, transcurrido este tiempo, son relevados por nuevas dotaciones. Después de la catástrofe del Columbia ocurrida en 1º de febrero de 2003, la tripulación fija debió reducirse a dos personas por problemas de suministro.

Los estudios que se realizaran en la estación son los siguiente:
1-BIOLOGÍA:
– Respuesta fisiológica al vuelo espacial.
– Salud humana y rendimiento.
– Desarrollo de contramedidas a la microgravedad.
– Investigación general en Biología.

2-CONOCIMIENTO SOBRE LA TIERRA

3-MICROGRAVEDAD
– Ciencia de los Materiales.
– Física de Fluidos
– Ciencia de la Combustión
– Biotecnología
– Física fundamental.

4-CIENCIA ESPACIAL
– La estructura y la evolución del Universo
– Exploración del Sistema Solar
– Conexión Tierra-Sol
– Búsqueda de otros sistemas planetarios.

5-INGENIERÍA Y TECNOLOGÍA
– Sistemas de comunicación espaciales de uso comercial, con énfasis en la mejora de la tecnología de satélites para telefonía personal, y comunicación de vídeo y datos.
– Eficiencia en el uso de la energía, y calidad de agua y aire.
– Técnicas de construcción y funciones de mantenimiento automatizadas.

6-ESTUDIO DE NUEVOS PRODUCTOS

 INFORMACIÓN GENERAL DEL MEGA PROYECTO:

1. La Estación Espacial es la mayor dotación objeto jamás enviado al espacio. Se trata de un centro de investigación que mide 108 m. de largo y 80 m. de ancho. Su peso es de más de 450.000 kg.

2. Orbita a 400 km. sobre la tierra y se puede ver en el cielo nocturno a simple vista. Los científicos pueden estudiar la tierra y su entorno. Pueden ver los cambios que están ocurriendo en la tierra, en el mar, y con nuestro clima.

3. La ISS puede ser visto por la gente en la Tierra. Cuando se haya completado, la ISS será visible a más deL 90 por ciento de la población mundial y dará una vuelta a la Tierra cada 90 minutos.

4. Está siendo alimentada por energía solar. Esta energía es necesaria para alimentar los seis laboratorios y todo el espacio de vida a bordo.

5. La Estación Espacial Internacional fue diseñada y construido con la colaboración de 100.000 personas de 16 naciones desde 1998, y cientos de empresas. El proyecto se inició en 1998.

6. El costo de construir la Estación Espacial Internacional es correcto alrededor de 96 mil millones de dólares.

7. Los primeros miembros de la tripulación permanente, incluidos el astronauta estadounidense Bill Shepherd (que era también el comandante de la ISS) y los cosmonautas rusos Sergei Krikalev, como ingeniero de vuelo y Gidaenko Youri como comandante de la Soyuz. Esta expedición duró 140 días, 23 horas y 30 minutos en órbita.

8. Los vehículos espaciales viajan a la estación para traer y llevar científicos y suministros.

9. Los científicos están estudiando cómo los diferentes fluidos, metales y otros materiales  responden en el espacio sin el efecto de la gravedad. Estos estudios podrían ayudar a comprender mejor los virus, las proteínas y enzimas. Se espera que estos nuevos estudios guiarán algún día a los posibles nuevos tratamientos para muchas enfermedades, incluyendo cáncer. Los científicos también están tratando de lograr una medición más precisa que lo posible en la tierra, las formas más eficientes de producción de materiales, y una comprensión más completa del universo.

10. Alrededor de 160 paseos espaciales fueron necesarios para el montaje y mantenimiento de la Estación Espacial Internacional.

DATOS TÉCNICOS: 

* Inicio de las obras: 1998

* Envergadura: 108,6 m.

* Longitud: 79,9 m.

* Profundidad: 88 m.

*Volumen: 1.140m3

* Masa: 450 toneladas. aprox.

* Altitud de la órbita: Alrededor de 350-450 Km. sobre el nivel del mar.

* Inclinación de la órbita: 51,60 º

* Vuelta a la Tierra: Una cada 90 minutos.

* Velocidad relativa: 29.000 Km./h

* Potencia eléctrica: 110 Kw.

* Superficie de las placas solares: 4.500 m2

* Tripulación fija: 3 personas (2000-2003). 2 personas (desde abril 2003).

* Vuelos a la ISS: 28 (hasta julio de 2006).


Fuente Consultada:
MUNDORAMA – Astronáutica
Maravillas del Siglo XX
El Universo Enciclopedia de la Astronomía y el Espacio Tomo V

Ver: Historia de la Astronáutica

Galaxias Grupo Local Grupo de galaxias mas cercanas Estrellas Via Lactea

Galaxias: Grupo Local – Grupo de Galaxias

MÁS ALLÁ DE LA VÍA LÁCTEA Como ya hemos visto, nuestro sistema estelar presenta un diámetro de 100.000 años-luz y un espesor de 20.000 años-luz en su densa parte central. ¿Contiene la Galaxia la totalidad del universo, de las estrellas, gas y polvo que podemos observar?. La respuesta es “no”, puesto que los astrónomos han descubierto que nuestra Galaxia es sólo una entre muchos millones le galaxias.

Estas otras galaxias se extienden por el espacio en todas direcciones, hasta donde alcanza nuestra vista aun con la ayuda de los más potentes telescopios. Como la Galaxia, todas ellas contienen estrellas y, posiblemente, planetas, así como gas y polvo. No obstante, los únicos planetas que hasta ahora hemos observado han sido sólo los del sistema solar, pero esto no significa que el Sol sea la única estrella del universo que tenga MI sistema planetario.

Significa, exclusivamente, que nuestros telescopios no son aún lo suficiente potentes para detectar otros planetas, si es que en realidad existen. Las incontables galaxias que podemos observar están a tal distancia de nosotros, que aun el diámetro de 100.000 años luz de nuestra propia Galaxia empieza a palidecer por su insignificancia.

Las galaxias más cercanas son visibles sólo desde el hemisferio sur. Se conocen con el nombre de Nubes de Magallanes, así denominadas en recuerdo del gran navegante Fernando de Magallanes, que fue el primero en tomar nota de su existencia durante su viaje alrededor del mundo, hace más de 400 años. Las Nubes de Magallanes parecen trozos desgajados de la Vía Láctea; no obstante, se trata de dos galaxias independientes , a más de 150.000 años-luz de la nuestra. Y, sin embargo, las Nubes de Magallanes son vecinas muy próximas con respecto a la totalidad del universo.

Pertenecen al mismo cúmulo de galaxias que nuestro sistema estelar, al denominado “grupo local”. Este cúmulo contiene por lo menos 35 galaxias, o mas. La Galaxia parece estar situada a un extremo del cúmulo, y cerca del centro se encuentra la galaxia —aparte las Nubes de Magallanes— que puede verse sin telescopio.

GRUPO LOCAL
Grupo Local

“La Vía Láctea es parte de un barrio cósmico más grande –un grupo de más de 35 galaxias conocido como el Grupo Local. Estas galaxias se mueven por el espacio como una sola unidad, unidas por su mutua atracción gravitatoria. El número de galaxias que pertenecen al Grupo Local es incierto, debido a que los astrónomos siguen encontrando nuevos residentes de este barrio galáctico. Por ejemplo, una de las galaxias del Grupo Local fue descubierta en 1997, a unos tres millones de años luz de la Tierra. Esta nueva galaxia es diminuta: sólo contiene un millón de estrellas aproximadamente, comparado con los cientos de miles de millones de la Vía Láctea.”

Dicha galaxia aparece a simple vista una mancha luminosa, tenue y nebulosa, en la constelación de Andrómeda; pero al ser fotografiada mediante un gran telescopio aparece tan nítida, que pueden verse hasta algunas de sus estrellas individuales. Esta galaxia de Andrómeda está a casi dos millones de años-luz de nosotros. La luz que esta noche veremos proveniente de allí empezó su recorrido mucho antes de. que el hombre apareciera sobre la Tierra.

La totalidad del grupo local, que tiene una configuración muy ovalada, ocupa un volumen tan grande, que es difícil encontrar alguna comparación que nos permita imaginar su tamaño. No conocemos sus dimensiones con mucha exactitud, pero parece ser que se extiende sobre una superficie de por lo menos 4,5 millones de años-luz en longitud y la mitad en anchura. Su espesor es del orden de unos 600.000 años-luz.


Al utilizar telescopios para explorar aún más lejos en el espacio, más allá de nuestro grupo local, las distancias llegan a ser inimaginables. Otras galaxias y cúmulos de galaxias, alejados 50 millones y hasta 100 millones de años-luz, son bastante frecuentes. Los astrónomos saben ahora que las galaxias pueden observarse tan lejos como sus telescopios pueden profundizar. Con los más grandes y modernos, equipados con cámaras fotográficas, podemos estudiar galaxias situadas hasta 3.500 millones de años-luz de distancia.


Durante los últimos veinte años se ha introducido un nuevo método para “ver” aún más lejos en el espacio: el radiotelescopio. Estos instrumentos sólo son radiorreceptores muy sensibles con antenas especiales. Su objeto es el de recibir, no la luz, sino las ondas de radio emitidas por las estrellas y por el gas interestelar de nuestra propia Galaxia y de las demás galaxias.

Con los radiotelescopios los astrónomos pueden sondear en el espacio con mucha mayor profundidad que mediante los telescopios ópticos. Estos nuevos instrumentos ayudan al astrónomo a formarse una idea de la totalidad del universo, un universo al que no podemos encontrar límites en la actualidad.

Distancias a las estrellas Mas cercanas Tamaños y Medidas Estrellas

DISTANCIA A LAS ESTRELLAS Y SU TÉCNICA DE MEDICIÓN

LAS DISTANCIAS DE LAS ESTRELLAS En comparación con la inmensidad del espacio, el sistema solar es un pequeñísimo y compacto conjunto de cuerpos celestes. Pero acostumbrados a considerar las distancias de nuestro propio planeta, creemos que el sistema solar es enorme.

Ya no nos sorprende cuando nos damos cuenta de que la distancia de la Tierra al Sol es casi 4.000 veces mayor que la longitud del ecuador terrestre, y que la distancia desde el Sol hasta Plutón equivale a unas 150.000 vueltas alrededor de nuestro planeta. Tales distancias son tan grandes y desproporcionadas con relación a nuestra experiencia diaria, que sólo consiguen confundirnos cuando intentamos expresarlas en kilómetros. Y cuando hablamos de distancias aun mayores, los números en sí resultan demasiado grandes para comprenderlos con facilidad.

Galaxias y estrellas del universo

Por esta razón los astrónomos han tenido que buscar otra unidad de longitud para utilizarla en lugar del kilómetro. Y la más útil que se ha encontrado hasta el momento ha sido la velocidad de la luz, que se desplaza a 300.000 Km./seg, y recorre la distancia del Sol a la Tierra en poco menos de ocho minutos y medio, y del Sol a Plutón en cinco horas y media. Por ello decimos que el Sol está a ocho y medio minutos-luz de la Tierra, y que Plutón se encuentra a cinco y media horas-luz del Sol.

Puesto que la distancia del Sol a Plutón es sólo el radio de la circunferencia del sistema solar, debemos doblar dicha distancia para expresar su diámetro —11 horas-luz—. Pero como muchos cometas se alejan todavía más que la propia órbita de Plutón, podemos decir que la totalidad del sistema solar ocupa por lo menos un espacio de unas 12 horas-luz.

Puesto que un viaje alrededor de la Tierra sólo equivale a un octavo de segundo-luz, podemos darnos cuenta de la inmensidad del sistema solar según nuestros patrones terrestres.

Y, sin embargo, sólo se trata de un pequeño punto en el espacio sideral. La estrella más próxima al Sol está situada no a segundos, minutos y horas-luz del mismo, sino a una distancia de cuatro y medio años-luz. Cuando recordamos que en un año hay casi 9.000 horas, nos damos cuenta de que el diámetro del sistema solar es muy pequeño en comparación con la distancia que nos separa de la estrella más próxima. Si expresamos ambas distancias en kilómetros, obtendremos 12.000 millones de kilómetros para el sistema solar y 40 billones de kilómetros para la estrella más próxima (que es precisamente la alfa de la constelación del Centauro, o a Centauri, visible sólo para los habitantes del hemisferio sur).

Al considerar las distancias de otras estrellas vemos que cuatro y medio años-luz están sólo “a la vuelta de la esquina”. Por ejemplo, de entre las estrellas más brillantes que observamos en el cielo, Sirio está a 9 años-luz y Vega a 26, años-luz; y aun éstas son vecinas próximas. Arturo se encuentra a 36 años-luz, Capella 345 años-luz y Aldebarán a 68 años-luz y todavía no podemos considerarlas lejanas.

Sólo cuando hablamos de estrellas como la Espiga y Antares, a 220 y 520 años-luz, respectivamente, estamos tratando de estrellas realmente lejanas. Sin embargo, no hemos empezado siquiera a agotar la lista de las estrellas brillantes.

Rigel, de la constelación de Orion, se encuentra a 900 años-luz. Esto quiere decir que la luz que de ella nos llegó anoche empezó su viaje hace 900 años. El universo estelar es, por lo tanto, mucho mayor de lo que podemos imaginar cuando casualmente dirigimos nuestra mirada hacia el cielo nocturno. Hemos visto que los planetas constituyen un compacto grupo que sistemáticamente se mueve alrededor del Sol. ¿ Y qué ocurre con las estrellas? ¿Es posible encontrar cierto sistema u organización dentro de ellas? ¿Cómo se mueven, exactamente? ¿Hasta dónde se extienden en el espacio?

Preguntas de este género, que han intrigado a los astrónomos durante miles de años, sólo han podido contestarse a partir del siglo pasado. Desde luego, los hombres que vivían en cavernas se dieron cuenta de que las estrellas parecen conservar sus posiciones relativas. Este hecho permitió a los hombres primitivos agrupar las estrellas según configuraciones que les recordaban vagamente a los legendarios héroes y heroínas o a los animales salvajes que conocían.

Pero estos grupos, o constelaciones, sólo presentan tales aspectos al ser vistos por un observador terrestre. No se trata de grupos de estrellas que estén realmente cerca unas de otras en el espacio; tan sólo parecen estarlo. Cuando los astrónomos descubrieron que las estrellas también se mueven y aprendieron a medir las distancias estelares, empezaron a reconocer cierta organización en el sistema de las estrellas.

LAS DIEZ ESTRELLAS MAS CERCANAS

Próxima Centauri Distancia: 4,2 AL
Rigel Kentaurus Distancia: 4,3 AL
Estrella de Barnard Distancia: 5,9 AL
Wolf 359 Distancia: 7,7 AL
Lalande 21185 Distancia: 8,26 AL
Luyten 726-8A y B Distancia: 8,73 AL
Sirio A y B Distancia: 8,6 AL
Ross 154 Distancia: 9,693 AL
Ross 248 Distancia: 10,32 AL
Epsilon Eridani Distancia: 10,5 AL

LA MEDICIÓN DE LAS DISTANCIAS:

Cuando las estrellas cuyas distancias queremos medir son las más próximas, se emplea un recurso de la Trigonometría que se llama paralaje. Pongamos un ejemplo práctico. Si nos encontramos en un campo y vemos a mediana distancia un poste de telégrafo, al balancear nuestra cabeza podremos ver cómo el poste “se mueve” contra el fondo del horizonte, que está mucho más lejos. Desde luego que nos resultaría más fácil medir la distancia que nos separa utilizando una cinta de medición, pero ¿y si entre nosotros y el poste hubiese un río caudaloso?

En ese caso podríamos aplicar un artificio que consiste en medir el segmento aparente que se forma en el horizonte cuando, al movernos, el palo se traslada sobre él, medir la distancia real entre los dos puntos que marcan los extremos de nuestro movimiento y, finalmente, tomar los ángulos que quedan determinados ente el poste y nuestras dos posiciones sucesivas.

Esto es precisamente lo que hacen los astrónomos. Para ellos, con mover un poco el cuerpo, como hacíamos nosotros en el campo, no es suficiente, porque no hay punto de comparación entre las magnitudes de uno y otro ejemplo. Se pensó primero en trasladarse a dos puntos alejados de la Tierra y, desde allí, efectuar observaciones sincronizadas, es decir, en el mismo momento, pero también estas dimensiones resultaron escasas.

Finalmente, se pensó que lo ideal sería aprovechar que nuestro planeta se mueve en torno al Sol. De esta forma, se podría realizar una observación en enero, por ejemplo, y otra en julio (medio año después) con lo que el “balanceo” de nuestra prueba inicial pasaría a ser de unos 304 millones.de kilómetros (304.000.000.000 metros). ¡Ahora las cosas cambian! Bueno … no tanto. A pesar de esta “trampa”, la lejanía de las estrellas es tal que el ángulo determinado por las dos posiciones extremas de la Tierra y la más próxima de ellas es de 1 segundo y medio (o sea el ángulo que se forma entre los extremos de una llave de valija y un punto distante a seis kilómetros de ella).

De todos modos, podemos quedarnos tranquilos, porque este valor, por pequeño que sea, puede ser perfectamente captado con los instrumentos de precisión con que cuenta nuestra sociedad actual. Se han efectuado inclusive paralajes de estrellas cuyo ángulo es inferior a la décima de segundo. La distancia de las estrellas más lejanas es mucho más difícil de determinar, ya que en ellas no se puede aplicar el método de paralajes trigonométricos.

Pero, todo tiene solución. Partamos de la base que la luminosidad de los cuerpos celestes disminuye en la medida que se encuentren más lejos. Estoes fácilmente demostrable: mayor luz dará un farol que está al lado nuestro, que otro igual ubicado a una cuadra de distancia.

Lo que nos resta hacer ahora es ver cómo podemos aplicar esto en el espacio sideral. Empecemos por aclarar que las estrellas no son “faroles iguales”, lo que nos complica unpoco las cosas, ya que debemos averiguar no sólo su luminosidad absoluta, sino también la aparente.

Entendemos por absoluta, toda la luz que da; y aparente, sólo la que llega a nosotros.

La aparente se mide con facilidad por intermedio de placas fotosensibles. Para la absoluta, en cambio, las cosas se hacen un poco más complicadas. Es necesario que descompongamos la luz que nos mandan por medio de un prisma. Obtendremos así un espectro, que no es otra cosa que la luz distribuida de acuerdo con sus colores componentes en una escala que va de! ultravioleta al infrarrojo. De este gráfico se puede inferir la luminosidad absoluta de un cuerpo a partir de su temperatura intrínseca.

Después -ya obtenidos los datos de luminosidad absoluta y relativa- no queda otra cosa que aplicar fórmulas constantes que nos dan la distancia desde la Tierra hasta la estrella.

 

esquema del paralaje de una estrella

esquema del paralaje de una estrella

Fuente Consultada:
Secretos del Cosmos Tomo 2 (Salvat)
Enciclopedia Ciencia Joven -Distancia a las Estrellas  – Fasc. N°12 Editorial Cuántica

La Maquina de Dios Acelerador de Particulas Mas Grande del Mundo

La Máquina de Dios Acelerador de
Partículas Mas Grande del Mundo

ACELERADOR DE PARTÍCULAS: Los aceleradores de partículas son máquinas de grandes proporciones que aceleran partículas subatómicas a altísimas velocidades. Luego de movilizarse a gran velocidad las partículas abandonan la máquina para chocar contra el blanco. Dichas partículas o bien fragmentan los átomos del blanco, o bien resultan incorporadas por esos átomos, dando lugar a la formación de átomos más grandes.

Los aceleradores de partículas son las principales herramientas que los físicos nucleares usan para el estudio de la estructura del núcleo del átomo. Normalmente el núcleo contiene varios tipos de partículas, y muchas otras pueden producirse bombardeando los blancos con partículas aceleradas.

El estudio de las partículas elementales o partículas fundamentales, es decir de las partes más simples de la materia, se denomina física de la partículas o física de alta energía. Las partículas alcanzan una energía elevadísima cuando se las acelera en estos aparatos. Los físicos esperan alcanzar una comprensión integral de la naturaleza de la materia ,fisionando el núcleo de los átomos o creando de este modo núcleos nuevos. La mayoría de los aceleradores de partículas son enormes máquinas.

El conducto donde las partículas se aceleran puede ser recto o circular. El acelerador lineal de la Universidad de Stanford, en California, tiene un tubo central recto de 3,2 kilómetros (2 millas) de largo. En los laboratorios de la CERN (European Organization for Nuclear Research), en las afueras de Ginebra, Suiza, se proyecta un acelerador circular de 2,2 kilómetros de diámetro (1,4 millas). A su término quedará a horcajadas sobre el límite con Francia.

El poder de los aceleradores se mide en ELECTRON-VOLTIOS (eV) que es la cantidad de energía infundida a las partículas para acelerarías. Pero las grandes máquinas son tan poderosas que su energía se mide en GeV (gigaelectronvoltio). Un GeV es igual a 1000 millones de eV. Más tarde, se aumentará la potencia de la máquina del CERN y con el tiempo podrá alcanzar los 1000 GeV. Cada máquina puede consumir tanta electricidad como una ciudad entera!

El acelerador de partículas más poderoso jamás construido podría hacer algunos descubrimientos notables, como confirmar la existencia de la materia invisible o de las dimensiones espaciales adicionales, una vez que empiece a funcionar en agosto.

La “Máquina de Dios”, como se ha dado en llamar al Gran Colisionador de Hadrones (LHC), tiene por también por finalidad la de desentrañar los enigmas del origen del Universo, es decir, cómo fue que se creó la materia y qué pasó con la antimateria en el momento del Big Bang. Considerado el experimento científico más ambicioso de la historia, el LHC intentará identificar con total certeza los ladrillos fundamentales con que se construyeron las estrellas, los planetas y hasta los seres humanos.

QUE ES UN ACELERADOR DE PARTÍCULAS? Estas enormes máquinas aceleran partículas cargadas (iones) mediante campos electromagnéticos en un tubo hueco en el que se ha hecho el vacío, y finalmente hacen colisionar cada ion con un blanco estacionario u otra partícula en movimiento. Los científicos analizan los resultados de las colisiones e intentan determinar las interacciones que rigen el mundo subatómico. (Generalmente, el punto de colisión está situado en una cámara de burbujas, un dispositivo que permite observar las trayectorias de partículas ionizantes como líneas de minúsculas burbujas en una cámara llena de líquido.)

Las trayectorias de las partículas aceleradas pueden ser rectas, espirales o circulares. Tanto el ciclotrón como el sincrotrón utilizan un campo magnético para controlar las trayectorias de las partículas. Aunque hacer colisionar las partículas unas contra otras puede parecer inicialmente un método un tanto extraño para estudiarlas, los aceleradores de partículas han permitido a los científicos aprender más sobre el mundo subatómico que ningún otro dispositivo.

El primer acelerador circular se llamó: ciclotrón. El físico estadounidense Ernest O. Lawrence fue galardonado con el Premio Nobel de Física en 1939 por el invento y desarrollo del ciclotrón, un dispositivo para acelerar partículas subatómicas. Lawrence desarrolló el ciclotrón, el primer acelerador circular. Es una especie de acelerador lineal arrollado en una espiral. En vez de tener muchos tubos, la máquina sólo tiene dos cámaras de vacío huecas, llamadasdes, cuya forma es la de dos D mayúsculas opuestas entre sí.

Un campo magnético producido por un potente electroimán hace que las partículas se muevan en una trayectoria curva. Las partículas cargadas se aceleran cada vez que atraviesan el hueco entre las des. A medida que las partículas acumulan energía, se mueven en espiral hacia el borde externo del acelerador, por donde acaban saliendo.

Según la fórmula de Einstein E = mc² la masa es un tipo de energía. Esto significa que la energía puede transformarse en masa y viceversa. En los aceleradores de partículas ésto es utilizado para transformar energía cinética en masa, en una colisión de partículas. De este modo, nuevas partículas pueden ser creadas en las colisiones de partículas con altas velocidades relativas.  En la búsqueda de nuevas partículas pesadas es importante ser capaz de acelerar partículas a altas energías. A mayor energía de las partículas originales, partículas más pesadas pueden ser creadas en las colisiones de partículas.

HISTORIA:
PRIMEROS PASOS Y AVANCES CON LA APLICACIÓN DE ESTA MAQUINA…

Organización Europea para la Investigación Nuclear, institución europea de investigación cuya sede se encuentra en la ciudad suiza de Meyrin (situada en las proximidades de Ginebra, en la frontera entre Francia y Suiza). Es más conocida por las siglas CERN, correspondientes al nombre con que fue fundada en 1954: Conseil Européen pour la Recherche Nucléaire (Consejo Europeo para la Investigación Nuclear).

En el CERN se han construido aceleradores desde los 1950. Hoy existe un gran sistema de aceleradores lineales y circulares. Algunos de los aceleradores más antiguos se usan aún para iniciar la aceleración de partículas antes de ser enviadas a los aceleradores más largos. El sistema de aceleradores del CERN puede acelerar electrones, positrones, protones y diferentes tipos de iones.

Vista Area del CERN

Imagen de Abajo: El LEP (Large Electrón-Positrón Collider), en servicio desde 1989 en la frontera francosuiza, cerca de Ginebra, es el mayor acelerador del mundo y lo seguirá siendo por lo mucho tiempo. Está destinado a estudiar las partículas   de   muy   altaenergía producidas en el transcurso de colisiones entre un haz de electrones y otro de positrones que circulan en sentidos opuestos. Situado en un túnel circular (de 26,7 km. de longitud y 3,8 m. de diámetro interior), el anillo de sección rectangular (5 cm x 20 cm) está enterrado a una profundidad comprendida entre 50 y 175 m. Lo rodean 3.368 imanes de curvatura, 1 300 imanes de focalización y 128 cavidades aceleradoras de alta frecuencia que suministran 400 millones de voltios de tensión aceleradora por vuelta.

En cuatro puntos, el túnel se ensancha en salas de 27 m. de diámetro y 70 m. de longitud donde se encuentran los dispositivos experimentales destinados a detectar las partículas producidas y a determinar sus características. Loselectrones y los positrones sufren la acción de tres aceleradores sucesivos y penetran en el LEP con una energía de 22 GeV. Cada haz es acelerado hasta 50 GeV, por lo que en cada colisión se ponen en juego 100 GeV. Las partículas, inyectadaspor paquetes de 5 billones, giran durante horas y recorren miles de millones de kilómetros; en cada vuelta, se producen sólo unas pocas colisiones entre los dos haces de 1 mm3 de sección.

LEP en suiza

El 14 de julio de 1989, aniversario de la toma de la Bastilla toda Francia celebró el bicentenario del comienzo de la Revolución. A las 16.30 del mismo día, los físicos del CERN, centro internacional de investigación sobre física de las partículas situado en Ginebra, celebraban la entrada en funcionamiento del LEP (Large Electron Positron Collider), la mayor máquina científica construida hasta entonces.

Alojado en un túnel circular de unos 27 km de diámetro (casi todo bajo territorio francés), el LEP es un acelerador que provoca colisiones de partículas a muy alta velocidad, para conseguir elevadísimas energías. Es capaz de crear las condiciones que reinaban una fracción de segundo después de la gran explosión que supuestamente dio origen al universo, así como de provocar la formación de partículas y determinar efectos que no se han producido desde entonces.

En especial, los físicos esperaban crear partículas Z, cuya existencia había sido predicha en los años 60, en el marco de la teoría que unifica el electromagnetismo con la fuerza nuclear débil. Las partículas Z, portadoras de esta fuerza débil, se observaron por primera vez a mediados de agosto de aquel año y la evaluación de los primeros resultados estaba lista para fines de octubre.

El LEP fue la culminación de casi diez años de planificación y construcción, a un coste situado en torno a los 80.000 millones de pesetas. En el momento en que el LEP entraba en funcionamiento, Estados Unidos proyectaba construir en Texas una máquina todavía más gigantesca, el Superconducting Supercollider (SSC), con una circunferencia de 84 Km. y un coste estimado de más de 100.000 millones de pesetas. Sin embargo, si llegara a hacerse realidad, este proyecto podría constituir fácilmente el fin del recorrido en este sentido, ya que los físicos están dirigiendo actualmente su atención a nuevas tecnicas con máquinas lineales en lugar de circulares.

El CERN, fundado en 1953, fue desde el comienzo una empresa cooperativa con la participación de 14 países europeos. Físicos de otros paises, entre ellos la Union Soviética, Japón y Estados Unidos, han participado posteriormente en sus programas de investigación. Fue uno de los indicios de un nuevo movimiento paneuropeo, reflejado también en las esferas económica y política. Europa no carecía de talentos científicos, como lo demuestra el éxito continuado en la obtención del premio Nobel, pero en muchos campos los países individuales no podían en modo alguno competir con Estados Unidos.

No era sólo un problema financiero sino de disponibilidad de personal científico cualificado. Ante la falta de oportunidades en sus países, los científicos europeos. Y En el Fermillab, (imagen abajo) en Illinois (EE UU), una carretera marca los 6km de circunferencia del anillo subterráneo del acelerador de partículas del laboratorio. En 1913, el Fermllab perfeccionó sus instalaciones Instalando Imanes superconductores yen 1990 producía todavía los rayes de protones mas energéticos del mundo.

Cedían a la atracción de Estados Unidos, que les ofrecía mayores salarios y mejores instalaciones. Esta tendencia era particularmente notable en el campo de las ciencias físicas, el ámbito de los proyectos de la “gran ciencia”,. La cooperación científica en Europa adquirió un nuevo impulso en 1973 con el ingreso de Gran Bretaña, Irlanda y Dinamarca en la Comunidad Económica Europea. Entre las nuevas iniciativas figuraban la Agencia Espacial Europea (fundada en 1975) y el centro multidisciplinario de investigación de la CE (15-FRA), con sede en Italia.

Pero en la ciencia, como en otras actividades humanas, las tendencias y las necesidades cambian, y las estrategias deben modificarse en consecuencia. En Gran Bretaña, por ejemplo, el gran laboratorio de investigación sobre energía atómica de Harwell (motivo de orgullo nacional durante la euforia de la posguerra e importante factor de negociación en el intercambio de información con Estados Unidos) tuvo que ser reorganizado y, en cierto modo, ganarse el sustento mediante contratos con la industria.

Por el contrario, el proyecto experimental IET (Ioint European Toros), destinado a producir energía mediante la fusión de núcleos ligeros, como en el interior del Sol, comenzó a funcionar en 1983, en la cercana localidad de Culham. Pero incluso este proyecto fue perdiendo el favor de la opinión pública cuando los movimientos ecologistas (opuestos a toda forma de energía nuclear) ganaron fuerza e influencia, sobre todo teniendo en cuenta que los resultados del programa se podrían medir más en décadas que en años.

El primer gran acontecimiento científico de los años 90 fue la puesta en órbita del telescopio espacial Hubble, en abril de 1990, después de veinte años de planificación. Pero su supuesta capacidad de «ver el universo con una profundidad diez veces mayor que la empleada anteriormente» no impresionó a quienes se oponían a una inversión de 1.300 millones de dólares para un proyecto de investigación pura, entre los que se encontraban muchos científicos con presupuestos escasos. Al mismo tiempo, comenzó la reevaluación del programa del Supercollider.

Si bien la exploración de las partículas más recónditas del átomo y de las regiones más remotas del universo ha seguido cautivando la imaginación popular, también ha sido intensa la actividad en otros campos de las ciencias físicas. De hecho, el progreso en estos dos campos habría sido imposible sin los avances logrados en muchos otros terrenos. Incluso las disciplinas clásicas de la física han demostrado ser capaces de proporcionar nuevas sorpresas.

En el campo del magnetismo, conocido desde la antigüedad, el descubrimiento de imanes líquidos ha abierto nuevas perspectivas. Estos imanes consisten en diminutas partículas de materiales magnéticos como, por ejemplo, ciertos óxidos de hierro, dispersos en un líquido como en los coloides corrientes, las partículas no se separan del líquido. Cada una actúa como un pequeño imán permanente y puede también conferir notables propiedades al líquido, denominado normalmente ferro fluido.

EL LHC: El acelerador LEP estuvo operativo entre 1989 y 1195. Entonces fue desmantelado para dar espacio para un nuevo acelerador en el mismo túnel. El nombre del nuevo acelerador es Gran Colisionador Hadrónico,LHC. LHC, al contrario de LEP, colisionará haces consistentes en protones. Las colisiones, mucho más energéticas,14 TeV, serán posibles reemplazando los electrones y positrones de LEP por protones.

Cientificos Argentinos Colaboradores

DATOS DEL “GRAN COLISIONADOR DE HADRONES”
Inicio de la construcción 1994
Construido por: CERN
Ubicación: Frontera Suiza-Francesa
Costo 6200 millones de euros
Científicos Comprometidos 10.000 científicos de 500 Universidades
Científicos Argentinos Ocho
Países Que Intervienen Cuarenta
Dimensiones 27 Km. de Diámetro
Profundidad Entre 50 y 125 metros
Temperatura de Trabajo 272 Bajo Cero °C
Aceleración Conseguida 99,9999999 de la Velocidad de la luz
Campo Magnético Logrado 100.000 veces el de la Tierra

OBJETIVOS DEL EXPERIMENTO:

  •     Descubrir qué es realmente la masa.
  •     Descubrir qué es la materia oscura (que ocupa más del 95% de la masa del Universo)
  •     Descubrir cuántas son las partículas totales del átomo.
  •     Descubrir la existencia o no de las partículas supersimétricas
  •     Descubrir por qué no hay más antimateria.
  •     Descubrir cómo era la materia durante los primeros segundos que siguieron al Big Bang.

EL BOSON DE HIGG: A una velocidad muy cercana a la de la luz, dos conjuntos de protones circulan en sentido inverso: cuando chocan, se generan, brevemente, partículas enormes. La última que así se descubrió, en el Fermi, en 1995, llamada quark top, tiene 174 veces la masa de un protón. Esas partículas, que ya no existen en la Tierra, existieron en el Universo, en las milésimas de segundo posteriores al Big Bang; las altísimas energías de aquellos instantes son reproducidas por el Colisionador. Así, investigar estas partículas fugaces equivale a investigar los primeros instantes del Universo.

Pero el propósito no es tanto saber qué pasó entonces, sino saber qué pasa ahora: poner a prueba las teorías básicas de la física. Entre aquellas partículas, interesa especialmente una, llamada bosón de Higgs, que tendría entre 130 y 200 veces la masa de un protón: su existencia es requerida por el “modelo estándar”, que, de las cuatro fuerzas consideradas fundamentales en la naturaleza –el electromagnetismo, la gravedad y, en el interior de los átomos, las fuerzas “fuerte” y “débil”–, explica todas menos la gravedad. (ampliar sobre el tema)

Naturaleza de la Materia

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la Luna

Efecto de la Luna Sobre La Tierra

La Luna gira alrededor de la tierra a una distancia media de unos 384.400 km. Su diámetro es de 3.475 Km., aproximadamente una cuarta parte del de la tierra, con una superficie de unos 38 millones de km2, y su masa es 1/81 la de la tierra; esto provoca que la fuerza de la gravedad en su superficie sea la sexta parte de la terrestre (un hombre que en la tierra pesara 60 kilogramos en la luna sólo pesaría 10 kg.).  La consecuencia más directa de esta poca gravedad es la falta de atmósfera.

¿Por qué se forman las mareas en el mar?

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la LunaConforme la Luna gira en torno a la Tierra su fuerza gravitacional ejerce atracción sobre el continente y océanos. Al mismo tiempo la gravedad de la Tierra controla a la Luna y evita que se salga de su órbita.

La atracción de la Luna mueve montaña y levanta una pequeña pero perceptible marea en la corteza terrestre. Además, atrae los mares y océanos, elevando varios metros el nivel del agua en algunos lugares. Este efecto es similar al de una aspiradora que pasa sobre un tapete y crea un abultamiento.

La fuerza que ejerce la Luna causa un crecimiento de la marea que eleva el nivel de los océanos. Conforme gira la Tierra y nuevas zonas quedan bajo la influencia lunar, la pleamar se mueve con lentitud, creando olas altas en una región y bajas en otra. La bajamar se presenta en una cuarta parte de la circunferencia terrestre por delante del paso de la Luna y a la misma distancia por detrás, siempre y cuando haya océanos.

La órbita de la Luna en torno a la Tierra es afectada por gran variedad de factores y al igual que las mareas depende del contorno del océano. Por ejemplo, el mar Mediterráneo, prácticamente rodeado por tierra, casi no presenta mareas, y el Golfo de México sólo una pleamar al día.

Resulta extraño que un crecimiento de la marea se presente a unos 13.000 Km. de distancia al otro extremo de la Tierra. La influencia gravitacional de la Luna allí es casi 7% menor que en el lado más próximo, pero la fuerza centrífuga de la Tierra empuja los océanos hacia afuera. Esto provoca la pleamar y la bajamar en esa parte del mundo. De no suceder así, habría sólo una gran pleamar y una bajamar en cada rotación terrestre. Pero, como usted puede constatar si se encuentra cerca del mar, el tiempo entre mareas es de unas seis horas, y hay dos de cada una al día.

Aun sin la influencia de la Luna, nuestros océanos y mares tendrían mareas, aunque menos vivas. La atracción gravitacional del Sol influye también sobre la Tierra. Esta fuerza, mucho más fuerte en su origen que la que ejerce la Luna, influye menos debido a la distancia que nos separa del Sol.

Las mareas causadas por el Sol pueden reforzar o debilitar las que son creadas por la acción de la Luna. Cuando el Sol y la Luna están alineados —durante la luna llena o luna nueva— sus fuerzas gravitacionales actúan en conjunto creando una atracción mucho más fuerte que causa mareas más altas. Las llamamos mareas de primavera, aunque no se limitan a esa estación. Cuando el Sol y la Luna guardan un ángulo recto respecto a la Tierra, en los cuartos menguante y creciente, la atracción del Sol influye en lo que se conoce como mareas muertas.

Fuente Consultada:
El Mundo de los Porque?… Readers Digest
Notas Celestes de Carmen Nuñez

Primera Caminata Espacial Historia Exploracion Espacial Ed White

Primera Caminata Espacial
Historia Exploración Espacial

Edward White, nació en San Antonio, Texas  el 14 de noviembre de 1930, y fue criado con grandes cualidades humanas, como la solidaridad, la autodisciplina y perseverancia, que las supo aplicar en toda su carrera profesional y también en su vida personal.

Su padre era un graduado de West Point que sirvió en la Fuerza Aérea de Estados Unidos, y fue quien ayudo a Ed a dar los primeros pasos en su carrera como piloto aeronáutico. Ed siempre recordó su primer vuelo con su padre, quien le permitió hacerse cargo de los controles de la nave, y en donde se sentía muy cómodo y le parecía hacer la cosa mas natural del mundo, según sus palabras.

Se hizo conocido como un pionero de la aeronáutica, comenzando su carrera militar al volar globos del ejército y antes de convertirse en astronauta era piloto de prueba de la Fuerza Aérea. Ha registrado más de 3 000 horas de vuelo.

Como astronauta registró más de 96 horas en el espacio a bordo de un único vuelo espacial. En 1965 se convirtió en el primer astronauta americano en caminar por el espacio. White flotó por 22 minutos, fuera de la nave espacial Gemini 4.

Ed White fue el primer estadounidense en dar un paseo por el espacio. Lo hizo en junio de 1965, tres meses después que Leonov. White sería uno de los tres astronautas que murieron en las pruebas de vuelo previas al lanzamiento del Apollo 1, en enero de 1967. En 1967 falleció en un incendio durante las pruebas de la nave espacial Apollo 1

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton La Fuerza de Gravedad
La Atracción Terrestre

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

El rol de las manzanas en la elaboración de la teoría de la gravedad de Newton puede ser tan anecdótico como la manzana que originó la expulsión de Eva del Paraíso, la manzana de París que desencadenó la Guerra de Troya o la manzana de Guillermo Tell.

La vinculación entre la fuerza que mantiene a la Luna orbitando alrededor de la Tierra y la que provoca la caída de los cuerpos librados a su propio peso, es en cambio mucho menos anecdótica y forma parte de la obra de Newton (1642-1727), publicada en los Principia (Philosophiae Naturalis Principia Matematica) de 1687, quien le dio sustento matemático y físico, basándose en el andamiaje experimental proporcionado por Kepler y en el esquema de pensamiento elaborado por Galileo.

Hoy, las mismas ideas que explican la caída de las manzanas y el movimiento orbital de los planetas, este enorme edificio intelectual cuya construcción comenzó hace más de 400 años, son utilizadas por los modernos vehículos espaciales para recorrer el espacio interplanetario y han permitido que un producto humano, el Voyager 2, se encuentre ya fuera de los confines de nuestro sistema planetario, vagando por el medio interestelar.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalUno de los problemas que presentaba el movimiento de la Tierra para el sentido común era por qué los cuerpos tirados hacia arriba caen esencialmente sobre el lugar desde el que fueron arrojados si durante su trayectoria en el aire no deberían seguir el movimiento de la Tierra. Galileo introdujo el concepto de inercia, que permite resolver esta aparente paradoja.

La inercia es la tendencia que posee todo cuerpo en movimiento a continuar en movimiento (como el caso de un jinete cuyo caballo se detiene súbitamente). Una piedra arrojada desde el mástil de un barco en movimiento cae al pie del mismo y no detrás, ya que comparte el movimiento del barco. Es sencillo entender con este principio por qué los pájaros, las nubes y la atmósfera en general no quedan detrás de la Tierra en movimiento.

La experiencia nos muestra que los objetos están inmóviles a menos que alguna fuerza actúe sobre ellos. Cualquier objeto abandonado a sí mismo, si no se mueve permanecerá quieto y si se está moviendo llegará finalmente a su estado “natural” de reposo: una pelota picando alcanzará cada vez una altura menor hasta que finalmente terminará por detenerse; si la pelota está rodando se detendrá al cabo de un tiempo, a no ser que alguien la empuje o que se mueva sobre un plano inclinado.

La Luna y los planetas, en cambio, han permanecido en movimiento a través de los siglos y éste parece ser su estado “natural”; es necesario entonces encontrar cuál es la fuerza que les impide quedarse quietos o qué los hace diferentes de los objetos que existen sobre la Tierra. La aparente contradicción entre los estados “natural” de los distintos cuerpos fue atacada científicamente por primera w por Galileo y Newton.

La clave de su resolución está en distinguir distintos tipos de movimiento y en reconocer que no hay nada de particular e el estado de reposo. Newton enunció las leyes que permiten describir el movimiento de los cuerpos. La primera ley establece que un cuerpo en repos. o que se mueve en línea recta a velocidad constante permanecerá en reposo o en movimiento uniforme a menos que sobre ellos actúe una fuerza ex terna. ¿Cómo explicar entonces que la pelota se detenga? Para frenar o acelerar un cuerpo, es decir para apartarlo de su movimiento rectilíneo uniforme es necesario aplicar una fuerza. En el caso de la pelota, esta fuerza se llama fricción o rozamiento y es un proceso muy complicado que todos hemos usado alguna vez, por ejemplo para frenar la bicicleta apoyando unen el suelo.

Isaac Newton comprendió que no había nada que explicar respecto de la velocidad uniforme, lo que requiere explicación son los cambios de velocidad, o más precisamente de momento, siendo éste proporcional a la velocidad (la constante de proporcionalidad es la masa del cuerpo); es decir, cómo cambia la velocidad en presencia de una fuerza. Estos cambios de velocidad, llamados aceleración, ocurren no sólo si la velocidad aumenta o disminuye, sino también si se modifica la dirección del movimiento.

Si viajáramos dentro de una caja cerrada con movimiento rectilíneo uniforme, según el principio de relatividad de Newton, no nos daríamos cuenta de que nos movemos, necesitaríamos alguna referencia externa. Si la caja se detiene, en cambio, o si se modifica su velocidad, reconoceríamos este cambio de movimiento

Una manera de medir la aceleración es utilizar flechas para representar la velocidad de un cuerpo: la dirección de la flecha indica el sentido del movimiento y su longitud, la magnitud de la velocidad. Comparando las flechas de velocidad en dos instantes distintos, la diferencia entre ambas representa la aceleración.

Cuando un automóvil que viaja en línea recta aumenta (o disminuye) su velocidad, la aceleración (o desaceleración) está en la misma dirección del movimiento Pero cuando el auto dobla en una curva, aunque mantenga su velocidad constante, la diferencia de direcciones de las flechas de velocidad en dos posiciones distintas sobre la curva indicará una aceleración no nula. Esto es exactamente lo que sucede en el movimiento planetario: la flecha de aceleración de los planetas apunta siempre hacia el Sol. Allí está la causa del movimiento: los planetas están “cayendo” permanentemente hacia el Sol, de la misma manera en que los objetos caen hacia la Tierra  si son abandonados a su propio peso: la flecha de aceleración de una manzana madura que ya no es sostenida por la rama del árbol apunta hacia el centro de la Tierra.

Esta idea de la caída de los planetas hacia el Sol o de la Luna hacia la Tierra, no parece muy adecuada ya que no vemos caer a estos cuerpos. Sin embargo hay que pensar que si los planetas no estuvieran cayendo se alejarían cada vez más del Sol, siguiendo una trayectoria rectilínea. En realidad fue Borelli (1608-1679), contemporáneo de Newton, quien observó que un cuerpo en movimiento circular mostraba una tendencia a alejarse del centro, la que, en el caso de los planetas, debía suponerse balanceada por algún tipo de atracción hacia el Sol. Aparece así por primera vez la idea de que el movimiento de los planetas debía explicarse no por una fuerza actuante en la dirección en que se mueven, sino por una fuerza dirigida hacia el Sol, es decir perpendicular a la dirección del movimiento. Independientemente del aspecto planetario este problema podría reducirse a estudiar bajo qué condiciones un cuerpo puede girar con velocidad circular uniforme.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalSupongamos que el punto A de la figura  representa la posición de un cuerpo con movimiento uniforme en un círculo centrado en 0. En este instante el cuerpo se está moviendo en dirección tangente al círculo (su velocidad se indica con la flecha AB). En consecuencia, de acuerdo a la primera ley de Newton, si se abandona el cuerpo a sí mismo, en ausencia de todo otro cuerpo, seguirá moviéndose en la misma dirección (es decir, a lo largo de AB) y un momento más tarde se encontrará en B. Pero en realidad se encuentra en c, sobre el círculo. Por lo tanto debe haber habido alguna influencia que hizo “caer” el cuerpo de B a C, acercándolo al centro 0. La curvatura de las órbitas de los planetas y los satélites mide el apartamiento respecto de la trayectoria rectilínea que seguirían si no hubiera otros cuerpos que causaran la desviación.

Galileo dedujo la relación (las leyes) entre las distancias recorridas por los cuerpos y los tiempos empleados en recorrerlas, para distintos tipos de movimientos (rectilíneo uniforme, uniformemente acelerado, curvilíneo). Construyó así la tabla de datos que, junto a las leyes de Kepler, permitieron a Newton encontrar el principio físico y matemático sobre el que se sustentan.

Para imprimir a un cuerpo una aceleración se necesita una fuerza proporcional a ella. El factor de proporcionalidad, de acuerdo a la segunda ley de Newton, es la masa del cuerpo: necesitamos realizar el doble de esfuerzo para mover un cuerpo cuya masa es el doble de la de otro.

Partiendo del descubrimiento de Galileo de que todos los cuerpos caen con igual aceleración, independientemente de sus masas (el Supuesto experimento realizado en la Torre de Pisa), se puede concluir, usando la segunda ley de Newton que las fuerzas que los atraen son proporcionales a Sus masas. Es la fuerza de gravedad que actúa sobre los cuerpos en caída libre y la aceleración provocada por ella es la aceleración de la gravedad: g=GM/R2.

G es una constante conocida como la constante de gravitación universal o constante de Newton M se refiere a la masa del cuerpo que provoca la aceleración y R es la distancia entre éste y el cuerpo atraído. La tercera ley de Newton se expresa entonces matemáticamente como

F=(GmM)/R2     (1)

Así, la fuerza ejercida por la Tierra (de masa M) sobre la Luna (cuya masa representamos por m) será mucho mayor que la ejercida por la Tierra sobre una manzana (de masa mucho menor que la de la Luna), y la atracción gravitatoria entre dos manzanas será perfectamente despreciable. Utilizando los datos de que disponía sobre la Luna, su distancia a la Tierra y su período de traslación Newton advirtió que la fuerza de atracción entre dos cuerpos satisface una ley de cuadrado inverso, es decir, disminuye como el cuadrado de la distancia que los separa, como indica la fórmula (1). Esta ecuación resume el contenido de su tercera ley o ley de gravitación universal.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton obtuvo así que la fuerza de gravedad en la Luna era menor que sobre la Tierra (un objeto de 70 Kg. sobre la Tierra pesaría 10 Kg. en la Luna) Las diferencias entre la aceleración gravitatoria en las superficies de los planetas y en sus satélites (consecuencia de sus distintos tamaños y masas) han dado lugar a una prolífica literatura de ciencia ficción. Se ha propuesto por ejemplo un ingenioso juego de baseball en Deimos (satélite de Marte) donde la velocidad impresa a una pelota por un bateador profesional sería suficiente para lanzarla en órbita alrededor del satélite.

El bateador podría retirarse a tomar unos mates (si fuera argentino) y volver a las 2 horas, cuando la pelota ha regresado de su órbita para lanzarla nuevamente en sentido opuesto o simplemente recuperarla. Más allá de la diversión, la fuerza gravitatoria de un planeta es una medida de su capacidad, por ejemplo, para retener una atmósfera.

Si la fuerza de gravedad en la Tierra hubiera sido distinta, las formas de vida que se han desarrollado sobre nuestro planeta también hubieran diferido en su evolución y aspecto. En las actuales condiciones, las aves vuelan porque mantienen el mismo peso posible: sus huesos son huecos y sus cerebros de capacidad ínfima. Si la gravedad fuera menor estarían seguramente mejor equipadas y ocuparían tal vez un puesto más alto en la jerarquía de las especies.

La manzana y la luna from alexiscb on Vimeo.

La fuerza del niño es menor que la del adulto y la atracción de la Tierra o gravedad, que resta igual impulso a ambos proyectiles, hace que el primero alcance menor altura y caiga antes hacia la Tierra. Existe una velocidad, llamada velocidad “de escape”, muy difícil de calcular porque depende de muchos factores, que permite a un proyectil lanzado verticalmente escapar definitivamente a la decreciente atracción terrestre.

Según la ley de inercia, los proyectiles lanzados por el hombre y el niño proseguirían en línea recta y con velocidad uniforme. Pero la fuerza de gravedad hace que simultáneamente vayan cayendo hacia el mar, según curvas que dependen de su velocidad inicial. Las estrellas, que forman las nebulosas o galaxias, que son como las islas del universo, no se apartan unas de otras debido a la fuerza de la gravitación, pero tampoco se concentran en una sola masa debido a la fuerza centrífuga de sus enormes velocidades individuales, que tienden a hacerlas evadir en línea recta. La galaxia gira como un sistema solar

El radio de la Luna es sólo un cuarto de! de la Tierra; su densidad relativa, 0,6 de la de ésta. Multiplicando ambas cantidades deducimos que la atracción de la Luna alcanza únicamente a la sexta parte de la gravedad de la Tierra. Un atleta que puede saltar a sólo 2 m. de altura en la Tierra, llegará a 12 m. en la Luna. Por otra parte, el peso de su cuerpo será seis veces menor, y el esfuerzo de su corazón para que su sangre vuelva desde los pies hasta la aurícula derecha, o para irrigar su cerebro, será también menor.

Una vez enunciados estos principios, Newton debía demostrar que de ser exactos, las órbitas de los planetas obedecerían las leyes experimentales de Kepler. Resolviendo las ecuaciones diferenciales que se obtienen aplicando las fórmulas newtonianas al movimiento planetario es posible deducir, con bastante exactitud, las 3 leyes keplerianas. Para elaborar su teoría Newton necesitó desarrollar la matemática del cálculo diferencial de la cual no disponía y esto fue lo que demoró la publicación de su obra.

Esta es una situación que se encuentra a menudo en física: al no contar con las herramientas matemáticas necesarias para afrontar un problema físico, muchas veces esta disciplina motivó el desarrollo de partes de las matemáticas que posteriormente encuentran aplicación en otras áreas.

Aunque las órbitas planetarias están relativamente bien descriptas por las leyes de Kepler, de acuerdo con la ley de gravitación universal habrá perturbaciones producidas por la presencia de otros planetas en el sistema solar y de los satélites naturales.

Estas perturbaciones, proporcionales al cuadrado de sus distancias mutuas hacen que el camino de los planetas oscile alrededor de una elipse media. Silos planetas fueran mucho más masivos o si estuvieran mucho más próximos entre sí, su movimiento no podría ser descripto, ni siquiera en una primera aproximación por las leyes de Kepler (obtenidas de la llamada aproximación de dos cuerpos, que en este caso son el Sol y el planeta). Habría que resolver el denominado problema de N cuerpos, donde N se refiere al Sol, el planeta y los otros cuerpos que perturban. Los movimientos resultantes serían muy complejos.

La aplicación de la ley de la gravitación universal de Newton permitió descubrir dos planetas, Neptuno y Plutón, demostrando así su capacidad, no sólo de explicar los fenómenos observados sino también su enorme poder predictivo. El descubrimiento de un cuerpo celeste, a 4 mil millones de kilómetros de la Tierra, mediante un simple cálculo matemático, representa un hito fundamental en la historia de la ciencia. Desde fines del siglo XVIII los astrónomos tenían problemas en conciliar sus cálculos con las posiciones observadas de Urano. Aplicando la tercera ley de Newton a un supuesto cuerpo perturbador de la órbita fue posible calcular la masa y la Posición de este hipotético objeto con suficiente precisión como para descubrir Neptuno.

Los cálculos teóricos fueron publicados por U. J. Leverrier (1811-1877) en junio de 1846 y el nuevo planeta fue observado efectivamente el 23 de septiembre siguiente en el Observatorio de Berlín. El entusiasmo provocado por este descubrimiento motivó la búsqueda de un posible noveno planeta. Los datos sobre la órbita de Neptuno no eran todavía muy precisos, lo que demoró 25 años la primera observación de Plutón, desde que fuera predicho en 1905. Estos descubrimientos también muestran que la fuerza de la gravedad actúa a gran escala, al menos su influencia llega hasta los confines más exteriores del sistema solar.

El radio de la Tierra es tan enorme que a 8 Km. de altura e! peso de un objeto disminuye en sólo algo más de 2 gr. por kilogramo (puesto que la distancia aumentó en una milésima de radio, y debe elevarse al cuadrado, es decir multiplicarse por sí misma). A 15 Km. de altura un kilogramo pierde entre 4 y 5 gr. de peso. A 100 Km. la reducción es de unos 22 gr. por Kg.; a los 1.000 Km. pasa de los 200 gr. por kilo y a los 4.500 Km. el peso decrece a la mitad. Cuanto más nos alejamos tanto menor se vuelve fa atracción.

APLICACIONES Y CONSECUENCIAS
• La gravimetría es el método de elección, entre muchos, para revelar la existencia de petróleo: éste, tres o cuatro veces más liviano que las tierras que impregna, asciende hasta colocarse sobre las cúpulas de roca densa e impermeable. El gravímetro, que consiste en esencia en un peso que tira un resorte, es capaz de señalar esas diferencias locales de densidad de masa, es decir de atracción. Se lo usa en menor escala para descubrir yacimientos de hierro, sumamente densos.

• A la gravitación se deben las mareas, las órbitas de los planetas (la atracción del Sol equilibra su tendencia a escapar en línea recta), la presencia de atmósfera en la Tierra (la Luna, de atracción muy débil, perdió la suya), y la caída de la lluvia cuando las gotas alcanzan a 1/20 de mm. de diámetro (cuando son menores, las corrientes ascendentes equilibran su peso). 9 La dificultad de un vehículo espacial para escapar de la atracción terrestre se debe en primer lugar a la fricción de la atmósfera, que es ya casi nula a los 100 Km. de altura; y en segundo lugar a la gravedad terrestre, que disminuye muy lentamente.

• Se llama relación de masa en un cohete espacial a la proporción entre la masa del proyectil a la salida y el peso útil puesto en órbita. Si dicho cociente es mayor de 8, no queda margen práctico para colocar instrumentos. De allí que los cohetes tengan varias etapas.

• Se ignora por completo la naturaleza de la gravitación y se estima que se necesitarán unos 100 años para dilucidarla y “desviarla” de alguna manera.

• Los animales sometidos a una “gravedad” elevada (centrifugadora) crecen enanos; en los astronautas sin peso el calcio tiende a emigrar de los huesos a los riñones.

• Los viajeros de un avión pesan pues éste es como una plataforma sostenida por las alas.

• Para breves ensayos de falta de gravedad existe un avión especial, el C-131, que “cae” como un ascensor que bajara velozmente.

Fuente Consultada: Notas Celestes de Carmen Núñez

Ver: Conflicto Newton – Hooke Por Las Órbitas de los Planetas

Eclipses de Sol y de Luna Cual es causa? Sistema Solar y Planetas

Eclipses de Sol y de Luna ¿Cual es causa?

Introducción: Los eclipses
Significan la ocultación de un astro por interposición de otro. Los movimientos de la Tierra y de la Luna en torno del Sol originan los eclipses de Sol o de Luna, según sea el astro obscurecido. Para que haya eclipse es menester que la Tierra, el Sol y la Luna estén en línea recta y casi en el mismo plano, y que la Tierra o la Luna penetre en el cono de sombra producido por el otro astro.

La naturaleza de los eclipses de Sol y de Luna difiere muchísimo. En un eclipse solar la Luna podrá ocultar todo o parte del astro para ciertos lugares de la Tierra, pero jamás para toda ella. Así habrá zonas en que el Sol quedará completamente obscurecido, o parcialmente, o no se observará fase alguna del eclipse. A pesar de que los tres astros se encuentran en línea recta suele ocurrir que, dada su distancia relativa, la Luna esté de tal manera que en el máximo del eclipse el disco solar no quede del todo oculto, sino que alrededor del disco lunar pueda verse una parte de aquél. Entonces se produce un eclipse anular.

La luna puede pasar dentro del cono de sombra que proyecta la Tierra en el espacio en el momento del plenilunio. Así queda interceptada para la Luna la luz del Sol y ocurre un eclipse total o parcial, según que se haya sumido tota! o parcialmente en la sombra.

Cuando la Luna pasa delante del Sol, la sombra que señala en la Tierra es circular y que, por causa del movimiento de rotación de nuestro planeta, va recorriendo diversos lugares. En todos ellos el Sol está completamente oculto y produce un eclipse total de Sol. Este fenómeno se inicia siempre en el lado O del disco del astro, y la sombra atraviesa la superficie terrestre de O a E. En los eclipses lunares, por el contrario, la sombra comienza en el lado E del disco y lo va barriendo hacia el O.

LOS ECLIPSES DE SOL Y DE LUNA: Cuando la Tierra, la Luna y el Sol están exactamente alineados en el espacio, el cielo se oscurece debido al eclipse. Los eclipses solares ocurren en luna nueva, cuando la Luna pasa entre los dos astros mayores, tapando el Sol y proyectando su sombra sobre la Tierra. (foto eclipse de Sol)

Hay tres tipos de eclipses solares. En el eclipse parcial, la Luna se come al Sol pero no acaba de devorarlo. El día se oscurece ligeramente y el Sol, visto con cualquier clase de protector de los ojos o por un agujero muy pequeño, parece una galleta a la que se le ha quitado un bocado.

En el eclipse total, la cara del Sol desaparece detrás de la Luna, florece la corona por lo general invisible y los afortunados espectadores situados dentro de la sombra lunar pueden conocer las tinieblas al  mediodía.* El tercer tipo de eclipse, el llamado anular, ocurre cuando la Luna se halla a la máxima distancia de la Tierra y en consecuencia se ve más pequeña que de ordinario. Incluso en el momento cumbre de tal eclipse, el reborde del Sol envuelve la Luna, así:

La luna llena es la época de los eclipses lunares, cuando la Tierra queda entre las luminarias y su sombra cae en la superficie de la Luna. Lo mismo que los eclipses solares, los eclipses lunares no ocurren todos los meses; sólo se producen cuando la alineación tripartita es exacta. Esto sólo sucede de vez en cuando, porque la órbita de la Luna, que es rotatoria, forma un ángulo de 50 con el plano de la órbita que traza la Tierra alrededor del Sol.

Los auténticos amantes de los eclipses no se detienen ante nada para verlos. Por ejemplo, el 3 de octubre de 1986 Glenn Schneider, de Baltimore, y otras ocho almas intrépidas contemplaron un eclipse de Sol desde un pequeño aeroplano a 12.200 metros por encima de Islandia.

Escribiendo en la revista Sky & Telescope, Schneider describe lo que vio cuando la Luna se fue colocando delante del Sol y la luz solar comenzó a filtrarse por los valles y las cimas montañosas situadas en el borde lunar, produciendo el fenómeno conocido como los granos de Baily. «Durante seis segundos enteros —recordaba Schneider—, la danza parpadeante de granos fue relampagueando por el limbo… Un minuto después de la “totalidad”, miramos por las ventanillas de la izquierda para valorar el aumento de la luminosidad del cielo. La sombra de la Luna se proyectaba sobre la cara superior de las nubes como un borrón de tinta (!). Durante todo un minuto contemplamos esta mancha oscura, que tenía la misma forma que un cigarrillo aplastado y se iba alejando de nosotros hacia el horizonte.»

Hay eclipses todos los años: siete como máximo, dos como mínimo. Entonces, ¿por qué no vemos más? Los eclipses lunares sólo son visibles por la noche. La mitad de las veces ocurren durante el día y sólo se ven desde la otra cara de la Tierra. Los eclipses solares son aún más elusivos, porque sólo se ven durante unos minutos y sólo dentro de la zona donde cae la sombra de la Luna. Esta zona es tan estrecha que en toda Inglaterra sólo han sido visibles cuatro eclipses solares totales durante los últimos mil años.

Por eso no son fáciles de ver los eclipses. Tomemos un año de cuatro eclipses, por ejemplo 1997. En marzo será visible un eclipse de Luna desde todo el territorio de Estados Unidos, pero únicamente se tratará de un eclipse parcial. Ese mismo mes se podrá ver un eclipse total de Sol; pero sólo desde una estrecha franja de terreno de China o bien yendo en barco por el océano Ártico. En septiembre, será visible un eclipse solar siempre que se contemple desde Australia o Nueva Zelanda, pero incluso allí abajo sólo será un eclipse parcial. Dos semanas después habrá ocaSión de ver un eclipse total de Luna, pero desde América del Norte. Tal es la persecución de los eclipses. La idea de alquilar un aeroplano para presenciarlos empieza a no resultar del todo irrazonable.

Eclipse de Luna

Seis Eclipses Notables o Históricos:

En la mitología de Dahomey la Luna, que se llama Mawu, y su hermano gemelo el Sol, llamado Lisa, hacen el amor durante los eclipses. Los sietes pares de gemelos así concebidos se convirtieron en las estrellas y los planetas.

Pero en la mayor parte de las mitologías los eclipses tienen asociaciones terroríficas. Los antiguos chinos y los bolivianos imaginaban que durante los eclipses unos perros furiosos desgarraban el Sol y la Luna con sus dientes. En Yugoslavia se decía que los vampiros destrozaban las luminarias. Los egipcios creían que de vez en cuando la serpiente Apep, que gobernaba el submundo y era señora de los muertos, se erguía y se tragaba el barco en que surcaba los cielos el dios solar Ra. En esos momentos el Sol desaparecía.

Las explicaciones históricas tienden a ser semi mitológicas. A menudo hablan de un ser superior —un conquistador o un científico— capaz de predecir los eclipses, con lo que advierte del desastre al tiempo que ilustra lo de saber es poder. Dos ejemplos:

* 28 de mayo de 585 a. C. A pesar de creer que la Tierra era plana, Tales de Mileto es considerado el primer científico griego. Puso en relación las matemáticas con la lógica y fue el primero en formular varias verdades matemáticas que la mayor parte de nosotros aprendemos en el bachillerato. Los antiguos lo reverenciaban por su capacidad para detener una batalla, hazaña que llevó a cabo con ayuda de unas tablas babilónicas. Según Herodoto, los medas y los

lidios estaban en medio de la batalla cuando «el día se convirtió en noche. Y este cambio había sido predicho a los jonios por Tales de Mileto, que les había dicho el año en que ocurriría». Aunque Tales no había especificado el día, su predicción inspiró el suficiente temor para dar lugar inmediatamente a la paz.

* 29 de febrero de 1504. Cristóbal Colón había estado aislado durante meses, con la tripulación descontenta, en la costa de Jamaica. La leyenda cuenta que organizó una reunión con los indígenas para una fecha en que sabía que iba a haber un eclipse total de Luna. Basaba sus predicciones en las tablas de navegación del astrónomo Johann Müller, más conocido por su nombre latino, Regiomontano. El eclipse se produjo según lo previsto, los indios quedaron impresionados y los descubridores recobraron algo de su decreciente influencia.

Hay unos cuantos eclipses memorables por razones científicas:

* 21 de junio de 1629. Los chinos sabían predecir los eclipses, pero no muy bien. Los astrónomos imperiales, que no habían acertado a pronosticar el eclipse de 1610, predijeron un eclipse solar para una fecha de 1629. Sin embargo, los misioneros jesuitas insistieron en que la predicción llevaba una hora de adelanto y en que el eclipse, en lugar de durar dos horas, sólo se vería dos minutos. Los jesuitas tenían razón. Como consecuencia, el emperador ordenó que se revisara el calendario chino y se instó a los jesuitas a que construyeran telescopios y empezaran a traducir al chino libros sobre óptica, música y matemáticas.

* 8 de julio de 1842. Durante este eclipse solar los científicos europeos dedujeron que las protuberancias de color rosa y los rayos opalescentes de luz que envolvían por completo la Luna no eran emisiones de la atmósfera lunar ni ilusión óptica, sino parte del Sol.

* 18 de agosto de 1868. Pierre Jules César Janssen, un banquero francés convertido en astrónomo, hizo una lectura espectroscópica de la corona solar durante este eclipse, lo cual permitió a los científicos analizar la composición de la atmósfera solar. La corona era tan espectacular que Janssen estaba convencido de que debía percibirse en condiciones normales. Al día siguiente localizó las protuberancias y registró un espectro. Otro científico, J. Norman Lockyer, había estado haciendo trabajos similares. Entre los dos demostraron que la corona estaba presente en todo momento, bien que sólo fuera visible durante los eclipses, y formaba parte del Sol, aunque con una composición ligeramente distinta de la de la masa solar. También identificaron, en la franja amarilla del espectro, un elemento que sería llamado por el nombre griego del Sol y que no se encontraría en la Tierra hasta un cuarto de siglo después: el helio.

Janssen estaba tan emocionado con estos resultados que en 1870, cuando iba a haber un eclipse visible en Argelia, no dejó que nada le impidiera ir. Salir de París constituyó un problema, no obstante, pues la ciudad estaba rodeada por tropas prusianas hostiles. Las muchedumbres pululaban por las calles, los ciudadanos hambrientos se comían los gatos y las ratas, los restaurantes exóticos hacían incursiones al zoológico y sirvieron platos hechos con los dos elefantes Cástor y Pólux, y la única manera de salir de la ciudad era hacerlo en globo de hidrógeno. Janssen partió de Paris en una balsa y llegó a Argelia a tiempo. Por desgracia, conforme se acercaba el eclipse total la temperatura disminuyó, las nubes taparon la Luna y Janssen no pudo ver nada.

* 29 de marzo de 1919. Albert Einstein había predicho que la luz, al pasar junto a un objeto pesado como el Sol, se curvaría en proporción al campo gravitatorio del objeto. Esto estaba aún por demostrar, pero el eclipse solar de marzo de 1919, cuando se vio la silueta del Sol contra las apretadas estrellas del cúmulo de las Híades, ofreció la perfecta oportunidad para comparar la posición habitual de estas bien conocidas estrellas con su posición durante el eclipse. Pensando en esto, sir Arthur Eddington se trasladó a una isla situada en la costa occidental africana y un grupo de científicos británicos fue a Brasil.

Durante el eclipse los observadores midieron las posiciones de varias estrellas de las Híades y descubrieron que la luz procedente de estas estrellas resultaba curvada por la gravedad del Sol, por lo que se trasladaban con respecto a su posición habitual exactamente tal como había predicho Einstein, lo cual confirmó la teoría… y cambió la vida de su autor.

En cuanto Einstein se enteró de la noticia, envió una postal a su madre, anunciándole: «Gozosas noticias hoy». Un titular del New York Times proclamaba: «Todas las luces bizquean en el cielo / Triunfa la teoría de Einstein». Y Einstein pasó a ser definitivamente una celebridad mundial.

PARA SABER MAS…
EL SAROS

Los eclipses son fenómenos tan particulares que ya las poblaciones antiguas investigaron sus eventuales ciclos.
Para los eclipses de Luna no es difícil hallar una ley que permita predecir cuándo van a producirse, al menos aproximadamente. Esta ley fue hallada después de atentas observaciones, y resultó que entre dos eclipses de Luna median cinco o seis meses.

Al período de 223 meses lunares (la duración del mes lunar equivale a 29 días y medio) se le dio el nombre de saros, uno de los períodos sobre los que puede calcularse con mayor precisión la repetición de los eclipses.

En cambio, para los eclipses de Sol, el cálculo es más complicado, ya que un eclipse solar es un fenómeno local, no visible desde toda la Tierra, y depende estrechamente de la posición exacta de la Luna en la bóveda celeste. Sin embargo, ya en la Antigüedad se previeron eclipses de Sol: un ejemplo lo dio Tales, que predijo el eclipse total que tuvo lugar el año 585 a.C.

OTROS ECLIPSES
El fenómeno de los eclipses, tal como se presenta, no es exclusivo del sistema formado por la Tierra, la Luna y el Sol, sino que se produce en una gran cantidad de cuerpos celestes. Un ejemplo conocido es el de los satélites galileanos, cuyo estudio permitió llegar a una primera estimación de la velocidad de la luz.

Naturalmente, lo mismo que sucede en la Tierra cuando la Luna se interpone entre ella y el Sol, también podrían observarse eclipses de Sol desde Júpiter cuando uno de los satélites pasa por delante del planeta gigante. Pero el fenómeno más singular ocurre cuando, en determinadas condiciones, son los satélites los que se eclipsan recíprocamente. Por ejemplo, hay eclipses de Io provocados por Ganímedes, mientras que en aquel mismo momento hay un eclipse de Sol en Io.

Otro caso interesante es el de dos estrellas que orbitan una alrededor de otra y el plano orbital está en la línea visual de la Tierra. En tal caso, las estrellas pasarán periódicamente una delante de otra, enmascarando la luz de la compañera que permanece detrás y provocando eclipses de estrellas.

Por consiguiente, los eclipses son una notable fuente de información sobre los sistemas en los que se producen. Esto es así incluso en nuestro medio: durante un eclipse solar es posible estudiar más cómodamente partes del Sol que de otro modo son de difícil observación. También se ha querido comprender el estado de la atmósfera terrestre por el color que adquiere la Luna durante algunos eclipses.

Un aspecto singular de este fenómeno, ligado a su predictibilidad relativamente sencilla, es la investigación histórica: si un hecho tiene una datación incierta y ocurrió en el momento exacto o aproximado de un eclipse, es posible deducir con más rigor su fecha precisa.