Movimiento de los Satélites

Disputa Newton y Hooke Por las Orbitas Elípticas de los Planetas

HISTORIA DE LA PUBLICACIÓN DE LOS «PRINCIPIAS» – CONFLICTO NEWTON-HOOKE

ANTECEDENTES DE LA ÉPOCA. El incipiente desarrollo científico que se inició en el siglo XVII,  comenzó cuestionando el primitivo y anacrónico aristotelismo (Conjunto de las doctrinas del filósofo griego Aristóteles que explicaban los fenómenos naturales ), como teoría sintetizadora general que da cuenta del conjunto del cosmos, es decir,  fue vulnerado seriamente por los nuevos descubrimientos científicos, pero éstos no bastaron, hasta Newton, para dar ocasión a una teoría que ordenara y diera sentido a la acumulación de descubrimientos parciales.

Ello explica que en los más altos científicos de la época, las nociones matemáticas y astronómicas de la mayor exactitud se dieran junto a ideas místicas y religiosas tradicionales, tal como en el caso de Kepler.

En el campo de la astronomía se continuó la labor de Copérnico, especialmente por obra de Kepler, y los perfeccionamientos del telescopio que llevó a cabo Galileo permitieron comprender mejor la estructura del sistema solar.

La. investigación de la realidad física ensayó con éxito una metodología y una conceptuación nuevas cuando Galileo formuló las leyes del movimiento de los cuerpos, en 1638.

El descubrimiento de la circulación de la sangre por William Harvey (1578-1657), significó un extraordinario avance para la fisiología.

En la segunda mitad del siglo, el mundo científico, tal como aconteciera con el mundo filosófico, estaba dominado por la polémica en torno del cartesianismo. La explicación dada por Harvey a los movimientos del corazón se impuso a la observación empírica, pese a la oposición de Descartes. Leibniz refutó las ideas cartesianas acerca del movimiento, y Pascal estableció la teoría de la probabilidad de las hipótesis.

Pero la culminación científica del siglo XVII fue la obra de Isaac Newton (1642-1727), quien había de resumir en sí y superar todas las tendencias intelectuales de la época. Descubrió el cálculo infinitesimal y formuló la ley de la gravitación universal, que pasó a ser la nueva concepción totalizadora del universo y desplazó definitivamente al aristotelismo.

Newton y Hooke

Robert Hooke (1635-1703), científico inglés, conocido por su estudio de la elasticidad. Hooke aportó también otros conocimientos en varios campos de la ciencia.Nació en la isla de Wight y estudió en la Universidad de Oxford. Fue ayudante del físico británico Robert Boyle, a quien ayudó en la construcción de la bomba de aire.

En 1662 fue nombrado director de experimentación en la Real Sociedad de Londres, cargo que desempeñó hasta su muerte. Fue elegido miembro de la Real Sociedad en 1663 y recibió la cátedra Gresham de geometría en la Universidad de Oxford en 1665.

newton isaac

ISAAC NEWTON (1642-1727): El científico inglés realizó trabajos que revolucionaron el conocimiento y fundaron la ciencia clásica. Sus principios de la luz, del movimiento y de la atracción de las masas sólo serían cuestionados a comienzos del siglo XX, particularmente por Einstein. (Ver: Biografía)

LA HISTORIA Y DESCRIPCIÓN DE LOS «PRINCIPIA»: Hacia 1680 el problema del sistema planetario, en el sentido de dar una explicación racional a las leyes, que Kepler había dado empíricamente, estaba, por así decir, en el aire entre los astrónomos ingleses.

Se sabía, en virtud de las leyes de la fuerza centrífuga, que en un movimiento circular uniforme de un punto, que obedeciera a la tercera ley de Kepler, la fuerza era inversamente proporcional al cuadrado del radio.

¿Sería válida esta ley en el movimiento de los planetas, cuya órbita no era circular sino elíptica, y los cuerpos en cuestión no siempre podían asimilarse a puntos?.

Es a esta pregunta que Newton contesta afirmativamente en su célebre libro, en latín, Principios matemáticos de la filosofía natural (es decir de la física), conocido, abreviadamente como los Principia.

La obra se compone de tres libros, el Libro I de los cuales expone los fundamentos de la mecánica a la manera euclideana con definiciones, axiomas, teoremas y corolarios, introduciendo en los sistemas, además de la ley de inercia, el concepto de masa y el principio de acción y reacción.

Este libro se ocupa del movimiento en el vacío, comprobándose las leyes de Kepler en el caso de un movimiento central en el cual la fuerza que actúa sobre el punto móvil es inversámente proporcional al cuadrado de ia distancia al centro fijo, foco de la órbita elíptica del móvil.

El Libro II se ocupa, en cambio, del movimiento en un medio resistente, y entre las distintas cuestiones que trata aparece la primera fórmula teórica que expresa la velocidad del  sonido.

Los dos primeros libros sientan los principios matemáticos, es decir teóricos, de la ciencia del movimiento; el Libro III estudiará el movimiento «filosóficamente», es decir físicamente, tomando como ejemplo el «sistema del mundo».

Antepone para ello las «Reglas del razonamiento en filosofía», es decir las normas que desde entonces constituyen las bases del método científico en la investigación de los fenómenos naturales; pasando luego al enunciado del grupo de fenómenos celestes que debe explicar, demostrando que la ley: «Dos cuerpos gravitan mutuamente en proporción directa de sus masas y en proporción inversa del cuadrado de sus distancias», es de validez universal, dando así por primera vez una demostración matemática que elimina la milenaria distinción entre el mundo celeste y el mundo sublunar.

A continuación comprueba las leyes de Kepler y de la caída libre, demuestra el achatamiento de la Tierra, explica por vez primera las mareas y la precisión de los equinoccios, incluye los cometas en el sistema planetario…

En las ediciones sucesivas de los Principia que Newton publicó en vida, introdujo modificaciones y agregados entre los cuales el célebre «Escolio general», en el cual el científico da paso al metafísico o, mejor, al creyente, expresando que «Este muy hermoso sistema del Sol, los planetas y cometas sólo puede proceder del consejo y dominio de un Ser inteligente y poderoso… discurrir de Él a partir de las apariencias de las cosas, eso pertenece, sin duda, a la filosofía natural».

EL ORIGEN DEL CONFLICTO: LA LEY DE LA INVERSA DEL CUADRADO
EL ODIO ENTRE NEWTON Y HOOKE

A principios del siglo XVIII, el matemático y astrónomo alemán Johannes Kepplee había propuesto tres leyes del movimiento planetario, que describían con precisión como se mueven los planetas respecto al Sol, pero no conseguía explicar por qué los planetas  se movían como se movían, es decir en órbitas elípticas.

orbita elpitica de un planeta

1° Ley de Kepler: Los planetas recorren órbitas elípticas y el Sol ocupa uno de sus focos

Newton se propuso descubrir la causa de que las órbitas de los planetas fueran elípticas. Aplicando su propia ley de la fuerza centrífuga a la tercera ley de Kepler del movimiento planetario (la ley de las armonías) dedujo la ley del inverso de los cuadrados, que  establece que la fuerza de la gravedad entre dos objetos cualesquiera es inversamente proporcional al cuadrado de la distancia entre los centros de los objetos.

Newton reconocía así que la gravitación es universal que una sola fuerza, la misma fuerza, hace que  una manzana caiga al suelo y que la Luna gire alrededor de la Tierra.

Entonces se propuso contrastar la relación del inverso de los cuadrados con los datos conocidos.

Aceptó la estimación de Galileo de que la Luna dista de la Tierra unos sesenta radios terrestres,  pero la imprecisión de su propia estimación del diámetro de la Tierra le impidió completar esta prueba satisfactoriamente. Irónicamente, fue un intercambio epistolar en 1679  con su antiguo adversario Hooke lo que renovó su interés en este problema.

Esta vez dedicó su atención a la segunda ley de Kepler, la ley de la igualdad de las áreas, Newton pudo demostrar a partir de la fuerza centrífuga.

Hooke, sin embargo, desde 1674 estaba intentando explicar las órbitas planetarias, y había logrado dar con el problema del movimiento orbital.

En un tratado que se publicó aquel mismo año, descartó la idea de un equilibrio entre las fuerzas que empujaban hacia dentro las que empujaban hacia afuera para mantener a un objeto como la Luna en su órbita. Constató que el movimiento orbital resultaba de suma: por una parte, la tendencia de la Luna a moverse en línea recta y, por otra, una fuerza «única» que la atraía hacia la Tierra.

Mientras tanto el propio Newton, Huygens y todos los demás seguían hablando de «una tendencia a alejarse del centro», y Newton había llegado al extremo de aceptar vórtices cartesianos (una vieja teoría de Descartes) como responsables de empujar a los objetos para que volvieran a situarse en sus órbitas, a pesar de su tendencia desplazarse hacia el exterior.

También se sabe que  algunas de las cartas enviadas a Newton sobre este tema resultaron de particular interés para el científico, pues había despertado una gran idea para aplicar como teoría en sus investigaciones.  En una de sus cartas Hooke escribió a Newton para pedirle su opinión sobre estas teorías (que ya se habían publicado).

Le habló de la ley del cuadrado inverso, que Newton ya tenía, de la acción a distancia, y de la idea a la que había llegado: no había fuerza centrífuga ninguna, sino solamente una fuerza centrípeta que apartaba a los planetas de una trayectoria rectilínea y la curvaba mediante la gravedad.

En el gran libro sobre la historia del pensmaiento científico, de Moledo y Olszevicki, conocido como:»Historia de las ideas científicas», nos relata al respecto:

«Probablemente fue esta carta la que liberó a Newton del asunto de la fuerza centrífuga (que es una fuerza artificial, simplemente la reacción a la fuerza centrípeta —esta última sí real—) y lo estimuló para demostrar, en 1680, que una ley de la gravedad con cuadrados inversos a las distancias exige que los planetas se muevan recorriendo órbitas elípticae implica que los cometas deben seguir trayectorias elípticas o parabólicas alrededor del Sol. Ésta es la razón por la que ya tenía la respuesta preparada cuando, en 1684, Halley se apareció en la puerta de su casa.

Porque fue así: aprovechando un viaje, Halley, en agosto de 1684. visitó a Newton en Cambridge, donde debatieron sobre las órbitas de los planetas y la ley del cuadrado inverso. Según contó Newton después, cuando llevaban cierto tiempo reunidos, Halley le preguntó qué tipo de curva creía él que describirían los planetas, suponiendo que la fuerza de atracción hacia el Sol fuera inversa al cuadrado de las distancias respectivas de los planetas a dicho astro.

Newton dijo inmediatamente «una elipse», ante lo cual Halley le preguntó cómo lo sabía. «Porque la he calculado», respondió Newton de inmediato. Tras esto, Halley le pidió que le dejara ver los cálculos, pero Newton buscó entre sus papeles y no pudo encontrarlos. Se comprometió entonces a volver a hacerlos v a enviárselos apenas los tuviera listos.

Ese encuentro entre Halley y Newton y los cálculos que nunca encontro se convertirían en el puntapié inicial para que nuestro protagonis:: se pusiera a escribir los Principia.»

A petición de Halley, Newton pasó tres meses rehaciendo y mejorando la demostración. Entonces, en una explosión de energía sostenida durante dieciocho meses, durante los cuales se absorbía tanto en su trabajo que a menudo se olvidaba de comer, fue desarrollando estas ideas hasta que su presentación llenó tres volúmenes. Newton decidió titular su obra Philosophiae Naturalis Principia Mathemañca, en deliberado contraste con los Principia Philosophiae de Descartes.

Ya en 1684 Newton publicó un trabajo en el que explicaba la ley de cuadrado inverso, pero recién en 1687 vio la luz su gran obra épica.

Los tres libros de los Principia de Newton proporcionaron el nexo entre las leyes de Kepler y el mundo físico. Halley reaccionó con «estupefacción y entusiasmo» ante los descubrimientos de Newton. Para Halley, el profesor Lucasiano había triunfado donde todos los demás habían fracasado, y financió personalmente la publicación de la voluminosa obra como una obra maestra y un regalo a la humanidad.

«Los Principia fueron celebrados con moderación al ser publicados, en 1687, la primera edición sólo constó de unos quinientos ejemplares. Sin embargo, la némesis de  Newton, Robert Hooke, había amenazado con aguar la fiesta que Newton hubiera podido disfrutar.

Cuando apareció el libro segundo, Hooke afirmó públicamente que las cartas que había escrito en 1679 habían proporcionado las ideas científicas vitales para los descubrimientos de Newton. Sus pretensiones, aunque dignas de atención, parecieron abominables a Newton, que juró retrasar o incluso abandonar la publicación del tercero. Al final, cedió y publicó el último libro de los Principia, no sin antes eliminar cuidadosamente cualquier mención al nombre de Hooke.

El odio que Newton sentía por Hooke le consumió durante años. En 1693 todavía  sufrió otra crisis nerviosa y abandonó la investigación. Dejó de asistir a la Royal Society hasta la muerte de Hooke en 1703, y entonces fue elegido presidente y reelegido cacada año hasta su propia muerte en 1727.»

Fuente: «A Hombres de Gigantes»

Fuente Consultadas:
El Saber de la Historia de José Babini Edit. Biblioteca Fundamental del Hombre Moderno
Grandes Figuras de la Humanidad Edit. Cadyc Enciclopedia Temática Familiar
A Hombres de Gigantes Edit. CRÍTICA
Historia de las Ideas Científicas Leonardo Moledo y Nicolás Olszevicki Edit. PLANETA

Trabajo Enviado Por Colaboradores del Sitio

Cuadro sinoptico del Universo, Sistema Solar, Planetas y Galaxias

SINTESIS EN UN CUADRO SOBRE EL SISTEMA SOLAR

Nuestro sistema solar que está contenido en la galaxia llamada Vía Láctea, está conformado por el Sol y ocho planetas que gravitan a su alrededor. Los planetas siguen órbitas que, casi en su totalidad, están situadas en el mismo plano; y todos se desplazan en torno al Sol en el mismo sentido.

El tiempo que tardan en dar una vuelta constituye el año de cada planeta: Mercurio, el más cercano, demora tres meses terrestres. Además de los planetas, entre Marte y Júpiter circulan cuerpos pequeños, bloques de rocas cuyo diámetro no suele pasar los pocos kilómetros. Se cree que estos asteroides son los restos de un planeta que, o bien se fragmentó, o no llegó a formarse jamás.

Ampliar Sobre la Evolución del Universo

cuadro sinoptico universo

Ver Tambien: Sistema Solar Para Niños de Primaria

Diferentes clases de astros
Los astros se pueden dividir en cuatro tipos:

a) los que poseen luz propia, como el Sol, las estrellas, las nebulosas de emisión y algunos cometas:

b) los que brillan con luz reflejada, como la Luna, los planetas, satélites, asteroides, ciertos cometas y ciertas nebulosas:

c) los que no emiten luz alguna, como las nebulosas obscuras, cuya existencia se conoce en virtud de que impiden pasar la luz de los astros situados detrás de ellas; y

d) las estrellas fugaces y bólidos, que lucen porque al entrar velozmente en nuestra atmósfera se tornan incandescentes al rozar con los gases de ésta.

Los movimientos aparentes de los astros difieren según los casos.

Las estrellas, los conglomerados, las nebulosas y las galaxias, describen un círculo completo alrededor de la Tierra en 24 horas menos cuatro minutos.

Los planetas tienen un movimiento aparente complejo. Se clasifican eñ interiores o exteriores según sea que su órbita esté, respectivamente, dentro o fuera de la que sigue la Tierra. Los planetas interiores, Mercurio y Venus, siguen una ruta cercana al astro mayor y sólo son visibles antes de orto o salida de éste, y después de su ocaso o puesta. Vistos a través del telescopio los planetas interiores presentan fases porque,estando sus órbitas dentro de la terrestre, su disco se ve más o menos iluminado por el Sol.

Cuando se hallan a la mayor distancia aparente del Sol -máxima elongación- tienen la mitad del disco iluminado.La elongación puede ser oriental u occidental, de acuerdo a cómo están situados respecto del Sol.

Los planetas exteriores se ven de noche y, por lo común, viajan aparentemente de O a E a través de las estrellas, pero, según los movimientos combinados de cada planeta y la Tierra, hay un momento en que parece que se detienen: están estacionarios; acto seguido cambian de rumbo y se dirigen de E a O, hasta llegar a otro punto donde permanecen de nuevo estacionarios, para continuar posteriormente con su marcha normal.

Entre dos posiciones estacionarias llegan a la oposición, en que se sitúan en la línea Sol, Tierra y planeta. Si la disposición es planeta, Sol y Tierra, se dice que el planeta está en conjunción (con el Sol interpuesto).

Los planetas se mueven dentro del Zodíaco, que es una faja de 8o de anchura a cada lado de la eclíptica.

Otros Temas Tratados en Este Sitio

Big Bang

Origen de la Vida

Origen del Hombre

Teoría de la Evolución

Muerte de una Estrella Los Pulsares Enana Blanca

Peso de Una Estrella de Neutrones

La Vida del Sol Tiempo de Vida Hidrogeno del Sol

La Luna Muestra Siempre la Misma Cara

Origen del aire que respiramos El Oxigeno

Mensaje y Sonidos En El Disco de Oro de la Sonda Voyager

Mensaje y Sonidos En El Disco de Oro de la Sonda Voyager

La era espacial nos ha mostrado fenómenos asombrosos, tanto dentro del Sistema Solar como más allá. Las sondas espaciales han viajado a la Luna, a los planetas principales y a varios mundos menores, y los telescopios orbitales nos han ofrecido imágenes deslumbrantes del universo profundo. Las dos naves espaciales interestelares Voyager, las máquinas más rápidas que se hayan lanzado nunca desde la Tierra, se están desplazando ahora a una diez milésima parte de la velocidad de la luz. 

Necesitarían 40.000 años para situarse a la distancia de la estrella más próxima. ¿Tenemos alguna esperanza de abandonar la Tierra y de atravesar distancias inmensas para llegar aunque sólo sea a Próxima Centauri al cabo de períodos convenientes de tiempo? ¿Podemos hacer algo para aproximarnos a la velocidad de la luz? ¿Estaremos algún día en disposición de ir a velocidad superior a ella?

La sonda espacial Voyager 2 fue lanzada el 20 de agosto de 1977 desde Cabo Cañaveral, en un cohete Titán-Centauro. Es idéntica a su sonda hermana, la Voyager 1. Ambas sondas habían sido concebidas inicialmente como parte del programa Mariner con los nombres de Mariner 11 y Mariner 12, respectivamente.  A diferencia de su predecesora, la Voyager 2 adoptó una trayectoria diferente en su encuentro con Saturno, sacrificando la cercanía a Titán, pero adoptando un mayor impulso gravitacional en su viaje hacia Urano y Neptuno. La sonda alcanzó su mayor cercanía con estos planetas en los años 1986 y 1989, respectivamente.

Explorar el Sistema Solar en un tiempo razonable plantea alguno retos difíciles. Desde la década de 1970, los ingenieros de la  NASA han usado una ingeniosa técnica para reducir el tiempo del viaje sin recurrir a combustible adicional. Una «honda gravitatoria» supone dirigir la nave espacial  directamente hacia un planeta, girar en torno a él y partir en la misma dirección de su desplazamiento obteniendo así una aceleración significativa.

Esta técnica se utilizó por primera vez para ajustar la órbita de la sonda Mariner 10, que sobrepasó Venus en su viaje hacia Mercurio en 1973, pero su aplicación más famosa fue en las sondas Voyager 1 (abajo), que aprovecharon un raro alineamiento planetario para recorrer todo; los gigantes gaseosos entre las décadas de 1970 y 1980.

exploracion del universo

En enero de 2015, las dos sondas Voyager, las naves espaciales que más lejos han llegado, sobrepasaron los 14.000 días de operación. Su historia es la de un gran éxito, que comenzó siendo un viaje a los planetas gigantes más alejados y se ha convertido en la primera misión interestelar humana.

Las dos sondas Voyager fueron lanzadas en 1977, El 20 de agosto partió la Voyager 2, y el 5 de septiembre, la Voyager 1. Esta sonda fue la primera en enviar una fotografía de la Tierra y la Luna vistas desde el espacio.

Durante el viaje, la Voyager I tomó la delantera, y fue la primera en aproximarse a Júpiter (5 de marzo de 1979). Continuó su viaje hacia Saturno, planeta al que llegó en noviembre de 1980, Después, abandonó el Sistema Solar.

La Voyager 2 llegó a Júpiter en julio de 1979 y a Saturno en agosto de 1982, En aquel momento se consideró necesario mejorar las antenas que recibían los datos de las sondas, con el objetivo de poder seguirlas en su viaje a tan larga distancia, Cuatro años después, la Voyager 2 se convirtió en el primer vehículo espacial que visitó Urano.

El 24 de junio de 1986 llegó al tercer planeta gaseoso y comenzó a enviar imágenes. Tres años después, el 25 agosto de 1989, alcanzó Neptuno y salió del Sistema Solar bajo el plano de la eclíptica.

En 1990, la misión Voyager de exploración planetaria se convirtió oficialmente en la primera misión interestelar. El 14 de febrero se recibió la última imagen de una sonda Voyager, el retrato del Sistema Solar en su conjunto.

Entre la información enviada, se grabaron en un disco laminado en oro,  fotografías de hombres de todas las partes del mundo que cuidan de sus semejantes, que aprenden, que fabrican herramientas y arte, y que se enfrentan con problemas.

Hay una hora y media de música exquisita procedente de muchas culturas, música que expresa nuestra sensación de soledad cósmica, nuestro deseo de acabar con nuestro aislamiento, nuestras ansias de entrar en contacto con otros seres del Cosmos. Y hemos enviado grabaciones de los sonidos que se habrían oído en nuestro planeta desde los primeros días, antes del origen de la vida, hasta la evolución de la especie humana y de nuestra más reciente tecnología, en pleno crecimiento. Es, como los sonidos de cualquier ballena yubarta, una especie de canción de amor lanzada a la vastitud de las profundidades. Muchas partes de nuestro mensaje, quizás la mayoría, serán indescifrables. Pero lo hemos enviado porque era importante intentarlo.

De acuerdo con este espíritu incluimos en la nave espacial Voyager los pensamientos y sensaciones de una persona, la actividad eléctrica de su cerebro, corazón, ojos y músculos, que se grabaron durante una hora, se transcribieron en sonido, se comprimieron en el tiempo y se incorporaron al disco. En cierto sentido hemos lanzado al Cosmos una transcripción directa de los pensamientos y sensaciones de un ser humano en el mes de junio del año 1977 en el planeta Tierra.

Explica Carl Sagan, en su famoso libro «COSMOS»,

El mensaje Voyager se desplaza a una lentitud desesperante. Es el objeto más rápido lanzado nunca por la especie humana, pero tardará decenas de miles de años en recorrer la distancia que nos separa de la estrella más próxima. Cualquier programa de televisión atraviesa en horas la distancia que el Voyager ha cubierto en años. Una transmisión de televisión que acaba de estar ahora mismo en el aire, en unas cuantas horas dará alcance a la nave espacial Voyager en la región de Saturno, y más allá, y continuará su carrera hacia las estrellas. Si va en la correspondiente dirección alcanzará Alpha Centauri en algo más de cuatro años.

Si dentro de unas décadas o de unos siglos alguien en el espacio exterior oye nuestras emisiones de televisión, espero que piense bien de nosotros, porque somos el producto de quince mil millones de años de evolución cósmica, la metamorfosis local de la materia en consciencia. Nuestra inteligencia nos ha dotado recientemente de poderes terribles. No está todavía claro que tengamos la sabiduría necesaria para evitar nuestra propia destrucción. Pero muchos, de nosotros están luchando duro por conseguirlo.

Confiamos que muy pronto, en la perspectiva del tiempo cósmico, habremos unificado pacíficamente nuestro planeta con una organización que respete la vida de todo ser vivo que lo habita, y que esté dispuesta a dar el siguiente gran paso, convertirse en parte de una sociedad galáctica de civilizaciones en comunicación.»…

LOS SONIDOS DEL PLANETA TIERRA:

¿CÓMO HACER comprender a un habitante de un planeta lejano lo que son y cómo viven los seres humanos en la Tierra? Ésta fue la pregunta que se  planteó a un comité de expertos en 1977, cuando las naves espaciales de EUA Voyager 1 y 2 iban a ser lanzadas en un viaje al espacio con un saludo para cualquier forma de vida inteligente con que se toparan.

Para sorpresa de muchos, los expertos coincidieron en que uno de los mejores modos de comunicarse con extraterrestres sería no con palabras o imágenes, sino con música. Dedicaron los 87 minutos del videodisco de los Voyager a una selección de los “grandes éxitos musicales de la Tierra”. ¿Por qué la música?.

Disco de oro The Sounds of Earth (arriba), protegido por un estuche de aluminio con chapa de oro, es instalado en el Voyager 2. Con éste se envió al espacio exterior, donde los científicos esperan que lo reciba alguna forma de vida inteligente no humana.

En primer lugar,  porque su estructura —desde un blues de ocho compases hasta una compleja fuga de Bach— se basa en números, y la armonía es de fácil análisis matemático. Las matemáticas son el lenguaje más universal, por lo que era más probable que los extraterrestres comprendieran la estructura matemática de nuestra música más que cualquier otra cosa sobre nosotros.

Además, expresa los sentimientos humanos mejor que otros medios y podría representar la variedad de culturas. No ha habido sociedades sin su música típica para expresar tristeza y dolor, alegría y tranquilidad. Al seleccionar la música que representaría a la humanidad en el universo, la clave fue la variedad. 

Se eligieron canciones aborígenes de Australia, el Night Chant de los navajos y una canción de boda peruana; música de gamelán de Java, de zampoñas de las islas Salomón y de Perú, un raga de la India y música ch’in de China; piezas para gaitas de Azerbaiyán, flautas de bambú de Japón y percusiones del Senegal.

También se incluyeron canciones de Georgia, Zaire, México, Nueva Guinea y Bulgaria; el blues Dark Was the Night con Blind Willie Johnson, Melancholy Blues con el trompetista de jazz Louis Armstrong y Johnny B. Goode con el cantante de rock Chuck Berry. De la tradición culta occidental se seleccionó música para flauta renacentista, tres obras de Bach y dos de Beethoven, un aria de La flauta mágica de Mozart y La consagración de la primavera de Stravinsky.

¿Son éstos los éxitos musicales de la Tierra? Al menos son hoy los que más podrían persistir. El videodisco, de cobre con chapa de oro, fue fabricado para que dure 1.000 millones de años.

INSTRUMENTOS DE GUERRA:

EL SONIDO estridente de las gaitas ha acompañado a los escoceses de laS Tierras Altas en las batallas cuando menos durante los últimos 400 años, dando nuevos ánimos a los ardientes guerreros de las montañas y provocando miedo en el corazón de sus enemigos. Según registros, en la Batalla de Pinkie (1549), “los violentos escoceses se incitaban a la guerra con el sonido de las gaitas”. Y éstas se escucharon también en 1942, cuando tropas de las Tierras Altas escocesas avanzaron por campos minados del desierto contra el Afrika Korps de Rommel, en la batalla de El Alamein.

Desde Suecia hasta Túnez

Las gaitas simbolizan a Escocia tanto como el haggis y el whisky. Pero los escoceses no pretenden ser los inventores de la gaita. Es casi seguro que haya surgido en el Imperio Romano durante el siglo 1. Se cree que el emperador Nerón la tocaba, y es más probable que estuviera practicando este instrumento, no el violín, mientras Roma ardía.

Hacia 1300, gaitas de un tipo u otro zumbaban y chillaban desde Inglaterra hasta la India, y de Suecia a Túnez casi en cualquier parte, menos en Escocia. Fue un siglo después, cuando ya el resto del mundo había empezado a cansarse del instrumento, que los escoceses lo adoptaron.

Llamado a la gloria En 1915, el gaitero Laídlaw (foto izquierda) incitó a las tropas británicas para que continuaran el avance a través de una nube de gas mostaza en el frente occidental. Su valentía lo hizo merecedor de la Cruz de Victoria.

Las gaitas fueron populares en parte porque podían fabricarse con materiales que se conseguían en la sociedad rural. Sólo se requería la piel de una oveja o el estómago de una vaca para hacer el odre, y unas pocas cañas perforadas para los canutos. El principio del instrumento es ingenioso, pero sencillo. El gaitero sopla en el odre, que actúa como depósito para mantener la circulación constante de aire a los canutos. Estos son de dos tipos, caramillo y roncón. En una versión sencilla de dos canutos, el gaitero ejecuta la melodía en el caramillo, mientras el roncón produce el bajo continuo característico del sonido de la gaita. En algunas variantes, el aire para el odre proviene de un fuelle.

Las gaitas aún se emplean en la música folklórica de muchos países. Por ejemplo, acompañan las danzas tradicionales de los bretones, en el noroeste de Francia. Muchas personas relacionan con regimientos escoceses el sonido de las gaitas entremezclado con el estruendo de una batalla. Pero los escoceses no tienen exclusividad al respecto: durante siglos los irlandeses también las han usado para llamar a las armas.

EL VIOLIN STRADIVARIUS:

Los violines Stradivarius son los más preciados instrumentos musicales del mundo. Entre los cerca de 600 ejemplares que aun se conservan hay algunos valorados en más de un millón y medio de euros, es decir, más de cien veces de lo que costaría el más perfecto ejemplar artesano moderno y más de diez mil veces que los procedentes de fabricaciones industrializadas.

Un violín hecho en el siglo XVIII por Antonio Stradivarius, de Cremona, Italia, puede costar hasta un millón de dólares. Los stradivarius se cotizan a tan altos precios porque todavía se los cataloga como los violines más finos que se hayan producido.

Stradivarius fue un genio tranquilo, un artesano asentado en Cremona, donde residió toda su vida en una modesta casa taller del barrio antiguo. A crear esta aureola de misterio ha contribuido el hecho de no conocer apenas datos biográficos de su vida, a lo que hay que sumar las extrañas circunstancias en las que se perdió su cadáver.

No se sabe con certeza en que año nació ni en que ciudad exactamente, pues no queda registro del hecho. Se piensa por otras fechas posteriores que pudo nacer en torno a los años 1640-1645. Se conoce mejor su estancia en la ciudad Italiana de Cremona donde desarrolló toda su carrera como constructor de violines. En total construyó más de mil violines, de los que se conservan cerca de la mitad.

Stradivarius enseñó a sus dos hijos el arte de hacer instrumentos de cuerda y, aunque ellos no lograron alcanzar la misma calidad mágica del padre, su trabajo fue notable. Ha sido un misterio qué confiere a un stradivarius su calidad única; las conjeturas se han centrado en el barniz empleado en estos instrumentos. Stradivarius escribió su fórmula del barniz en la guarda de la Biblia familiar; mas, por desgracia, uno de sus descendientes la destruyó.

El italiano Antonius Stradivarius (1644-1737) introdujo una geometría y un diseño que se convirtieron en los modelos a seguir por todos los fabricantes de violines. De los 1.100 instrumentos que construyó, aún sobreviven unos 650. El extremadamente alto valor de estos instrumentos quedó demostrado en una subasta realizada en el mes de abril en Londres. El violín Stradivarius ‘Lady Tennant’ vendido en esa oportunidad, batió un récord en el mundo de las subastas de instrumentos musicales, con un precio astronómico de un millón y medio de euros.

Madera veneciana:

Pese a lo anterior, Joseph Nagyvary, profesor de bioquímica y biofísica en la Universidad de Agricultura y Mecánica de Texas, cree haber descubierto el secreto de Stradivarius: la madera de abeto que éste usó procedía de Venecia, donde se guardaba junto al mar. Esto producía diminutos agujeros en la madera, sólo visibles con un microscopio electrónico de 2 000 amplificaciones. La madera curada en seco de los violines modernos no tiene estos orificios. Según Nagyvary, esto confiere riqueza y resonancia especiales al sonido.

Nagyvary también descubrió, al examinar el barniz, que incluía diminutos cristales de mineral. Infirió que procedían de piedras preciosas molidas, que añadían los alquimistas al preparar el barniz en la creencia de que las piedras tenían propiedades mágicas. En un violín, estos cristales filtran los armónicos agudos y producen un sonido más puro y terso.

Nagyvary puso a prueba su teoría al fabricar un violín con madera curada en la humedad y recubierta de un barniz que contenía polvo de piedras preciosas. Un experto calificó el resultado como “el mejor violín nuevo que jamás he escuchado”. La famosa violinista Zina Schiff quedó tan impresionada que tocó el instrumento en conciertos públicos.

¿Se percataban Stradivarius u otros famosos violeros de Cremona —como los Amati y los Guarnen— de la singular calidad de los materiales que utilizaban? Al respecto, Nagyvary dice: “Sinceramente pienso que los antiguos violeros no sabían, acerca de la fabricación de violines, más de lo que saben los actuales artesanos… Solamente fueron los afortunados beneficiarios de una feliz coincidencia histórica.”

Silos violeros actuales usaran los descubrimientos de Nagyvary, ¿disminuiría el valor de un stradivarius? Es casi indudable que no, pues no parece haber nadie capaz de revivir su ingrediente mágico: su genialidad.

Fuente Consultada: Sabia ud. que….? Editorial Reader Digest

El planeta sedna, Características y datos, Distancia y medidas

OPINION CIENTIFICA –1

Sedna: el décimo planeta en el Sistema Solar

Aunque es más pequeño que Plutón, es el cuerpo más grande en órbita alrededor del Sol identificado desde el descubrimiento de Plutón, en 1930. Existe discusión entre los astrónomos si, por su pequeño tamaño, tendrá o no status de planeta…o será solamente un planetoide.

planeta sedna

Planeta Sedna, N°:10 del sistema solar

Mercurio, Venus, Tierra, Marte, Júpiter, Saturno, Urano, Neptuno, Plutón… ¡y Sedna!… Sí, porque entre los astrónomos ya se hizo oficial el descubrimiento del décimo planeta del Sistema Solar, el cuerpo celeste más lejano al Sol y de un tamaño muy similar a Plutón.

Está tan lejos del Sol que es el más frío del Sistema Solar. De hecho, su temperatura nunca sobrepasa los -240º C. Pero es el cuerpo celeste más importante y más grande en órbita alrededor del Sol identificado desde el descubrimiento de Plutón, en 1930.

¿Cómo se hizo posible la confirmación de este nuevo planeta?… El equipo encabezado por el investigador Mike Browne, del California Institute of Technology (Caltech) lo detectó por primera vez el 14 de noviembre del 2003, con la ayuda del telescopio Samuel Oschin, en el Observatorio Palomar de Caltech, cerca de San Diego, en California. Con el correr de los días, los telescopios de Chile, España, Arizona y Hawai confirmaron la existencia de Sedna. También lo hizo el nuevo telescopio infrarrojo espacial Spitzer, de la NASA.

Michael Brown dijo que era tanta la distancia de Sedna con respecto al sol, que desde el nuevo planeta se podría tapar el sol con la cabeza de un alfiler.

Más acerca de Sedna

Este nuevo planeta fue bautizado como Sedna en honor a la diosa del mar entre los pueblos inuit, habitantes esquimales del Norte de Canadá y Groenlandia, dama de las profundidades del mar y de las emociones humanas.

Según el pueblo inuit, la diosa Sedna dio origen a las criaturas marinas desde una cueva congelada que ocupa en el fondo del océano.

Sedna se encuentra aproximadamente a 12.800 millones de kilómetros de la Tierra y su tamaño parece ser tres cuartas partes el de Plutón. Es seis veces más pequeño que la Tierra.

Posee un diámetro de unos 2.000 kilómetros y una superficie recubierta de hielo y roca, y debido a su dimensión pequeña, algunos científicos expresaron sus dudas a que pueda ser considerado un planeta más. Y es que – dicen – tal vez sería más correcto hablar de un «planetoide».

Sedna es más rojo que cualquier otro cuerpo del Sistema Solar, con la excepción de Marte, y sigue una órbita muy elíptica, que en su punto más alejado lo sitúa a unos 135.000 millones de kilómetros del Sol, una distancia equivalente a 900 veces la existente entre el Sol y nuestro planeta, por lo cual tarda 10.500 años terrestres! en completar una sola órbita.

Para tener una idea, Plutón, el noveno planeta del Sistema Solar, y hasta ahora el último, tiene un diámetro de dos mil kilómetros y se encuentra a 6 mil millones de kilómetros de la Tierra.

Los primeros cálculos sugieren que Sedna se encuentra ubicado exactamente en una región del espacio llamada Cinturón de Kuiper. Éste posee cientos de objetos conocidos y los astrónomos creen que aún existen muchos otros esperando ser encontrados.

La mayoría son pequeños mundos de roca y hielo, aunque algunos también podrían ser tanto o más grandes que Plutón. La importancia de Sedna radica específicamente en que es el primero de este tipo de mundos que mantiene una órbita regular, ya que otros objetos similares son menos estables.

¿Qué viene ahora?…Intentar determinar si Sedna posee algún grado de atmósfera. Además, los científicos usarán el Hubble para descubrir por qué posee el tono rojizo más brillante después de Marte.

OPINION CIENTIFICA -2-

Sedna no es el décimo planeta del sistema solar. Numerosos medios de comunicación han cometido varios errores a la hora de describir el último descubrimiento de la NASA.

Entre otras cosas Sedna, un planetoide descubierto por astrónomos del Instituto Tecnológico de California ( Caltech) en cooperación con la NASA, no es un planeta ni tampoco, como se ha dicho, forma parte del cinturón de Kuiper.

El mismo equipo descubrió hace unos días otro planetoide, denominado 2004DW , y este si que forma parte del cinturón de Kuiper. De hecho, por su tamaño de 1600 km de diámetro, su descubrimiento habría sido una gran noticia sino fuera porque Sedna, a pesar de ser de un tamaño similar , tiene la particularidad de ser el primer planetoide situado más allá del cinturón de Kuiper, en una zona que hasta ahora era sólo intuida por la teoría y que se conoce como Nube de Oort.

Sedna está a más del doble de distancia que los objetos más lejanos de nuestro sistema conocidos hasta ahora y tres veces más lejos que Plutón. Por eso es noticia.

En nuestro sistema conocemos el cinturón de asteroides que se encuentra entre Marte y Júpiter, y un cinturón similar llamado Cinturón de Kuiper que se encuentra más allá de Plutón. De echo muchos astrónomos consideran que Plutón no es en realidad un planeta sino uno de los objetos que forman el Cinturón de Kuiper, ya que su tamaño es relativamente pequeño, su órbita es demasiado inclinada y a diferencia de los demás planetas sigue una trayectoría que hace que en ocasiones no sea el más alejado de la Tierra. Sedna es aún más pequeño que Plutón, su órbita también es muy inclinada, y su trayectoria es tan parabólica que sólo lo hemos detectado por casualidad, ya que dentro de unos 70 años volverá a alejarse de nuevo para no regresar y ser visible en las mismas condiciones en los próximos 10,500 años.

Ningún astrónomo calificaría a Sedna como planeta, y muchos dudan que Plutón lo sea, así que difícilmente se puede afirmar que Sedna es el décimo planeta de nuestro sistema. Se trata sólo de una exageración periodística.

Algunos Datos Sobre el Sistema Solar…

– El Sistema Solar está formado por una estrella central, el Sol, los cuerpos que le acompañan y el espacio que queda entre ellos.

– El Sol contiene el 99.85% de toda la materia en el Sistema Solar. Los planetas, los cuales están condensados del mismo material del que está formado el Sol, contienen sólo el 0.135% de la masa del sistema solar.

– Júpiter contiene más de dos veces la materia de todos los otros planetas juntos. Los satélites de los planetas, cometas, asteroides, meteoroides y el medio interplanetario constituyen el restante 0.015%.

– Los planetas terrestres son los cuatro más internos en el Sistema Solar: Mercurio, Venus, Tierra y Marte. Éstos son llamados terrestres porque tienen una superficie rocosa compacta, como la de la Tierra.

– Los planetas Venus, Tierra y Marte tienen atmósferas significantes, mientras que Mercurio casi no tiene.

– A Júpiter, Saturno, Urano y Neptuno se les conoce como los planetas Jovianos (relativos a Júpiter), puesto que son gigantescos comparados con la Tierra, y tienen naturaleza gaseosa como la de Júpiter. También son llamados los gigantes de gas, sin embargo, algunos de ellos tienen el centro sólido.

– Los asteroides son rocas más pequeñas que también giran, la mayoría entre Marte y Júpiter. Además, están los cometas que se acercan y se alejan mucho del Sol. Por su parte, los meteoritos son fragmentos de tierra extraterrestre que se encienden y se desintegran cuando entran a la atmósfera.

Propergoles Combustibles para cohetes Tipos y Componentes

Propergoles, Combustibles para Cohetes
Tipos y Componentes

Las aeronaves que operan dentro de la atmósfera utilizan considerablemente el aire, puesto que lo necesitan como sustentación para sus alas, queman el combustible con su oxígeno y, si poseen hélices, requieren aire a cierta presión para que éstas puedan «aferrarse».

Como por encima de la atmósfera terrestre hay tan pocas moléculas de gas, los métodos convencionales de propulsión resultan insuficientes, al par que la falta de oxígeno obliga a que las aeronaves lleven consigo su provisión de él, ya sea en forma del elemento propiamente dicho, en estado líquido, o en la forma de algún compuesto oxidante.

Se han inventado varios tipos de combustibles y de fuentes de oxígeno para la propulsión de cohetes y otros vehículos espaciales, pero el principio fundamental de toda propulsión de cohete es el mismo en todos los casos, o sea, el principio de acción y reacción de la dinámica.

Al quemarse el combustible, ya sea sólido o líquido, crea enormes cantidades de gases calientes, que se encuentran a gran presión, debido al reducido tamaño de la cámara de combustión. Los gases que escapan por la parte de atrás del motor proveen el empuje necesario para impulsarlo hacia adelante. Los estadounidenses parecen preferir los propergoles líquidos. Entre las combinaciones que han utilizado con buen éxito está la de hidrógeno y oxígeno líquido, que al combinarse producen vapor. También emplearon el oxígeno líquido como oxidante de-combustibles tales como el queroseno y el amoníaco.

La combustión del queroseno produce vapor y bióxido de carbono. Como alternativa, en lugar de oxigeno han usado a veces el peróxido de hidrógeno (agua oxigenada), que se descompone en oxígeno y vapor. En otros cohetes, la combinación era dimetil-hidrazina, oxidada mediante ácido nítrico.

Cuando se emplean propergoles líquidos, el combustible y el oxidante deben ser mantenidos en recipientes separados. Los propergoles sólidos, por el contrario, deben ser mezclados antes de formar las «tortas» de combustible compacto. Los ingredientes típicos de una de esas tortas pueden .ser: perclorato de aluminio (agente oxidante), el ácido acrílico polibutadieno y polvo de aluminio (combustible), más un agente que tiene la función de endurecer la torta luego que ésta ha sido formada en el molde.

Las proporciones de agente oxidante y combustible se disponen de manera que siempre haya un ligero exceso de agente oxidante. Para esto hay dos razones: si la cantidad de agente oxidante es apenas la justa para la combustión completa, existe un serio riesgo de explosión, y, además, el aumento de presión que sufre el agente oxidante excedente, debido al calor de la combustión, se añade al aumento total de presión dentro de la cámara de combustión del motor cohete.

DISTINTAS FUENTES DE ENERGÍA PROPULSORA
Se obtiene el máximo aprovechamiento de la energía disponible por el combustible de un cohete, cuando la velocidad de salida de los gases de la combustión iguala a la velocidad con que el cohete se mueve hacia adelante. Por ello resulta conveniente comunicarle la energía inicial mediante algún medio exterior, tal como podría ser un poderoso motor, que le proporciona la energía de movimiento, o cinética, requerida para que su velocidad alcance un valor aproximado al de salida de los gases de combustión.

El principio de acción y reacción, en el cual se fundamenta la propulsión de cohetes, puede aplicarse no sólo con combustibles sólidos o líquidos convencionales, sino que podríanlos pensar en energía obtenible de distintos modos. En efecto, sabemos que cargas eléctricas, colocadas en un punto del espacio donde exista un campo eléctrico, experimentan fuerzas de naturaleza eléctrica. En los aceleradores modernos de partículas cargadas se obtienen valores elevados de la velocidad de las mismas. Éste sería un método apropiado para obtener la energía necesaria para la impulsión del cohete.

Las partículas podrían ser aceleradas mediante poderosos campos eléctricos. Dado que la materia es una dura concentración de energía, tal como surge de la teoría de la relatividad de la física moderna, fácil es ver que un combustible como éste ocuparía poco espacio, pero en cambio serían indispensables complejos aparatos construidos por la tecnología más avanzada.

Los cohetes de propergol sólido fueron conocidos desde hace mucho tiempo, pero sólo se volvieron a emplear hace muy pocos años. Ello se debió a la simplicidad del sistema y a la facilidad de almacenamiento. Los trabajos de investigación con combustibles sólidos son, en la actualidad, constantes.

cohete propergoles En los Estados Unidos se ha desarrollado, en la década de los 70, un combustible sólido que tiene la consistencia del caucho. Es el thiokol, que se fabrica en base a un derivado del caucho sintético líquido, mezclado con un oxidante sólido. El rendimiento potencial de un combustible depende de la eficacia de la oxidación.

Una idea de la bondad del combustible la da el impulso específico. Utilizando ácido nítrico como oxidante y anilina como combustible, se obtiene un empuje específico de 221, mientras que empleando oxígeno como oxidante y alcohol etílico como combustible, se obtiene un empuje específico de 242.

La fluorina como oxidante y el amoníaco como combustible dan una mezcla combustible de empuje específico igual a 288. El ozono y el hidrógeno, como oxidante y combustible respectivamente, dan una mezcla de empuje específico igual a 369.

La fluorina es uno de los agentes oxidantes más eficaces que se conocen. Es muy probable, con todo, que se mantenga, secreto el conocimiento de algún oxidante de rendimiento superior del tipo del ozono. La fluorina da un buen rendimiento oxidante, sobre todo con fluorita, pero el costo de esta mezcla es actualmente muy elevado. El ozono tiene un mayor poder oxidante que la fluorina, pero ofrece el inconveniente de que en estado puro manifiesta una marcada tendencia a descomponerse explosivamente.

El trimetilo es un compuesto de aluminio, fluido y de poder inflamable sumamente elevado. Su combustión es espontánea al ponerse en contacto con el aire. Su aplicación a la propulsión de cohetes no se halla desarrollada; mas puede constituir un elemento útil para el futuro.

Una fuente de energía hasta ahora prácticamente desconocida está en los radicales libres, que no son más que fragmentos moleculares libres de carga eléctrica, que se forman durante una reacción exotérmica. Las regiones superiores de la atmósfera terrestre son una fuente prácticamente inagotable de estos radicales libres, los cuales son originados por la radiación solar. Los radicales libres son el resultado de un proceso en que absorben energía. Luego pueden suministrar esa energía para la propulsión.

Recientemente se han realizado varios trabajos de experimentación e investigación. La tendencia de esos trabajos es la de aislar, los radicales libres para aprovecharlos como combustibles. Han sido aislados los radicales libres del vapor de agua, del amoníaco, del hidrógeno y del nitrógeno.

El empuje específico de los combustibles basados en los radicales libres resulta muy superior al de los elementos normales. Así, por ejemplo, en el caso del hidrógeno, si se fabrica un combustible con hidrógeno bajo la forma de radical libre, se obtiene un combustible cuyo empuje específico es cinco a seis veces superior al de los convencionales. De este modo, un cohete, propulsado con combustibles basados en los radicales libres, tendrá un alcance de unas treinta veces el del tipo común. No obstante estas ventajas de los radicales libres, en cuanto a concentración de energía, no han salido del campo teórico, debido a que es necesaria la solución de otros problemas muy complicados, tales como producción grande y barata, almacenamiento, control y estabilidad.

Empleando el radical de amoníaco con el hidrógeno líquido, se eleva a 7 u 8 veces el alcance de los cohetes comunes. La propulsión iónica es sin duda el medio más adecuado para impulsar las naves espaciales. En este procedimiento, la fuente de iones apropiados es el cesio.

Los iones de este elemento, acelerados en una superficie incandescente de tungsteno, y colocados bajo la acción de un potencial de unos 30.000 voltios, pueden alcanzar una velocidad de unos 220.000 m/seg., que es la requerida para que el impulso específico resulte elevado.

El berilio es un elemento que posee un elevado poder calorífico por unidad de peso, pero es muy tóxico, y se lo encuentra en la naturaleza en cantidades relativamente pequeñas. Por otro lado, el litio, que es un metal alcalino, y el boro, metaloide, permiten combinaciones con el hidrógeno, llamadas híbridos; estos son las bases esenciales de una gran parte de los supercombustibles empleados en la cohetería moderna. El boro no quema a temperaturas inferiores a los 700° C.

Los hídridos, tales como el de caborano, el pentaborano y el diborano, están destinados a reemplazar al carbono en sus combinaciones con el hidrógeno. El diborano es un gas tóxico, muy inestable en presencia de humedad o del aire. Los procesos tecnológicos requeridos para obtener combustibles basados en boro son en general complicados. En la práctica, se logra estabilizar los hídridos y eliminar su toxicidad, alcalinizándolos.

En Estados Unidos, el pentaborano alcalinizado es conocido bajo el nombre de Hi-Cal2 y Hef2, y el de caborano por Hi-Cal3 y Hef3. Estos combustibles son empleados en el desarrollo del avión cohete X-15.

Los combustibles que emplean borano en su composición química poseen un gran impulso específico, pero tienen una limitación. En efecto, sólo pueden usarse en los casos en que se dispone de aire.

Fuente Consultada: Historia de la Astronáutica – Ediciones Riego S.A.

Agujeros Negros Origen, Formación y Características Breve y Fácil

Origen y Características de los Agujeros Negros
Muerte de Estrellas

Desde hace mucho tiempo uno de los temas predilectos de la ciencia-ficción han sido los agujeros negros, y en estrecha relación con ellos, el viaje a través del tiempo.

El concepto de agujero negro fue popularizado por el físico británico Stephen Hawking, de la Universidad de Cambridge, quien describe con ese nombre a una región del Universo de la que no puede salir ningún objeto una vez que entró allí.

Con esto en mente, sería interesante preguntarse qué le sucedería a alguien en el hipotético caso de encontrarse en las cercanías de una de estas regiones, qué sensaciones tendría y si la realidad que lo rodea sería igual a la que nos es familiar.

Hawking Físico astronomo

Para el físico Stephen Hawking y para la mayoría de los científicos un agujero negro es una región del Universo de la que no puede salir ningún objeto una vez que entró allí.

Agujeros negros: Como hemos visto en el nacimiento de las estrellas, una vez que el H y el He, el combustible termonuclear se han consumido en el núcleo de la estrella, sobreviene un colapso gravitatorio.

La evolución estelar culmina con la formación de objetos extremad mente compactos como enanas blancas o estrellas de neutrones cuando masa de la estrella no excede las 3 Mo (masa del Sol).

Si la masa es mayor, la compresión gravitatoria ya no se puede compensar con las fuerzas de repulsión de 1 electrones o neutrones degenerados y continúa tirando materia sobre la estrella: se forman los agujeros negros. En efecto, cuando los neutrones entre en colapso no existe ningún mecanismo conocido que  permita detener contracción.

Esta continúa indefinidamente hasta que la estrella desaparce, su volumen se anula y la densidad de materia se hace infinita. ¿Cómo entender una “estrella” más pequeña que un punto y con semejante densidad de materia en su interior?

Si una estrella se contrae, el campo gravitatorio en su superficie aumenta, aunque su masa permanezca constante, porque la superficie está más cerca del centro. Entonces, para una estrella de neutrones de la misma masa que el Sol la velocidad de escape será de unos 200.000 km/seg. Cuanto mayor es la velocidad de escape de un cuerpo más difícil es que algo pueda escapa de él.

En cierto momento la velocidad de escape llega al limite de 300.000 km/s. Esta es la velocidad de las ondas electromagnéticas en particular de la luz que será entonces lo único que puede escapar de estos objetos. Ya hemos mencionado que no es posible superar esta velocidad y por lo tanto cuando la velocidad de escape de una estrella sobrepasa este limite, nada podrá escapar de ella. Los objetos con esta propiedad se llaman agujero negros.

Desde 1915, con la teoría de la relatividad general de Einstein se sabía que la gravedad generada por un cuerpo masivo deforma el espacio, creando una especie de barrera; cuanto más masivo es el cuerpo, mayor es la deformación que provoca. Los agujeros negros se caracterizan por una barrera  profunda que nada puede escapar de ellos, ni materia ni radiación; así t da la materia que cae dentro de esta barrera desaparece del universo observable.

Las propiedades físicas de estos objetos son tan impresionantes que por mucho tiempo quitaron credibilidad a la teoría.

Esta predice la existencia de agujeros negros de todos los tamaños y masas: los miniagujeros negros tendrían la masa de una montaña concentrada en el tamaño de una partícula; un agujero negro de 1cm. de radio sería tan masivo como la Tierra; los agujeros negros estelares tendrían masas comparables a las de las estrellas dentro de un radio de pocos kilómetros; finalmente, los agujeros negros gigantes tendrían una masa equivalente a varios cientos de millones de estrellas dentro de un radio comparable al del sistema solar.

Una forma de detectar agujeros negros sería a través de ondas gravitatorias. Estas ondas son para la gravedad lo que la luz es para el campo electromagnético. Sin embargo la tecnología actual no permite todavía esta posibilidad. El colapso de una estrella o la caída de un cuerpo masivo sobre un agujero negro originarían la emisión de ondas gravitatorias que podrían ser detectables desde la Tierra con antenas suficientemente sensibles.

 Aunque estas tremendas concentraciones de materia no se han observado todavía directamente hay fuerte evidencia de la existencia de estos objetos. Los astrofísicos comenzaron a interesarse activamente en los agujeros negros en la década del 60, cuando se descubrieron fenómenos sumamente energéticos.

Las galaxias superactivas, como las Seyferts, cuásares y objetos BL Lacertae emiten una cantidad de energía mucho mayor que una galaxia normal, en todas las longitudes de onda. Todos estos violentos fenómenos parecen asociados con cuerpos compactos muy masivos: estrellas de neutrones o agujeros negros estelares en el caso de binarias X, estrellas supermasivas o agujeros negros gigantes en los núcleos galácticos activos.

Las aplicaciones más importantes de los agujeros negros a la astrofísica conciernen a los núcleos activos de galaxias y cuásares. Los efectos de las enormes energías involucradas allí podrían ser sumamente interesantes y podrían permitir explicar fenómenos que todavía no se comprenden.

Fuente Consultada:Notas Celestes de Carmen Nuñez

GRANDES HITOS EN LA HISTORIA DE LOS AGUJEROS NEGROS
1783 El astrónomo británico John Michell señala que una estrella suficientemente masiva y compacta tendría un campo gravitatorio tan grande que la luz no podría escapar.

1915 Albert Einstein dio a conocer su teoría de la gravitación, conocida como Teoría General de la Relatividad.

1919 Arthur Eddington comprobó la deflexión de la luz de las estrellas al pasar cerca del Sol.

1928 S. Chandrasekhar calculó el tamaño de una estrella que fuera capaz de soportar su propia gravedad, una vez  consumido todo si combustible nuclear. El resultado fue que una estrella de masa aproximadamente una vez y media la del Sol nc podría soportar su propia gravedad. Se le otorgó el Premio Nobel 1983.

1939 R. Opphenheimer explice qué le sucede a una estrella qué colapsa, de acuerdo con la Teoría de la Relatividad General.

1963 M. Schmidt identifica un quasar desde el observatorio de Monte Palomar.

1965 – 1970 R. Penrose y S, Hawking demuestran que debe haber una singularidad, de densidad y curvatura del espacio-tiempo infinitas, dentro de un agujero negro.

agujero negro

En el interior de un agujero negro, el retorcimiento del tiempo y el espacio aumentan hasta el infinito.
A esto los físicos llaman singularidad.

■ Un rayo de luz se curva al pasar cerca de un objeto masivo ya que está curvado el espacio que atraviesa. Si el rayo pasa sucesivamente por varios cuerpos su trayectoria se curvará hasta que el rayo quede girando en círculo, del que no puede escapar. Este es el efecto gravitatorio de los agujeros negros.

■ Un agujero negro es una zona del universo con una gravedad tan enorme que ni el tiempo puede salir de él.

■ Los pulsares y los quasars proporcionan información complementaria sobre la ubicación de los agujeros negros.

■ Detectar un agujero negro no es fácil. Se los descubre por la poderosa emisión de rayos X que los caracteriza.
Si un astronauta penetrara en un agujero negro no tendría forma de vivir. Debido a la intensísima fuerza gravitoria nos estiraríamos como un fideo hasta despedazarnos.

■ En el interior de un agujero negro el espacio y el tiempo aumentan hasta lo, infinito.

■ Se estima que el número de agujeros negros en el Universo es muy superior al número de estrellas visibles y son de mayores dimensiones que el Sol.

■ Existen varios agujeros negros identificados, uno se halla en nuestra Via Láctea: el Cygnus X-1.

AMPLIACIÓN DEL TEMA:
Fuente: Magazine Enciclopedia Popular: Los Agujeros Negros

Hagamos un ejercicio mental e imaginemos por un momento que somos intrépidos astronautas viajando al interior de un agujero negro…

Repasemos algunas ideas importantes. Los físicos saben desde hace mucho que un rayo de luz se curva al pasar cerca de un objeto masivo ya que está curvado el espacio que atraviesa. Pero ¿qué sucede si este rayo pasa sucesivamente cerca de varios cuerpos?.

Cada vez su trayectoria se curvará un poco más hasta que finalmente el rayo estará girando en círculo, del que no podrá escapar. Este efecto gravitatorio se manifiesta en los agujeros negros, donde la atracción es tan fuerte que nada, ni siquiera la luz, puede escapar de él una vez que entró.

La gravitación distorsiona además del espacio, el tiempo. Veamos qué sucede en la superficie de un agujero negro, el horizonte de sucesos, que coincide con los caminos de los rayos luminosos que están justo a punto de escapar, pero no lo consiguen.

DONDE EL TIEMPO SE DETUVO
Según la Teoría de la Relatividad, el tiempo para alguien que esté en una estrella será distinto al de otra persona lejana, debido al campo gravitatorio de esa estrella. Supongamos que nosotros, astronautas, estamos situados en la superficie de una estrella que colapsa, y enviamos una señal por segundo a la nave espacial que está orbitando a nuestro alrededor.

Son las 11:00 según nuestro reloj y la estrella empieza a reducirse hasta adquirir untamaño tal que el campo gravitatorio es tan intenso que nada puede escapar y nuestras señales ya no alcanzan la nave.

Desde ella, al acercarse las 11:00, nuestros compañeros astronautas medirían intervalos entre las señales sucesivas cada vez mayores, pero este efecto sería muy pequeño antes de las 10:59:59. Sin embargo, tendrían que esperar eternamente la señal de las 11:00. La distorsión del tiempo es aquí tan tremenda que el intervalo entre la llegada de ondas sucesivas a la nave se hace infinito y por eso la luz de la estrella llegaría cada vez más roja y más débil.

El tiempo, desde nuestro punto de vista como astronautas sobre la superficie de la estrella, se ha detenido. Llegaría un punto en que la estrella sería tan oscura que ya no podría verse desde la nave, quedando sólo un agujero negro en el espacio.

Pero como astronautas, tenemos un problema más angustiante.

La gravedad se hace más débil cuanto más nos alejamos de la estrella, es decir, varía rápidamente con la distancia. Por lo tanto, la fuerza gravitatoria sobre nuestros pies es siempre mayor que sobre nuestra cabeza. Esto significa que debido a la diferencia de fuerzas, nos estiraríamos como un fideo o, peor aún, nos despedazaríamos antes de la formación del horizonte de sucesos (a diferencia de lo que sucede en la Tierra, donde la gravedad para nosotros prácticamente no varía con la altura). Este experimento no es, por ahora, recomendable.

¿Qué ocurre con la materia dentro del agujero negro? Las teorías de Stephen Hawking y Roger Penrose, de la Universidad de Oxford aseguran que en el interior el retorcimiento del espacio y del tiempo aumentan hasta el infinito, lo que los físicos llaman una singularidad. Si una estrella esférica se encogiera hasta alcanzar el radio cero, ya no tendría diámetro, y toda su masa se concentraría en un punto sin extensión. ¿Qué sucede si la materia no puede salir del agujero?.

Sólo caben dos respuestas: o deja de existir o viaja a otra parte. Esta última posibilidad dio pie a la teoría del agujero de gusano: al caer en el agujero podríamos salir en otra región de Universo. Para desgracia de los novelistas de ciencia-ficción, esta posibilidad no posee gran aceptación científica hasta ahora.

¿ALGUIEN HA VISTO UN AGUJERO NEGRO?
Dado que se conoce muy poco acerca de estos huecos en el espacio, su estudio comenzó a desarrollarse mediante modelos matemáticos, aun antes de que hubiese evidencia de su existencia a través de observaciones. Pero, ¿cómo podemos creer en objetos cuya existencia se basa sólo en cálculos?.

La lista de evidencias comienza en 1963, cuando desde el observatorio de Monte Palomar en California, se midió el corrimiento al rojo de un objeto parecido a una estrella en dirección a una fuente de ondas de radio. Este corrimiento era muy grande, por lo que se pensó que se debía a la expansión del Universo y, por lo tanto, el objeto estaba muy lejos. Para ser visible, este objeto debería ser muy brillante y emitir una enorme cantidad de energía. A ellos se los llamó quasars (quasi-strange objects), y podrían proporcionar evidencia acerca de la existencia de los agujeros negros.

Otros candidatos para darnos información sobre los agujeros negros son los pulsares, que emiten ondas de radio en forma de pulso debido a la compleja interacción entre sus campos magnéticos y el material intergaláctico. También las estrellas de neutrones, objetos muy densos, podrían colapsar para convertirse en agujeros negros.

Detectar un agujero negro no es tarea fácil. La forma más utilizada está basada en el hecho de que estos objetos son fuentes emisoras de rayos X. Esto se relaciona con los sistemas binarios, formados por una estrella y un agujero negro. La explicación para este hecho es que de alguna forma se está perdiendo materia de la superficie de la estrella visible.

Como en una pareja de baile en una habitación pintada de negro donde la chica está vestida de blanco y el chico de negro, muchas veces se han observado sistemas en los que sólo hay una estrella visible girando alrededor de algún compañero invisible. Vemos girar a la chica, aunque no podamos distinguir a su pareja. Cuando la materia va cayendo en este compañero comienza a girar como una espiral y adquiere gran temperatura, emitiendo rayos X. Además, el agujero negro debe ser pequeño.

Actualmente se han identificado varios agujeros negros: uno de ellos es el caso de Cygnus X-l en nuestra galaxia, y otros en dos galaxias llamadas Nubes de Magallanes. Sin embargo, el número de agujeros negros se estima que es muy superior, pudiendo ser incluso mayor al de estrellas visibles y de mayores dimensiones que el Sol.

Formacion de una Estrella de Neutrones y Sus Caracteristicas

Formacion de una Estrella de Neutrones y Sus Caracteristicas

Ante todo definimos una estrella, gran cuerpo celeste compuesto de gases calientes que emiten radiación electromagnética, en especial luz, como resultado de las reacciones nucleares que tienen lugar en su interior.

Por ejemplo el Sol es una estrella. El número de estrellas observables a simple vista desde la Tierra se ha calculado en un total de 8.000, la mitad en el hemisferio norte celeste y la otra mitad en el sur. Durante la noche no se pueden ver más de 2.000 al mismo tiempo en cada hemisferio.

En 1934 los teóricos usaron la mecánica cuántica para predecir la existencia de las estrellas de neutrones: cuando la gravedad se hace demasiado fuerte como para que una enana blanca resista el colapso, los electrones son empujados al interior de los núcleos atómicos convirtiendo a los protones en neutrones.

Pero al igual que los electrones, los neutrones obedecen un principio de exclusión, de acuerdo al cual cada neutrón puede ocupar un determinado nivel de energía que no puede compartir con otro.

Cuando todos estos niveles son ocupados, los neutrones están completamente degenerados y ejercen una presión capaz de frenar el colapso gravitatorio.

Así, una estrella de neutrones es en muchos aspectos una versión extrema de una enana blanca: para la misma masa (aproximadamente 1 Mo*) una estrella de neutrones tiene un radio mucho menor (unos 15 km) y una densidad fantástica (un millón de toneladas por cm3).- (*):Mo es igual a la masa del Sol.

La temperatura es de unos 10 millones de grados, pero debido a su tamaño pequeño, estos objetos son en general imposibles de detectar ópticamente.

La masa de una estrella de neutrones no puede exceder 3 Mo: por encima de este valor la gravedad le gana a la presión de los neutrones degenerados y el único estado final posible es un agujero negro.

La rápida rotación y los fuertes campos magnéticos son dos características importantes de estas estrellas ultradensas. Sabemos que todas las estrellas rotan.

Al colapsar, la velocidad de rotación aumenta de manera de conservar el momento angular (así como un patinador baja los brazos para girar más rápidamente) La velocidad de rotación de las estrellas de neutrones es de varias vueltas por segundo.

También todas las estrellas tienen campos magnéticos pero cuando colapsan, éste aumenta.

Los campos magnéticos de las estrellas de neutrones son un billón de veces más intensos que el terrestre. Estas dos propiedades son las que permiten detectar a las estrellas de neutrones en forma de púlsares.

La primera detección de un púlsar se produjo en 1986 en Inglaterra, 34 años después de haber sido predichos teóricamente.

Aparece como un objeto que emite pulsos de radio de intensidad variable, pero espaciados a intervalos de tiempo regulares: el período, increíblemente preciso, es de 1,33730113 segundos.

El fenómeno fue interpretado como una estrella de neutrones cuyas líneas de campo magnético aceleran los electrones a lo largo del eje magnético, causando la emisión de un rayo de ondas de radio que rotan con la estrella y producen un pulso cuando el rayo intercepta la línea de Visión del observador.

Desde entonces se han descubierto otros varios púlsares y se ha encontrado que algunos de ellos no sólo emiten en radio, sino también en frecuencias más altas como rayos x y y.

Se conocen actualmente más de 300 púlsares, situados mayormente en el plano galáctico, a unos pocos kpc del Sol. Los lugares con más posibilidades para encontrar púlsares son los remanentes de supernova.

La famosa Nebulosa del Cangrejo es el remanente de la supernova de 1054 y contiene efectivamente el púlsar del Cangrejo.

Debido a su reciente formación es uno de los que rotan más rápido: da 33 vueltas por segundo. Podemos predecir con facilidad, que la velocidad de rotación de un púlsar disminuirá lentamente con el tiempo, de acuerdo a la velocidad con que disipa energía. Por eso los púlsares más jóvenes rotan más rápido que los viejos.

Sus períodos van de 0,006 a 0,03 segundos hasta 4,3 segundos. Cuando la velocidad de rotación se hace pequeña, el mecanismo del púlsar no sirve: su vida promedio es de unos pocos millones de años.

Hay otro efecto que contribuye a la modificación de la velocidad de rotación pero de manera más abrupta: son los “glitches”, que disminuyen el período de rotación una parte en un millón en pocos días.

Se interpreta como sismos estelares debido a inestabilidades en la corteza o el núcleo de la estrella de neutrones. Estos fenómenos son muy útiles para estudiar la estructura interna de los púlsares, pero sólo aparecen durante unos pocos pulsos.

El púlsar de la supernova de 1987 trajo muchas sorpresas. Apareció antes de lo esperado y su rotación era extremadamente veloz, su período de 0,5 milisegundos era de lejos el más corto que se conocía. Todavía los científicos encuentran entretenimiento en este objeto.

Aunque la detección de púlsares en los remanentes de supernovas se ha hecho difícil y rara, hay un fenómeno más extendido que permite descubrir muchos de estos objetos: las fuentes compactas de rayos x.

En 1971, a partir del lanzamiento del satélite astronómico Uhuru, se descubrieron fuentes galácticas emisoras de un fuerte flujo de rayos x.

La fuente llamada Centauro x-3, por ejemplo, tiene una luminosidad en rayos x 10 veces mayor que la luminosidad total del Sol.

Se eclipsa cada 2,087 días, lo que demuestra que la fuente de rayos X está en movimiento orbital alrededor de un objeto más masivo.

Esta fuente es parte de un sistema binario formado por la estrella de neutrones y una estrella gigante. La primera atrae el viento estelar de la segunda y convierte la energía gravitatoria del gas en rayos x.

Este tipo de púlsares binarios proveen una de las pruebas de la teoría de la relatividad que predice que un cuerpo masivo acelerado radiará energía en forma de ondas gravitatorias.

La disipación de energía de esta forma causa el temblor de la órbita y en consecuencia una lenta disminución del período orbital del púlsar a lo largo del tiempo.

Las predicciones teóricas de Einstein concuerdan muy bien con las observaciones del periodo orbital de PSR 1913+16, que está disminuyendo unos 76 milisegundo por año.

Fuente Consultada:Notas Celestes de Carmen Nuñez

Estrellas Explosivas Novas y Supernovas Formación y Características

Estrellas Explosivas Novas y Supernovas Formación y Característicasr

Estrellas explosivas: novas y supernovas

Cuenta la leyenda que Hiparco se decidió a confeccionar su catálogo cuan do apareció una estrella nueva en la constelación zodiacal de Escorpio.

Su objetivo era construir un sistema de movimientos planetarios y es probable que la observación de los planetas noche tras noche lo llevara a memo rizar las posiciones de las estrellas más brillantes, especialmente las que se encontraban cercanas a la franja del zodíaco.

La filosofía aristotélica vigente en ese momento suponía al cielo perfecto e inalterable. Entonces es posible imaginarse el asombro del astrónomo griego ante la sorprendente aparición. 

Algunos historiadores consideran que Hiparco observó en realidad un cometa y no una estrella nueva. Pero dado que en la actualidad se observan algunas decenas de novas por año por galaxia es llamativo que no se hubieran observado con anterioridad y que incluso con posterioridad a Hiparco (hasta 20 siglos después!) no se observara ninguna en occidente.

La siguiente observación de una nova en Europa fue realizada por Tycho Brahe en 1572. A él se debe el término nova (del latín, nova stella ) e indica la idea original sobre estos objetos: de repente aparecía una estrella donde previamente no se había observado.

Para descubrir una nueva estrella hay que ser un experto observador del cielo, como hemos mencionado, durante siglos se les prestó muy poca atención a los componentes del paisaje celeste que no fueran los planetas, por lo tanto si la nova aparecía en una constelación lejana al zodíaco muy probablemente pasara inadvertida.

También hay que considerar la fuerza de la teoría aristotélica: cualquier cambio en los cielos inmutables era imposible. La información sobre cualquier cambio celeste podía convertirse en tm sacrilegio y es muy probable que quien lo observara no lo hiciera público para no arriesgarse a ser tratado de loco, ciego o mentiroso.

Pero afortunadamente, durante el período que va de la época de Hiparco hasta el año 1500 los chinos observaron cuidadosamente el cielo y registraron todos los cambios detectados. En la época antigua y medieval reportaron la aparición de cinco estrellas brillantes (en los años 185, 393, 1006, 1054 y 1181). La de 1006 fue por lo menos 200 veces más brillante que Venus, de manera que ni siquiera los desinteresados europeos pudieron ignorarla

Luego de Tycho, el siguiente en observar una nova fue un astrónomo alemán, F. Fabricio en 1596, y en 1604 lo hizo Kepler. Todas estas observaciones coincidían en que aparecía una estrella muy brillante donde previamente no se había observado nada y este brillo disminuía lentamente hasta desaparecer.

En la actualidad sabemos que lo que antiguamente se llamaba nova corresponde en realidad a dos tipos de objetos: novas y supernovas. Al igual que las novas, las supernovas son estrellas eruptivas o explosivas, pero se distinguen de aquéllas en que la cantidad de energía liberada es mucho mayor y además, en el caso de las novas, sólo aparecen afectadas por la explosión las capas exteriores, mientras que la explosión de una supernova afecta toda la estrella. Aún las más luminosas como Nova Cygni 1975, brillan 1.000 veces menos que las supernovas.

Novas: Estas estrellas se clasifican en novas, que ganan más de 10 magnitudes en la explosión, y novas enanas, que sólo aumentan su brillo unas pocas magnitudes. Algunas han explotado sólo una vez desde que fueron observadas, pero se cree que son recurrentes cada 10.000 o 100.000 años. Las novas recurrentes, menos energéticas, experimentan explosiones cada 10 a 100 años.

La observación de varias post-novas a mediados de este siglo demostró que muchas de ellas son miembros de sistemas binarios super próximos en los que una de las estrellas es una enana blanca y la otra una estrella fría (por ejemplo una gigante roja). Cuando la estrella ínicialmente menos masiva comienza a expandirse para formar una gigante roja, etapa que se acelera al aumentar su masa con la que se desprende de su compañera, sus capas exteriores se acercan tanto a la enana blanca que parte de su envoltura queda atrapada en el campo gravitatorio de ésta, formando lo que se llama un disco de acreción.

Tal nombre se debe a que, debido a colisiones entre las partículas del disco, éste pierde energía y algunas partes caen sobre la enana blanca, que gana así cierta masa en un proceso llamado acreción. La gran gravedad superficial de la enana blanca comprime esta masa formada esencialmente de hidrógeno, y la calienta.

La temperatura se hace tan alta que comienza la fusión de este hidrógeno, lo que calienta aún más la superficie y se inicia la fusión en el disco de acreción, produciéndose un enorme destello de luz, y las capas superiores del disco son arrojadas lejos de la influencia gravitatoria de la enana blanca. Este destello de luz es lo que vemos desde la Tierra en forma de nova y la parte del disco de acreción impulsada hacia el exterior es la nube de gas y polvo que se observa alrededor de la post-nova.

El proceso de fusión disminuye gradualmente, pero el ciclo recomienza porque la compañera de la enana blanca sigue perdiendo masa y esto reconstruye el disco de acreción. De esta forma el fenómeno de nova puede repetirse muchas veces antes de que la supergigante finalice su expansión y se transforme ella misma en enana blanca.

Por lo visto, las condiciones necesarias para la formación de una nova son entonces bastante especiales, y muy pocas estrellas de nuestra galaxia las satisfarán. El Sol, como hemos visto, se transformará en enana blanca. Pero como no tiene compañera no será una nova.

Supernovas:El fenómeno de supernova es una explosión fenomenal que involucra la mayor parte del material de una estrella y determina el fin de la evolución de ciertos objetos estelares. Se supone que la mayoría de las supernovas de nuestra galaxia son indetectables debido a la extinción causada por el polvo interestelar. Actualmente se cree que las observaciones chinas de 1054 y las de Tycho y Kepler se trataban de supernovas. La de Kepler, en 1604, fue la última detectada en nuestra galaxia.

Hay esencialmente dos tipos de supernovas: a) las tipo I resultan de la explosión de estrellas viejas, de masa relativamente pequeña y pobres en hidrógeno pero ricas en elementos pesados, tal como corresponde a una fase avanzada de evolución; su composición indica que se trata de enanas blancas. b) Las tipo II son explosiones de estrellas masivas, también al final de su evolución, pero en una fase menos terminal que las de tipo 1; son ricas en hidrógeno y presumiblemente están en la etapa de supergigante roja.

En su máximo de luz, el brillo producido por las supernovas aumenta unas 15 magnitudes; las tipo 1 son casi tres veces más luminosas que las tipo II. Luego el brillo disminuye unas 304 magnitudes durante los primeros días y durante varios meses decrece casi exponencialmente.

La energía liberada durante el corto tiempo de la explosión es equivalente a la que irradiará el Sol durante 9 mil millones de años (recordemos que la edad actual del Sol es de unos 4,5 mil millones de años) o a la explosión simultánea de 1028 bombas de hidrógeno de 10 metagones cada una y la materia expulsada, alrededor de 5 M0,puede alcanzar velocidades de 36 x 106 km/h.

Las supernovas de tipo 1 pueden alcanzar una magnitud absoluta de -18,6, es decir 2.500 millones de veces la luminosidad del Sol o unas 100 veces más brillantes que la luz integrada de toda la galaxia. Según el tipo, la masa eyectada puede ser de 1 a 10 M0, lo que en algunos casos es la masa total de la estrella y, por lo tanto, no queda nada después de la explosión. A partir del descubrimiento de los púlsares (estrellas de neutrones de muy rápida rotación) en 1968, se sabe que después de la explosión puede quedar un objeto extremadamente denso. Este objeto, que es el núcleo de la estrella, está formado exclusivamente por neutrones.

Los mecanismos responsables de estas explosiones no se conocen todavía con certeza. La mayoría de las teorías consideran que la energía liberada por la explosión es principalmente de origen nuclear, en particular la fotodesintegración del Fe. Esta es la etapa final en la cadena de reacciones nucleares que ocurren durante la vida de las estrellas de unas 10 M0. Las estrellas con masas necesarias para terminar como supernovas de tipo 1 son por lo menos 10 veces más numerosas que las estrellas más masivas que dan origen a las supernovas tipo II. Por lo tanto sería razonable suponer que se observarán 10 veces más supernovas de tipo 1 que de tipo II.

Sin embargo no es así: los dos tipos se observan con la misma frecuencia. Por lo tanto hay que concluir que no todas las estrellas de poca masa terminan como supernovas y en consecuencia, que se necesitan ciertas condiciones especiales para que este fenómeno ocurra.

La pre-supernova de tipo II tiene una estructura de cáscara como una cebolla. A medida que descendemos de la capa superficial de H se encuentran capas de elementos de mayor masa atómica. Estas capas son producto de las distintas fases de la nucleosíntesis que han ocurrido durante la vida de la estrella. Las reacciones que originan los elementos más pesados se ordenan de acuerdo a la temperatura.

Los aumentos de temperatura ocurrieron alternándose con contracciones gravitatorias. El centro de la supergigante que explotará como supernova está compuesto por una mezcla de núcleos de Fe y otros núcleos con números atómicos entre 50 y 60. Estos son los elementos con mayor energía de ligadura. Por lo tanto no se puede extraer más energía de ellos. Cualquier cambio nuclear ulterior con estos elementos, tanto si es fusión para dar elementos más complicados como si es fisión para dar núcleos menos complicados, no liberará energía sino que la absorberá.

El núcleo estelar de hierro crece, luchando contra la contracción gravitatoria gracias a la presión de los electrones degenerados. Pero al describir las enanas blancas vimos que hay un limite para esto: cuando la masa del núcleo ha alcanzado el límite de Chandrasekhar (1,4 M0), la presión de los electrones no alcanza para evitar la contracción y la estrella colapsa. En ese momento, todos los productos del proceso de nucleosíntesis se han aniquilado, el gas está formado ahora por neutrones, protones y electrones libres.

Pero éstos últimos experimentan un gran aumento de energía al comprimirse, su energía se hace mayor que la necesaria para transformar un protón en neutrón y así son absorbidos por los protones. Privado de la componente más significativa de presión, el núcleo estelar colapsa a un ritmo acelerado. La distancia entre neutrones es ahora muy pequeña (del tamaño del núcleo atómico, fermi) y la estrella se ha transformado en una estrella de neutrones. Desde el inicio del colapso se requieren sólo unos pocos minutos para alcanza este estado.

Al comenzar el colapso del núcleo, las capas exteriores de la estrella, donde están ocurriendo algunas reacciones nucleares, caen arrastra das por él. Los gases se comprimen rápidamente y aumentan su temperatura. La velocidad de las reacciones nucleares aumenta notablemente, la gran cantidad de energía producida origina inestabilidades y, finalmente, la explosión de las capas exteriores.

Las supernovas de tipo 1 son parte de un sistema binario formado por una supergigante roja y una enana blanca, como el que da origen a las no vas. Sin embargo en este caso la masa de alguna de las componentes o d ambas es mayor que en el caso de la nova.

En esta situación, la enana blanca puede ganar más masa y superar el límite de Chandrasekhar. Entonces sufre un colapso y comprime muy fuertemente los núcleos de carbono y oxígeno en su interior, creando las condiciones para una fusión con tal liberación de energía que su resultado es una explosión de supernova. Probablemente éste fue el caso de las supernovas de Tycho y Kepler ya que en ninguno de los dos casos se ha detectado estrellas de neutrones en las posiciones correspondientes.

Incluso mucho tiempo después de la explosión las supernovas se revelar por sus efectos sobre el medio interestelar. El remanente joven de la supernova aparece como una gran burbuja que emite radiación en todo el espectro y se expande a una velocidad de 10.000 km/seg. A medida que lo hace empuja al gas interestelar y se va frenando. Después de unos cientos de años la cáscara se enfría y el remanente se desintegra en el medio circundante Los remanentes son antigüedades astronómicas muy valiosas, capaces de revelar información sobre la explosión, la evolución posterior y la estructura y composición del medio interestelar.

Las supernovas son uno de los contribuyentes más importantes a la evolución de la materia galáctica. No sólo transmiten al medio interestelar energía térmica y cinética sino que también la enriquecen con elementos pesados de la nucleosíntesis estelar. El interés por las supernovas de los astrónomos interesados en la evolución estelar y el medio interestelar ha aumentado notablemente, dado que se piensa que podrían ser el detonante del proceso de formación de nuevas estrellas.

La última observación de una explosión de supernova ocurrió en 1987 en la Gran Nube de Magallanes. Miles de investigadores renovaron su interés y en los últimos años se han realizado importantísimos avances en nuestra comprensión de estos fenómenos. Esta supernova ha proporcionado la posibilidad de realizar la medición de distancia más precisa que se haya hecho para un objeto fuera de nuestra galaxia. El remanente de SN 1987A (como se denomina) está a 1,60 x 105 años luz, con una certeza de ±5%.

Un anillo hecho del material eyectado por el progenitor de la supernova en su fase de supergigante, ya rodeaba a la estrella unos 5.000 años antes de la explosión, pero sólo se hizo visible cuando se calentó hasta unos 20.000 0K como consecuencia de la misma. Si ese anillo fuera perpendicular a la línea de la visión, se hubiera iluminado todo a la vez. Sin embargo, como está inclinado unos 450 respecto de esta posición, distintas partes se encuentran a distancias diferentes de nosotros.

La parte más cercana pareció encenderse tres meses después de la explosión, mientras que la más lejana permaneció oscura cerca de un año más. Esta diferencia indica que el diámetro del anillo es de 1,3 x 1013 km. La medición del diámetro angular fue realizada por la estación orbital Hubble y es de 1,66 segundos de arco.

Esencialmente, toda la energía cinética del núcleo que colapsa se convierte en una onda de choque que, al encontrar las capas exteriores que están colapsando, las hace rebotar y cambiar de dirección. Este proceso se ve favorecido por la gran cantidad de neutrinos emitidos por la estrella de neutrones que se está creando.

La luz puede ser emitida sólo cuando la onda llega a la capa más externa. En SN 1987A, la onda de choque demoró dos horas en atravesar toda la estrella. Los pocos (pero muy preciados) neutrinos detectados poseían características acordes con las predicciones teóricas —sus cantidades, energías y el intervalo de tiempo en que llegaron a la Tierra—, lo cual aumenta la credibilidad en los modelos.

El 99% de la energía liberada llega de esta forma, en los neutrinos que pueden escapar de la estrella mucho más rápido que los fotones de luz. Estas observaciones permiten abrigar esperanzas de observar más eventos de supernova en la medida en que mejoren los detectores de neutrinos. Se estima que los mismos ocurren cada 10 o 100 años, especialmente en las regiones centrales de nuestra galaxia, pero permanecen ocultos por el material interestelar que opaca la luz.

Si las predicciones teóricas respecto de los neutrinos de supernovas son tan precisas, ¿por qué hay una discrepancia tan grande entre las observaciones y las predicciones respecto de los neutrinos solares? Tal vez, más observaciones de supernovas ayuden a resolver este problema.

FORMACIÓN DE LOS ELEMENTOS QUÍMICOS: El aumento de presión y temperatura, después de producirse los primeros colapsos de la estrella, posibilita la fusión de núcleos de helio para formar uno de carbono. La persistencia de estas condiciones hará que los átomos de carbono se fusionen con otros para constituir otros más complejos. Así, el carbono, al fusionarse con un núcleo de deuterio, forma uno de nitrógeno, y al hacerlo con un núcleo de helio, constituye uno de oxígeno.

A través de reacciones similares se forma el resto de los elementos químicos, siendo necesarias condiciones más extremas: en general, cuanto mayor es el número atómico (Z), mayor presión y temperatura se requieren para la formación.

Ciertas características de la estructura interna de los núcleos de los elementos alteran la proporción que sería previsible: más abundantes los de menor número atómico. No obstante, en muchos casos, los átomos de los elementos químicos muy pesados se descomponen espontáneamente, modificando las proporciones que podrían calcularse.

¿Sabían que el átomo de carbono, debido a su mayor estabilidad, es el más abundante del Universo después del hidrógeno, el helio y el neón? La abundancia del carbono y su característica de generar otros elementos biogénicos son datos de gran importancia para entender la formación de moléculas orgánicas en el Universo y la aparición de vida sobre la Tierra. Es interesante, además, conocer que la abundancia relativa de hidrógeno, nitrógeno, oxígeno, carbono, fósforo y azufre es casi idéntica a la que se encuentra en la materia viva.

SUPERNOVAS INQUIETANTES
Al igual que los seres vivos, las estrellas nacen, viven y murieron Se forman a partir de una nube de gas, encienden sus hornos nucleares, irradian su luz durante millones de milenios y después se apagan colapsan y desaparecen. Una de las formas que tiene de morir es la supernova. Pero para llegar a ese final explosivo el astro tiene que tener por lo menos una masa equivalente a la de tres soles.

La supernova también ocurre cuando la estrella ha consumido casi todas sus fuentes de energía. Entonces dos fuerzas entran en una lucha crítica. La declinante fusión nuclear no puede ya compensar la fuerza de gravitación y esta hace que el astro comience a hundirse sobre sí mismo. Las capas exteriores se precipitan hacia el núcleo en un cataclismo gigantesco que origina un rápido sobrecalentamiento de la materia, proceso que culmina con la explosión que ya hemos descrito.

supernova

La supernova de la Galaxia del Cigarro, que se encuentra a alrededor de 12 millones de años luz de la Tierra

Las supernovas no son fenómenos frecuentes. En grandes sistemas estelares, como la Vía Láctea, se produce una cada siglo. Por esta razón, no son muchas las que el hombre ha podido presenciar en su brevísima existencia como especie.

En el año 1006 apareció una supernova en los cielos del hemisferio sur. En su apogeo brillaba tanto como el cuarto de luna y su luz proyectaba sombras sobre la Tierra. Fue visible durante dos semanas en pleno día, y durante dos años por la noche.

El 4 de julio de 1054, los astrónomos chinos registraron la aparición de una «estrella intrusa». Su brillo era de tal magnitud que también resultaba visible de día. Pronto se transformó en uno de los objetos más notorios del firmamento, al que únicamente el sol y la luna superaban en brillo. Se dejó ver durante dos meses y después comenzó a apagarse paulatinamente hasta desaparecer por completo.

Cuando los astrónomos contemporáneos dirigieron sus telescopios hacia la región del cielo donde hace 900 años había aparecido la «estrella intrusa», encontraron un extraño objeto al que se dio el nombre de Nebulosa del Cangrejo. Es una nube de gas en rápida expansión que sólo pudo originarse a partir de un estallido titánico. Los cálculos indican que nueve siglos atrás toda esa masa de gas debió haber estado comprimida en un volumen pequeño.

Se comprobó, de esa forma, que la mencionada nebulosa no era sino la supernova observada por los astrónomos chinos a comienzos de este milenio, que continúa explotando. El estallido ocurrió, en realidad 6 mil años antes de que su luz llegara a la Tierra y fuera percibida por los hombres.

La última supernova observada en la Vía Láctea fue registrada por el célebre astrónomo y matemático Johannes Kepler,en 1604, antes de la invención del telescopio. Desde entonces el hombre no había tenido ocasión de usar sus modernos instrumentos astronómicos para estudiar una supernova cercana.

Pero a comienzos de 1987, un científico canadiense descubrió desde el Observatorio de Las Campanas, en el norte de Chile, una supernova muy próxima a la Tierra, situada en la Gran Nube de Magallanes, que es una galaxia satélite de la nuestra.

Esta espectacular supernova, bautizada como Shelton 1987 A se hizo visible a simple vista. Ocurrió en realidad hace 170 mil años, es decir, antes de que en la Tierra se irguiera el hombre de Neandertal.

Así, por primera vez los astrónomos han podido seguir el curso evolutivo de una supernova con telescopios poderosos y modernos La supernova es desde luego un fenómeno inquietante. Es posible que el hombre llegue a auscultar las estrellas cercanas para determinar cuales de ellas amenazan con incurrir en esos estallidos catastróficos.

La teoría predice que a las elevadas temperaturas que alcanza el núcleo del astro que está por explotar, se producen, entre otras partículas, los fantasmales y casi inasibles neutrinos. Estos carecen de masa, se mueven a la velocidad de la luz, atraviesan la Tierra con la misma facilidad con que el agua pasa a través de un colador, y rara vez se detienen para interactuar con otras partículas.

El descubrimiento de Shelton 1987 A, ha ayudado a comprobar la teoría. Como resultado de esta supernova, la Tierra está recibiendo una lluvia de  neutrinos que se han captado en detectores especiales instalados en minas subterráneas, en los Estados Unido, Europa Japón y la Unión Soviética.

Cuando se perfeccionen estos detectores y se construyan incluso telescopios de neutrinos, el hombre estará en condiciones de escudriñar  en los núcleos de las estrellas que presenten gigantismo rojo I H acuerdo con las cantidades de neutrinos que éstas emitan será posible predecir con bastante exactitud y antelación cualquiera amenaza cercana de supernova que pudiera sumergir a la Tierra en un peligroso baño de radiación.

Fuente Consultada: Notas Celestes de Carmen Nuñez

Muerte de las Estrella Enanas Blancas Gigantes Rojas Vida y Evolucion

Muerte de las Estrella Enanas Blancas Gigantes Rojas

ESTRELLAS MORIBUNDAS: Enanas blancas: Cuando la estrella agota su combustible no tiene con qué luchar contra la contracción gravitatoria, por lo que entra en colapso y se convierte en enana blanca.

Sin embargo, la compresión que puede sufrir la materia tiene un limite dado por el llamado principio de exclusión de Pauli.

Las altas densidades observadas en las enanas blancas son difíciles de encontrar en otros cuerpos celestes o en la Tierra.

En verdad, la posibilidad de existencia de materia más densa que la observada en el sistema solar no fue considerada hasta que se desarrolló la mecánica cuántica. La comprensión de la naturaleza atómica de la materia permitió considerar la existencia de materia degenerada, mucho más concentrada que la materia ordinaria.

El Sol tiene una densidad promedio semejante a la del agua: cerca de 1 gr/cm3 y se comporta como un gas, con sus partículas moviéndose libremente.

El Hidrógeno (H) en su interior, a una temperatura de 15 millones de grados, está en su mayoría ionizado.

Los electrones se han separado de sus núcleos y la alta temperatura reinante les impide acercarse a ellos.

Como consecuencia, 1 cm3 de materia solar ordinaria es esencialmente vacío. Los protones y electrones pueden moverse libremente casi sin chocar entre sí.

En una enana blanca en cambio, una masa como la del Sol puede estar comprimida en un volumen no mayor que el de la Tierra. La densidad asciende a 1.000 kg/cm3. Aun cuando la temperatura ha disminuido por debajo de la temperatura de ionización, los átomos permanecen disociados por la enorme presión de la gravedad.

Las fuerzas gravitatorias actuantes en un cuerpo celeste masivo pueden comprimir su materia hasta un estado de degeneración electrónica y no más, ya que el principio de exclusión impide a dos electrones ocupar el mismo nivel de energía. Este efecto cuántico se llama presión de degeneración electrónica y es el limite que impone la mecánica cuántica a la compresión de un gas de electrones. Esto es lo que ha sucedido en las enanas blancas.

Su interior es “frío” (aunque la  temperatura puede alcanzar hasta un millón de grados) en el sentido de que para mantener a la estrella en equilibrio, las fuerzas autogravítantes no están compensadas por movimientos térmicos como sucede en las estrellas de secuencia principal, sino por la presión ejercida por los electrones degenerados que llegan al limite de compresión. El interior de una enana blanca no está en estado gaseoso sino que es como mi cristal gigante que se enfría lentamente.

Las partículas están superpuestas y ya casi no hay espacios vacíos entre ellas. Por lo tanto, su posición y velocidad están determinadas cuánticamente. El principio de exclusión impide que dos partículas ocupen el mismo estado de energía y mientras en un gas ordinario quedan niveles de energía libre (no ocupados por ninguna partícula), los electrones de un gas degenerado ocupan todas las posiciones cuánticamente admisibles.

Las enanas blancas se descubrieron en 1910, aunque entonces no se entendían. Su temperatura superficial es muy alta y su luminosidad anormalmente baja. Esto sólo podía explicarse si su radio era muy pequeño, comparable al radio de la Tierra (Ley de Stefan).

S. Chandrasekhar (nacido en 1910) fue quien elaboró la teoría de una esfera de gas degenerado y este trabajo le valió el Premio Nobel de Física de 1983. Contrariamente a lo que podría suponerse, cuanto más grande es la masa de una enana blanca, menor es su radio. Esto resulta de la necesidad de una presión del gas suficiente para balancear la presión gravitatoria.

La masa y el tamaño de una enana blanca están fijos por la composición de la estrella. Los cálculos teóricos indican que si está compuesta esencialmente de H tendrá una masa máxima posible de 5,5 M0. Pero si contiene elementos más pesados llegará sólo a 1,4 M0. Estos valores se conocen como limites de Chartdrasekhar. Una estrella más masiva perdería masa o sufriría una catástrofe antes de transformarse en enana blanca.

Actualmente sólo se han identificado algunos cientos de enanas blancas. Como tienen baja luminosidad intrínseca, sólo pueden observarse aquellas cercanas al sistema solar. Los modelos indican que son la fase evolutiva final de las estrellas de poca masa y, en ese caso, el 10% de las estrellas de nuestra galaxia deberían ser enanas blancas.

Aunque la temperatura central de una enana blanca es menor al millón de grados (compárese con los 15 millones de grados del Sol) su atmósfera es, por lo general, más caliente que la de una estrella de secuencia principal. Los electrones degenerados juegan también un rol muy importante en la determinación de la estructura térmica de la estrella. Esta función es semejante a la de los electrones exteriores de los átomos en los metales ordinarios:

SU capacidad para moverse libremente es responsable de la capacidad de los metales para conducir calor eficientemente. De la misma forma, los electrones degenerados son excelentes conductores de calor en las enanas blancas. En consecuencia, estas estrellas tienen casi la misma temperatura en todo su volumen, son casi isotérmicas. Cerca de la superficie la presión es suficientemente baja y los electrones no están degenerados, entonces las propiedades de la materia son más normales. La temperatura superficial es de unos 10.000°K.

Los espectros de las enanas blancas presentan la sorprendente característica de tener líneas correspondientes a un único elemento. Cerca de 80% de las enanas blancas observadas muestran en sus espectros sólo líneas de absorción de hidrógeno; la mayoría de las restantes tiene sólo líneas de He.

El ciclo de contracciones gravitatorias impuestas por su propia evolución, ha purificado las capas exteriores de las enanas blancas más allá de la estratificación observada en las estrellas normales.

De la misma forma en que los espectros de las estrellas ordinarias se clasifican en B, A, E y G de acuerdo a su temperatura superficial, los de las enanas blancas se dividen en DB, DA, DF Y DG (D indica dwarf :en inglés enana), correspondientes a temperaturas de 100.000 a 4.000 0K. Las más calientes consumen energía a velocidades tan grandes y evolucionan tan rápidamente que esto nos da la posibilidad de observar a estas estrellas envejecer en el transcurso de unos pocos años.

La evolución de las enanas blancas se ha estudiado intensamente en los últimos años y el modelo aceptado actualmente postula que cerca de 10 millones de años después de su formación, la luminosidad de una enana blanca se ha debilitado hasta un décimo de la solar y su temperatura superficial ha disminuido hasta los 30.000 °K.

La teoría sugiere que a una enana blanca le lleva cerca de mil millones de años enfriarse hasta transformarse en una tibia esfera de gas degenerado. Los cálculos indican que en esta etapa la estrella sufre un último cambio importante: comienza a cristalizarse. A través de su evolución hasta este punto permaneció en estado gaseoso.

A medida que se enfría cada ion del gas comienza a sentir fuerzas eléctricas con sus vecinos, produciendo una fase líquida en la materia. Mientras estas fuerzas comienzan a dominar a mayores distancias, más y más núcleos se unen y forman un cristal. Dicho proceso se debe a la disminución de la temperatura, pero es ayudado por la alta presión que comprime a los núcleos.

Este cambio de estado tiene un efecto importante en las etapas finales de evolución de la estrella. Primero el cambio de liquido a sólido libera energía, pero una vez que se ha cristalizado una fracción importante de su interior, la enana blanca se enfría rápidamente. Como el tiempo necesario para que una enana blanca llegue a la etapa de cristalización se calcula semejante a la edad de nuestra galaxia, se puede estimar la época inicial de formación de estrellas en la Vía Láctea observando las enanas blancas más frías.

Fuente Consultada:Notas Celestes de Carmen Nuñez

Historia de la Estacion Espacial Internacional Objetivos y Experimentos

Historia de la Estación Espacial Internacional Objetivos y Experimentos a Realizar

 

 

UN POCO DE HISTORIA…
Las estaciones espaciales
El hombre ha tenido ya bastantes éxitos en el espacio: ha logrado dar vueltas en torno de la Tierra, ha conquistado la Luna y las sondas con que llegó a Marte y a Venus hablan de su inalterable empeño por proseguirlos. El gran instrumento con que cuenta es su taller en el espacio: las estaciones planetarias.

La construcción de estaciones espaciales habitadas por el hombre, importante etapa en los futuros viajes interplanetario, fue puesta en órbita. Tanto podía funcionar automáticamente como con dotación a bordo. El 23 del mismo mes, el Soyuz y así permaneció durante 5 horas 30 minutos, tiempo durante el cual se cumplió un programa completo de experimentos ecológicos y médico-biológicos que incluía también la producción del propio alimento. Transcurrido ese lapso, retornó a la Tierra.

El 30 de junio del mismo año, el Soyuz 11, tripulado por los cosmonautas Dobrolvski, Volkov y Patsaiev, acoplaron su nave al Salyut y pasaron a su interior, donde permanecieron durante más de tres semanas. Ya en la Tierra, el drama: al abrirse la cápsula, los tres cosmonautas estaban muertos.

El 14 de mayo de 1973, por medio de un impulsor Saturno V, los Estados Unidos pusieron en órbita el laboratorio espacial Skylab I no tripulado de 85 toneladas de peso. Averiado al minuto de su lanzamiento, al aumentar peligrosamente la temperatura inicial de la astronave los técnicos de la NASA se abocaron a la tarea de repararlo.

El día 25 del mismo mes y año, los astronautas Conrad, Kerwin y Wwitz, lanzados en una cápsula tipo Apolo, abordaron el Skylab I y sobre la parte averiada desplegaron una especie de parasol para hacer descender la temperatura del laboratorio.

Durante 28 días los cosmonautas realizaron la mayoría de los experimentos previstos, referidos casi todos ellos a observaciones de la Tierra, el Sol y el espacio sidéreo. Cumplida la misión, retornaron a la Tierra en la cápsula Apolo, Los laboratorios orbitales son plataformas con capacidad para dar albergue a varios tripulantes durante un lapso relativamente largo, y están provistos de los elementos necesarios para el transporte de cosmonautas en viajes de ida y vuelta.

La segunda misión del programa se cumplió en la estación Skylab 3, en condiciones similares a la anterior, el 28 de julio de 1973. Los cosmonautas fueron Bean, Garriott y Lousma, quienes tras instalar un parasol adicional, recargar las cámaras de los telescopios y descubrir un detector de meteoritos junto a la pared de la estación, durante 59 días estudiaron la Tierra y la Luna, en especial las reacciones del organismo durante casi dos meses en un ambiente falto de gravedad. Después de una caminata espacial de 6 hs. 31′, que constituyó un nuevo récord, retornaron a la Tierra el 25 dé septiembre. Su estado físico era excelente.

LA ESTACIÓN ESPACIAL INTERNACIONAL: La exploración y la conquista del espacio es uno de los desafíos más grandes y excitantes emprendidos por el hombre, y la aventura más audaz en la historia de la exploración espacial es, sin duda alguna, la construcción de la Estación Espacial Internacional (ISS).

astronautaEn 1984, el gobierno estadounidense lanzó un programa para la construcción de una es espacial. Los enormes costes que suponían las de estudio y de planificación retrasaron la propia marcha del proyecto, que no adquirió forma hasta que finalizó la Guerra Fría. En 1993, Rusia decidió a aportar la experiencia que había  en la construcción —iniciada en el año 1986— de la estación espacial soviética MIR (paz).

En 1998 se inició  la construcción de la ISS. En primer lugar debían crearse las condiciones técnicas para asegurar una colaboración estrecha. En este sentido, la lanzadera estadounidense emprendió varios viajes a la  MIR y efectuó entre otras cosas, maniobras de acoplamiento. 

El 20 de noviembre de 1998 se instaló el primer componente de la ISS, un módulo de carga y de que se colocó a 350 Km. de distancia de la Tierra. Le siguió ese mismo año una pieza de empalme, que el 12 de julio de 2000 atracó el módulo ruso.

Desde noviembre de aquel mismo año hasta el abril de 2003, la ISS acogió varias tripulaciones internacionales formadas por tres astronautas.

Estos permanecen de cinco a siete meses en el espacio, transcurrido este tiempo, son relevados por nuevas dotaciones. Después de la catástrofe del Columbia ocurrida en 1º de febrero de 2003, la tripulación fija debió reducirse a dos personas por problemas de suministro.

Los estudios que se realizaran en la estación son los siguiente:
1-BIOLOGÍA:
– Respuesta fisiológica al vuelo espacial.
– Salud humana y rendimiento.
– Desarrollo de contramedidas a la microgravedad.
– Investigación general en Biología.

2-CONOCIMIENTO SOBRE LA TIERRA

3-MICROGRAVEDAD
– Ciencia de los Materiales.
– Física de Fluidos
– Ciencia de la Combustión
– Biotecnología
– Física fundamental.

4-CIENCIA ESPACIAL
– La estructura y la evolución del Universo
– Exploración del Sistema Solar
– Conexión Tierra-Sol
– Búsqueda de otros sistemas planetarios.

5-INGENIERÍA Y TECNOLOGÍA
– Sistemas de comunicación espaciales de uso comercial, con énfasis en la mejora de la tecnología de satélites para telefonía personal, y comunicación de vídeo y datos.
– Eficiencia en el uso de la energía, y calidad de agua y aire.
– Técnicas de construcción y funciones de mantenimiento automatizadas.

6-ESTUDIO DE NUEVOS PRODUCTOS

 INFORMACIÓN GENERAL DEL MEGA PROYECTO:

1. La Estación Espacial es la mayor dotación objeto jamás enviado al espacio. Se trata de un centro de investigación que mide 108 m. de largo y 80 m. de ancho. Su peso es de más de 450.000 kg.

2. Orbita a 400 km. sobre la tierra y se puede ver en el cielo nocturno a simple vista. Los científicos pueden estudiar la tierra y su entorno. Pueden ver los cambios que están ocurriendo en la tierra, en el mar, y con nuestro clima.

3. La ISS puede ser visto por la gente en la Tierra. Cuando se haya completado, la ISS será visible a más deL 90 por ciento de la población mundial y dará una vuelta a la Tierra cada 90 minutos.

4. Está siendo alimentada por energía solar. Esta energía es necesaria para alimentar los seis laboratorios y todo el espacio de vida a bordo.

5. La Estación Espacial Internacional fue diseñada y construido con la colaboración de 100.000 personas de 16 naciones desde 1998, y cientos de empresas. El proyecto se inició en 1998.

6. El costo de construir la Estación Espacial Internacional es correcto alrededor de 96 mil millones de dólares.

7. Los primeros miembros de la tripulación permanente, incluidos el astronauta estadounidense Bill Shepherd (que era también el comandante de la ISS) y los cosmonautas rusos Sergei Krikalev, como ingeniero de vuelo y Gidaenko Youri como comandante de la Soyuz. Esta expedición duró 140 días, 23 horas y 30 minutos en órbita.

8. Los vehículos espaciales viajan a la estación para traer y llevar científicos y suministros.

9. Los científicos están estudiando cómo los diferentes fluidos, metales y otros materiales  responden en el espacio sin el efecto de la gravedad. Estos estudios podrían ayudar a comprender mejor los virus, las proteínas y enzimas. Se espera que estos nuevos estudios guiarán algún día a los posibles nuevos tratamientos para muchas enfermedades, incluyendo cáncer. Los científicos también están tratando de lograr una medición más precisa que lo posible en la tierra, las formas más eficientes de producción de materiales, y una comprensión más completa del universo.

10. Alrededor de 160 paseos espaciales fueron necesarios para el montaje y mantenimiento de la Estación Espacial Internacional.

DATOS TÉCNICOS: 

* Inicio de las obras: 1998

* Envergadura: 108,6 m.

* Longitud: 79,9 m.

* Profundidad: 88 m.

*Volumen: 1.140m3

* Masa: 450 toneladas. aprox.

* Altitud de la órbita: Alrededor de 350-450 Km. sobre el nivel del mar.

* Inclinación de la órbita: 51,60 º

* Vuelta a la Tierra: Una cada 90 minutos.

* Velocidad relativa: 29.000 Km./h

* Potencia eléctrica: 110 Kw.

* Superficie de las placas solares: 4.500 m2

* Tripulación fija: 3 personas (2000-2003). 2 personas (desde abril 2003).

* Vuelos a la ISS: 28 (hasta julio de 2006).


Fuente Consultada:
MUNDORAMA – Astronáutica
Maravillas del Siglo XX
El Universo Enciclopedia de la Astronomía y el Espacio Tomo V

Ver: Historia de la Astronáutica

La Maquina de Dios Acelerador de Particulas Mas Grande del Mundo

La Máquina de Dios Acelerador de
Partículas Mas Grande del Mundo

La Organización Europea para ia Investigación Nuclear (CERN, por la sigla original francesa del Conseil Européen pour la Recherche Nucléaire, o Consejo Europeo para la Investigación Nuclear) es el mayor laboratorio mundial en física de partículas. Sus científicos creen que la partícula subatómica que identificaron en 2012 es el largamente buscado «bosón de Higgs».

«Los resultados con los datos del 2012 son magníficos y para mí está claro que estamos lidiando con un bosón de Higgs, aunque todavía tenemos mucho por delante para saber qué clase de bosón es el Higgs», afirmó Joe Incandela, un físico que dirige uno de los dos principales equipos del CERN (cada unocuenta con la participación de varios miles de científicos). El bosón de Higgs fue pronosticado en 1964 para llenar un vacío en la comprensión de la creación del Universo, que según la mayoría de los expertos ocurrió en una explosión masiva conocida como la Explosión Primordial, también llamada Big Bang.

ACELERADOR DE PARTÍCULAS: Los aceleradores de partículas son máquinas de grandes proporciones que aceleran partículas subatómicas a altísimas velocidades. Luego de movilizarse a gran velocidad las partículas abandonan la máquina para chocar contra el blanco. Dichas partículas o bien fragmentan los átomos del blanco, o bien resultan incorporadas por esos átomos, dando lugar a la formación de átomos más grandes.

Los aceleradores de partículas son las principales herramientas que los físicos nucleares usan para el estudio de la estructura del núcleo del átomo. Normalmente el núcleo contiene varios tipos de partículas, y muchas otras pueden producirse bombardeando los blancos con partículas aceleradas.

El estudio de las partículas elementales o partículas fundamentales, es decir de las partes más simples de la materia, se denomina física de la partículas o física de alta energía. Las partículas alcanzan una energía elevadísima cuando se las acelera en estos aparatos. Los físicos esperan alcanzar una comprensión integral de la naturaleza de la materia ,fisionando el núcleo de los átomos o creando de este modo núcleos nuevos. La mayoría de los aceleradores de partículas son enormes máquinas.

El conducto donde las partículas se aceleran puede ser recto o circular. El acelerador lineal de la Universidad de Stanford, en California, tiene un tubo central recto de 3,2 kilómetros (2 millas) de largo. En los laboratorios de la CERN (European Organization for Nuclear Research), en las afueras de Ginebra, Suiza, se proyecta un acelerador circular de 2,2 kilómetros de diámetro (1,4 millas). A su término quedará a horcajadas sobre el límite con Francia.

El poder de los aceleradores se mide en ELECTRON-VOLTIOS (eV) que es la cantidad de energía infundida a las partículas para acelerarías. Pero las grandes máquinas son tan poderosas que su energía se mide en GeV (gigaelectronvoltio). Un GeV es igual a 1000 millones de eV. Más tarde, se aumentará la potencia de la máquina del CERN y con el tiempo podrá alcanzar los 1000 GeV. Cada máquina puede consumir tanta electricidad como una ciudad entera!

El acelerador de partículas más poderoso jamás construido podría hacer algunos descubrimientos notables, como confirmar la existencia de la materia invisible o de las dimensiones espaciales adicionales, una vez que empiece a funcionar en agosto.

La «Máquina de Dios», como se ha dado en llamar al Gran Colisionador de Hadrones (LHC), tiene por también por finalidad la de desentrañar los enigmas del origen del Universo, es decir, cómo fue que se creó la materia y qué pasó con la antimateria en el momento del Big Bang. Considerado el experimento científico más ambicioso de la historia, el LHC intentará identificar con total certeza los ladrillos fundamentales con que se construyeron las estrellas, los planetas y hasta los seres humanos.

QUE ES UN ACELERADOR DE PARTÍCULAS? Estas enormes máquinas aceleran partículas cargadas (iones) mediante campos electromagnéticos en un tubo hueco en el que se ha hecho el vacío, y finalmente hacen colisionar cada ion con un blanco estacionario u otra partícula en movimiento. Los científicos analizan los resultados de las colisiones e intentan determinar las interacciones que rigen el mundo subatómico. (Generalmente, el punto de colisión está situado en una cámara de burbujas, un dispositivo que permite observar las trayectorias de partículas ionizantes como líneas de minúsculas burbujas en una cámara llena de líquido.)

Las trayectorias de las partículas aceleradas pueden ser rectas, espirales o circulares. Tanto el ciclotrón como el sincrotrón utilizan un campo magnético para controlar las trayectorias de las partículas. Aunque hacer colisionar las partículas unas contra otras puede parecer inicialmente un método un tanto extraño para estudiarlas, los aceleradores de partículas han permitido a los científicos aprender más sobre el mundo subatómico que ningún otro dispositivo.

El primer acelerador circular se llamó: ciclotrón. El físico estadounidense Ernest O. Lawrence fue galardonado con el Premio Nobel de Física en 1939 por el invento y desarrollo del ciclotrón, un dispositivo para acelerar partículas subatómicas. Lawrence desarrolló el ciclotrón, el primer acelerador circular. Es una especie de acelerador lineal arrollado en una espiral. En vez de tener muchos tubos, la máquina sólo tiene dos cámaras de vacío huecas, llamadasdes, cuya forma es la de dos D mayúsculas opuestas entre sí.

Un campo magnético producido por un potente electroimán hace que las partículas se muevan en una trayectoria curva. Las partículas cargadas se aceleran cada vez que atraviesan el hueco entre las des. A medida que las partículas acumulan energía, se mueven en espiral hacia el borde externo del acelerador, por donde acaban saliendo.

Según la fórmula de Einstein E = mc² la masa es un tipo de energía. Esto significa que la energía puede transformarse en masa y viceversa. En los aceleradores de partículas ésto es utilizado para transformar energía cinética en masa, en una colisión de partículas. De este modo, nuevas partículas pueden ser creadas en las colisiones de partículas con altas velocidades relativas.  En la búsqueda de nuevas partículas pesadas es importante ser capaz de acelerar partículas a altas energías. A mayor energía de las partículas originales, partículas más pesadas pueden ser creadas en las colisiones de partículas.

HISTORIA:
PRIMEROS PASOS Y AVANCES CON LA APLICACIÓN DE ESTA MAQUINA…

Organización Europea para la Investigación Nuclear, institución europea de investigación cuya sede se encuentra en la ciudad suiza de Meyrin (situada en las proximidades de Ginebra, en la frontera entre Francia y Suiza). Es más conocida por las siglas CERN, correspondientes al nombre con que fue fundada en 1954: Conseil Européen pour la Recherche Nucléaire (Consejo Europeo para la Investigación Nuclear).

En el CERN se han construido aceleradores desde los 1950. Hoy existe un gran sistema de aceleradores lineales y circulares. Algunos de los aceleradores más antiguos se usan aún para iniciar la aceleración de partículas antes de ser enviadas a los aceleradores más largos. El sistema de aceleradores del CERN puede acelerar electrones, positrones, protones y diferentes tipos de iones.

Vista Area del CERN

Imagen de Abajo: El LEP (Large Electrón-Positrón Collider), en servicio desde 1989 en la frontera francosuiza, cerca de Ginebra, es el mayor acelerador del mundo y lo seguirá siendo por lo mucho tiempo. Está destinado a estudiar las partículas   de   muy   altaenergía producidas en el transcurso de colisiones entre un haz de electrones y otro de positrones que circulan en sentidos opuestos. Situado en un túnel circular (de 26,7 km. de longitud y 3,8 m. de diámetro interior), el anillo de sección rectangular (5 cm x 20 cm) está enterrado a una profundidad comprendida entre 50 y 175 m. Lo rodean 3.368 imanes de curvatura, 1 300 imanes de focalización y 128 cavidades aceleradoras de alta frecuencia que suministran 400 millones de voltios de tensión aceleradora por vuelta.

En cuatro puntos, el túnel se ensancha en salas de 27 m. de diámetro y 70 m. de longitud donde se encuentran los dispositivos experimentales destinados a detectar las partículas producidas y a determinar sus características. Loselectrones y los positrones sufren la acción de tres aceleradores sucesivos y penetran en el LEP con una energía de 22 GeV. Cada haz es acelerado hasta 50 GeV, por lo que en cada colisión se ponen en juego 100 GeV. Las partículas, inyectadaspor paquetes de 5 billones, giran durante horas y recorren miles de millones de kilómetros; en cada vuelta, se producen sólo unas pocas colisiones entre los dos haces de 1 mm3 de sección.

LEP en suiza

El 14 de julio de 1989, aniversario de la toma de la Bastilla toda Francia celebró el bicentenario del comienzo de la Revolución. A las 16.30 del mismo día, los físicos del CERN, centro internacional de investigación sobre física de las partículas situado en Ginebra, celebraban la entrada en funcionamiento del LEP (Large Electron Positron Collider), la mayor máquina científica construida hasta entonces.

Alojado en un túnel circular de unos 27 km de diámetro (casi todo bajo territorio francés), el LEP es un acelerador que provoca colisiones de partículas a muy alta velocidad, para conseguir elevadísimas energías. Es capaz de crear las condiciones que reinaban una fracción de segundo después de la gran explosión que supuestamente dio origen al universo, así como de provocar la formación de partículas y determinar efectos que no se han producido desde entonces.

En especial, los físicos esperaban crear partículas Z, cuya existencia había sido predicha en los años 60, en el marco de la teoría que unifica el electromagnetismo con la fuerza nuclear débil. Las partículas Z, portadoras de esta fuerza débil, se observaron por primera vez a mediados de agosto de aquel año y la evaluación de los primeros resultados estaba lista para fines de octubre.

El LEP fue la culminación de casi diez años de planificación y construcción, a un coste situado en torno a los 80.000 millones de pesetas. En el momento en que el LEP entraba en funcionamiento, Estados Unidos proyectaba construir en Texas una máquina todavía más gigantesca, el Superconducting Supercollider (SSC), con una circunferencia de 84 Km. y un coste estimado de más de 100.000 millones de pesetas. Sin embargo, si llegara a hacerse realidad, este proyecto podría constituir fácilmente el fin del recorrido en este sentido, ya que los físicos están dirigiendo actualmente su atención a nuevas tecnicas con máquinas lineales en lugar de circulares.

El CERN, fundado en 1953, fue desde el comienzo una empresa cooperativa con la participación de 14 países europeos. Físicos de otros paises, entre ellos la Union Soviética, Japón y Estados Unidos, han participado posteriormente en sus programas de investigación. Fue uno de los indicios de un nuevo movimiento paneuropeo, reflejado también en las esferas económica y política. Europa no carecía de talentos científicos, como lo demuestra el éxito continuado en la obtención del premio Nobel, pero en muchos campos los países individuales no podían en modo alguno competir con Estados Unidos.

No era sólo un problema financiero sino de disponibilidad de personal científico cualificado. Ante la falta de oportunidades en sus países, los científicos europeos. Y En el Fermillab, (imagen abajo) en Illinois (EE UU), una carretera marca los 6km de circunferencia del anillo subterráneo del acelerador de partículas del laboratorio. En 1913, el Fermllab perfeccionó sus instalaciones Instalando Imanes superconductores yen 1990 producía todavía los rayes de protones mas energéticos del mundo.

Cedían a la atracción de Estados Unidos, que les ofrecía mayores salarios y mejores instalaciones. Esta tendencia era particularmente notable en el campo de las ciencias físicas, el ámbito de los proyectos de la «gran ciencia»,. La cooperación científica en Europa adquirió un nuevo impulso en 1973 con el ingreso de Gran Bretaña, Irlanda y Dinamarca en la Comunidad Económica Europea. Entre las nuevas iniciativas figuraban la Agencia Espacial Europea (fundada en 1975) y el centro multidisciplinario de investigación de la CE (15-FRA), con sede en Italia.

Pero en la ciencia, como en otras actividades humanas, las tendencias y las necesidades cambian, y las estrategias deben modificarse en consecuencia. En Gran Bretaña, por ejemplo, el gran laboratorio de investigación sobre energía atómica de Harwell (motivo de orgullo nacional durante la euforia de la posguerra e importante factor de negociación en el intercambio de información con Estados Unidos) tuvo que ser reorganizado y, en cierto modo, ganarse el sustento mediante contratos con la industria.

Por el contrario, el proyecto experimental IET (Ioint European Toros), destinado a producir energía mediante la fusión de núcleos ligeros, como en el interior del Sol, comenzó a funcionar en 1983, en la cercana localidad de Culham. Pero incluso este proyecto fue perdiendo el favor de la opinión pública cuando los movimientos ecologistas (opuestos a toda forma de energía nuclear) ganaron fuerza e influencia, sobre todo teniendo en cuenta que los resultados del programa se podrían medir más en décadas que en años.

El primer gran acontecimiento científico de los años 90 fue la puesta en órbita del telescopio espacial Hubble, en abril de 1990, después de veinte años de planificación. Pero su supuesta capacidad de «ver el universo con una profundidad diez veces mayor que la empleada anteriormente» no impresionó a quienes se oponían a una inversión de 1.300 millones de dólares para un proyecto de investigación pura, entre los que se encontraban muchos científicos con presupuestos escasos. Al mismo tiempo, comenzó la reevaluación del programa del Supercollider.

Si bien la exploración de las partículas más recónditas del átomo y de las regiones más remotas del universo ha seguido cautivando la imaginación popular, también ha sido intensa la actividad en otros campos de las ciencias físicas. De hecho, el progreso en estos dos campos habría sido imposible sin los avances logrados en muchos otros terrenos. Incluso las disciplinas clásicas de la física han demostrado ser capaces de proporcionar nuevas sorpresas.

En el campo del magnetismo, conocido desde la antigüedad, el descubrimiento de imanes líquidos ha abierto nuevas perspectivas. Estos imanes consisten en diminutas partículas de materiales magnéticos como, por ejemplo, ciertos óxidos de hierro, dispersos en un líquido como en los coloides corrientes, las partículas no se separan del líquido. Cada una actúa como un pequeño imán permanente y puede también conferir notables propiedades al líquido, denominado normalmente ferro fluido.

EL LHC: El acelerador LEP estuvo operativo entre 1989 y 1195. Entonces fue desmantelado para dar espacio para un nuevo acelerador en el mismo túnel. El nombre del nuevo acelerador es Gran Colisionador Hadrónico,LHC. LHC, al contrario de LEP, colisionará haces consistentes en protones. Las colisiones, mucho más energéticas,14 TeV, serán posibles reemplazando los electrones y positrones de LEP por protones.

Cientificos Argentinos Colaboradores

DATOS DEL «GRAN COLISIONADOR DE HADRONES»
Inicio de la construcción1994
Construido por:CERN
Ubicación:Frontera Suiza-Francesa
Costo6200 millones de euros
Científicos Comprometidos10.000 científicos de 500 Universidades
Científicos ArgentinosOcho
Países Que IntervienenCuarenta
Dimensiones27 Km. de Diámetro
ProfundidadEntre 50 y 125 metros
Temperatura de Trabajo272 Bajo Cero °C
Aceleración Conseguida99,9999999 de la Velocidad de la luz
Campo Magnético Logrado100.000 veces el de la Tierra

OBJETIVOS DEL EXPERIMENTO:

  •     Descubrir qué es realmente la masa.
  •     Descubrir qué es la materia oscura (que ocupa más del 95% de la masa del Universo)
  •     Descubrir cuántas son las partículas totales del átomo.
  •     Descubrir la existencia o no de las partículas supersimétricas
  •     Descubrir por qué no hay más antimateria.
  •     Descubrir cómo era la materia durante los primeros segundos que siguieron al Big Bang.

EL BOSON DE HIGG: A una velocidad muy cercana a la de la luz, dos conjuntos de protones circulan en sentido inverso: cuando chocan, se generan, brevemente, partículas enormes. La última que así se descubrió, en el Fermi, en 1995, llamada quark top, tiene 174 veces la masa de un protón. Esas partículas, que ya no existen en la Tierra, existieron en el Universo, en las milésimas de segundo posteriores al Big Bang; las altísimas energías de aquellos instantes son reproducidas por el Colisionador. Así, investigar estas partículas fugaces equivale a investigar los primeros instantes del Universo.

Pero el propósito no es tanto saber qué pasó entonces, sino saber qué pasa ahora: poner a prueba las teorías básicas de la física. Entre aquellas partículas, interesa especialmente una, llamada bosón de Higgs, que tendría entre 130 y 200 veces la masa de un protón: su existencia es requerida por el “modelo estándar”, que, de las cuatro fuerzas consideradas fundamentales en la naturaleza –el electromagnetismo, la gravedad y, en el interior de los átomos, las fuerzas “fuerte” y “débil”–, explica todas menos la gravedad. (ampliar sobre el tema)

Ver Tambien:

Naturaleza de la Materia
Las Particulas Subatomicas del Universo
El Polvo Cosmico y Sus Componentes
Derretimiento Casquetes Polares Hielo de los Polos
Geometria No Euclidiana El Espacio Curvado de Einstein
La Vida Media de un Isotopo Quimico
El Efecto Coriolis en el Planeta Tierra
Los gases nobles Gases Inertes Argon Neon Helio

 

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la Luna

Efecto de la Luna Sobre La Tierra

La Luna gira alrededor de la tierra a una distancia media de unos 384.400 km. Su diámetro es de 3.475 Km., aproximadamente una cuarta parte del de la tierra, con una superficie de unos 38 millones de km2, y su masa es 1/81 la de la tierra; esto provoca que la fuerza de la gravedad en su superficie sea la sexta parte de la terrestre (un hombre que en la tierra pesara 60 kilogramos en la luna sólo pesaría 10 kg.).  La consecuencia más directa de esta poca gravedad es la falta de atmósfera.

¿Por qué se forman las mareas en el mar?

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la LunaConforme la Luna gira en torno a la Tierra su fuerza gravitacional ejerce atracción sobre el continente y océanos. Al mismo tiempo la gravedad de la Tierra controla a la Luna y evita que se salga de su órbita.

La atracción de la Luna mueve montaña y levanta una pequeña pero perceptible marea en la corteza terrestre. Además, atrae los mares y océanos, elevando varios metros el nivel del agua en algunos lugares. Este efecto es similar al de una aspiradora que pasa sobre un tapete y crea un abultamiento.

La fuerza que ejerce la Luna causa un crecimiento de la marea que eleva el nivel de los océanos. Conforme gira la Tierra y nuevas zonas quedan bajo la influencia lunar, la pleamar se mueve con lentitud, creando olas altas en una región y bajas en otra. La bajamar se presenta en una cuarta parte de la circunferencia terrestre por delante del paso de la Luna y a la misma distancia por detrás, siempre y cuando haya océanos.

La órbita de la Luna en torno a la Tierra es afectada por gran variedad de factores y al igual que las mareas depende del contorno del océano. Por ejemplo, el mar Mediterráneo, prácticamente rodeado por tierra, casi no presenta mareas, y el Golfo de México sólo una pleamar al día.

Resulta extraño que un crecimiento de la marea se presente a unos 13.000 Km. de distancia al otro extremo de la Tierra. La influencia gravitacional de la Luna allí es casi 7% menor que en el lado más próximo, pero la fuerza centrífuga de la Tierra empuja los océanos hacia afuera. Esto provoca la pleamar y la bajamar en esa parte del mundo. De no suceder así, habría sólo una gran pleamar y una bajamar en cada rotación terrestre. Pero, como usted puede constatar si se encuentra cerca del mar, el tiempo entre mareas es de unas seis horas, y hay dos de cada una al día.

Aun sin la influencia de la Luna, nuestros océanos y mares tendrían mareas, aunque menos vivas. La atracción gravitacional del Sol influye también sobre la Tierra. Esta fuerza, mucho más fuerte en su origen que la que ejerce la Luna, influye menos debido a la distancia que nos separa del Sol.

Las mareas causadas por el Sol pueden reforzar o debilitar las que son creadas por la acción de la Luna. Cuando el Sol y la Luna están alineados —durante la luna llena o luna nueva— sus fuerzas gravitacionales actúan en conjunto creando una atracción mucho más fuerte que causa mareas más altas. Las llamamos mareas de primavera, aunque no se limitan a esa estación. Cuando el Sol y la Luna guardan un ángulo recto respecto a la Tierra, en los cuartos menguante y creciente, la atracción del Sol influye en lo que se conoce como mareas muertas.

Fuente Consultada:
El Mundo de los Porque?… Readers Digest
Notas Celestes de Carmen Nuñez

Fecha de la Primera Caminata Espacial Americana Ed White

Fecha de la Primera Caminata Espacial
Historia Exploración Espacial

Edward White, nació en San Antonio, Texas  el 14 de noviembre de 1930, y fue criado con grandes cualidades humanas, como la solidaridad, la autodisciplina y perseverancia, que las supo aplicar en toda su carrera profesional y también en su vida personal.

Su padre era un graduado de West Point que sirvió en la Fuerza Aérea de Estados Unidos, y fue quien ayudo a Ed a dar los primeros pasos en su carrera como piloto aeronáutico. Ed siempre recordó su primer vuelo con su padre, quien le permitió hacerse cargo de los controles de la nave, y en donde se sentía muy cómodo y le parecía hacer la cosa mas natural del mundo, según sus palabras.

Se hizo conocido como un pionero de la aeronáutica, comenzando su carrera militar al volar globos del ejército y antes de convertirse en astronauta era piloto de prueba de la Fuerza Aérea. Ha registrado más de 3.000 horas de vuelo.

Como astronauta registró más de 96 horas en el espacio a bordo de un único vuelo espacial. En 1965 se convirtió en el primer astronauta americano en caminar por el espacio.

White flotó por 22 minutos, fuera de la nave espacial Gemini 4.

Ed White fue el primer estadounidense en dar un paseo por el espacio. Lo hizo en junio de 1965, tres meses después que el ruso Leonov.

White sería uno de los tres astronautas que murieron en las pruebas de vuelo previas al lanzamiento del Apollo 1, en enero de 1967. En 1967 falleció en un incendio durante las pruebas de la nave espacial Apollo 1

Historia del Descubrimiento de la Fuerza de Gravedad Por Newton

Historia del Descubrimiento de la Fuerza de Gravedad Por Newton, Obra Cientifica –

El rol de las manzanas en la elaboración de la Teoría de La gravedad de Newton puede ser tan anecdótico como la manzana que originó la expulsión de Eva del Paraíso, la manzana de París que desencadenó la Guerra de Troya o la manzana de Guillermo Tell.

Uno de los mayores avances de la historia de la ciencia fue la comprensión por Isaac Newton de que las leyes de la gravedad son aplicables a la Luna y otros cuerpos celestes igual que a los objetos cercanos a la superficie terrestre.

Animado por Edmond Halley y Robert Hooke, finalmente creó las fórmulas matemáticas y las consignó en sus Principia, el libro científico más importante publicado jamás.

Newton y la Ley de Inercia y GRavedad

Newton reflexionó mucho y llegó a concebir ideas, que cambiaron completamente el concepto humano acerca del Universo. He aquí su modo de razonar:
«La manzana cae por la atracción de la Tierra», (esta no era una idea nueva). Quizás la manzana también atrae a la Tierra, (esta sí era una idea nueva). Puede ser que las manzanas se atraen entre sí. Es posible que todos los cuerpos se atraen entre sí, (aquí estaba llegando Newton más lejos que las ideas científicas de entonces, dando de inmediato el gran paso). Tal vez la fuerza de atracción gravitacional entre varios objetos actúa incluso a muy grandes distancias; así, la Tierra y la Luna se atraen mutuamente, igual que el Sol y los planetas y, posiblemente, que el Sol y las estrellas.

Al parecer, Newton tuvo los primeros atisbos de una idea sobre la gravitación universal en 1665-1666, su época creativa más fructífera.

Muchos años después afirmó que el concepto de gravedad aplicable por igual a los objetos que se encuentran sobre la Tierra y a las estrellas y planetas le fue inspirado por la visión de una manzana que caía de un árbol.

Según William Stukeley, biógrafo de Newton, estaban almorzando juntos en Kensington el 15 de abril de 1726 y «el día era caluroso, salimos al jardín y bebimos té a la sombra de unos manzanos, a solas. En medio de aquella conversación, me confesó que estaba justamente en la misma situación cuando tiempo atrás le vino a la mente la idea de la gravitación».

Newton le refirió que vio caer una manzana y se preguntó: «¿Por qué la manzana cae siempre perpendicular al suelo? ¿Por qué no lo hace de lado, o hacia arriba? Sin duda, la razón es que la tierra la atrae; debe existir un poder de atracción en la materia, y la suma del poder de atracción en la materia de la tierra debe estar en su centro».

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton se preguntó acerca de la extensión de la atracción de la gravedad; evidentemente, llegaba desde el centro de la Tierra hasta la copa del manzano, pero ¿podría llegar hasta la Luna?.

Si así fuera, seguramente afectaría a su órbita. De hecho, ¿podría controlar la órbita de la Luna?.

Hizo algunos cálculos y «parecían responder bastante aproximadamente».

Esta teoría destronó la noción aristotélica de que los cuerpos celestes eran muy diferentes de la Tierra y sin conexión con ella. También negaba las teorías del filósofo y matemático Rene Descartes, según las cuales estrellas y planetas giraban en vórtices.

Fue una idea revolucionaria, pero el hecho de que, se le ocurriera en 1665-1666 en un destello de genialidad es discutible; al parecer no mencionó el episodio de la manzana hasta 1726, sesenta años después de suceso.

La teoría pudo ser resultado de años de trabajo, y probablemente debía tanto a su síntesis de la obra de otros grandes científicos –Copérnico, Kepler, Galileo y Hooke– como a su propio genio natural.

La vinculación entre la fuerza que mantiene a la Luna orbitando alrededor de la Tierra y la que provoca la caída de los cuerpos librados a su propio peso, es en cambio mucho menos anecdótica y forma parte de la obra de Newton (1642-1727), publicada en los Principia (Philosophiae Naturalis Principia Matematica) de 1687, quien le dio sustento matemático y físico, basándose en el andamiaje experimental proporcionado por Kepler y en el esquema de pensamiento elaborado por Galileo.

Hoy, las mismas ideas que explican la caída de las manzanas y el movimiento orbital de los planetas, este enorme edificio intelectual cuya construcción comenzó hace más de 400 años, son utilizadas por los modernos vehículos espaciales para recorrer el espacio interplanetario y han permitido que un producto humano, el Voyager 2, se encuentre ya fuera de los confines de nuestro sistema planetario, vagando por el medio interestelar.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalUno de los problemas que presentaba el movimiento de la Tierra para el sentido común era por qué los cuerpos tirados hacia arriba caen esencialmente sobre el lugar desde el que fueron arrojados si durante su trayectoria en el aire no deberían seguir el movimiento de la Tierra. Galileo introdujo el concepto de inercia, que permite resolver esta aparente paradoja.

La inercia es la tendencia que posee todo cuerpo en movimiento a continuar en movimiento (como el caso de un jinete cuyo caballo se detiene súbitamente). Una piedra arrojada desde el mástil de un barco en movimiento cae al pie del mismo y no detrás, ya que comparte el movimiento del barco.

Es sencillo entender con este principio por qué los pájaros, las nubes y la atmósfera en general no quedan detrás de la Tierra en movimiento.

La experiencia nos muestra que los objetos están inmóviles a menos que alguna fuerza actúe sobre ellos.

Cualquier objeto abandonado a sí mismo, si no se mueve permanecerá quieto y si se está moviendo llegará finalmente a su estado «natural” de reposo: una pelota picando alcanzará cada vez una altura menor hasta que finalmente terminará por detenerse; si la pelota está rodando se detendrá al cabo de un tiempo, a no ser que alguien la empuje o que se mueva sobre un plano inclinado.

La Luna y los planetas, en cambio, han permanecido en movimiento a través de los siglos y éste parece ser su estado “natural”; es necesario entonces encontrar cuál es la fuerza que les impide quedarse quietos o qué los hace diferentes de los objetos que existen sobre la Tierra.

La aparente contradicción entre los estados “natural” de los distintos cuerpos fue atacada científicamente por primera w por Galileo y Newton.

La clave de su resolución está en distinguir distintos tipos de movimiento y en reconocer que no hay nada de particular e el estado de reposo. Newton enunció las leyes que permiten describir el movimiento de los cuerpos.

La primera ley establece que un cuerpo en repos. o que se mueve en línea recta a velocidad constante permanecerá en reposo o en movimiento uniforme a menos que sobre ellos actúe una fuerza ex terna.

¿Cómo explicar entonces que la pelota se detenga? Para frenar o acelerar un cuerpo, es decir para apartarlo de su movimiento rectilíneo uniforme es necesario aplicar una fuerza. En el caso de la pelota, esta fuerza se llama fricción o rozamiento y es un proceso muy complicado que todos hemos usado alguna vez, por ejemplo para frenar la bicicleta apoyando unen el suelo.

Isaac Newton comprendió que no había nada que explicar respecto de la velocidad uniforme, lo que requiere explicación son los cambios de velocidad, o más precisamente de momento, siendo éste proporcional a la velocidad (la constante de proporcionalidad es la masa del cuerpo); es decir, cómo cambia la velocidad en presencia de una fuerza. Estos cambios de velocidad, llamados aceleración, ocurren no sólo si la velocidad aumenta o disminuye, sino también si se modifica la dirección del movimiento.

Si viajáramos dentro de una caja cerrada con movimiento rectilíneo uniforme, según el principio de relatividad de Newton, no nos daríamos cuenta de que nos movemos, necesitaríamos alguna referencia externa. Si la caja se detiene, en cambio, o si se modifica su velocidad, reconoceríamos este cambio de movimiento

Una manera de medir la aceleración es utilizar flechas para representar la velocidad de un cuerpo: la dirección de la flecha indica el sentido del movimiento y su longitud, la magnitud de la velocidad. Comparando las flechas de velocidad en dos instantes distintos, la diferencia entre ambas representa la aceleración.

Cuando un automóvil que viaja en línea recta aumenta (o disminuye) su velocidad, la aceleración (o desaceleración) está en la misma dirección del movimiento Pero cuando el auto dobla en una curva, aunque mantenga su velocidad constante, la diferencia de direcciones de las flechas de velocidad en dos posiciones distintas sobre la curva indicará una aceleración no nula.

Esto es exactamente lo que sucede en el movimiento planetario: la flecha de aceleración de los planetas apunta siempre hacia el Sol.

Allí está la causa del movimiento: los planetas están “cayendo” permanentemente hacia el Sol, de la misma manera en que los objetos caen hacia la Tierra  si son abandonados a su propio peso: la flecha de aceleración de una manzana madura que ya no es sostenida por la rama del árbol apunta hacia el centro de la Tierra.

Esta idea de la caída de los planetas hacia el Sol o de la Luna hacia la Tierra, no parece muy adecuada ya que no vemos caer a estos cuerpos.

Sin embargo hay que pensar que si los planetas no estuvieran cayendo se alejarían cada vez más del Sol, siguiendo una trayectoria rectilínea.

En realidad fue Borelli (1608-1679), contemporáneo de Newton, quien observó que un cuerpo en movimiento circular mostraba una tendencia a alejarse del centro, la que, en el caso de los planetas, debía suponerse balanceada por algún tipo de atracción hacia el Sol.

Aparece así por primera vez la idea de que el movimiento de los planetas debía explicarse no por una fuerza actuante en la dirección en que se mueven, sino por una fuerza dirigida hacia el Sol, es decir perpendicular a la dirección del movimiento.

Independientemente del aspecto planetario este problema podría reducirse a estudiar bajo qué condiciones un cuerpo puede girar con velocidad circular uniforme.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion UniversalSupongamos que el punto A de la figura  representa la posición de un cuerpo con movimiento uniforme en un círculo centrado en 0. En este instante el cuerpo se está moviendo en dirección tangente al círculo (su velocidad se indica con la flecha AB).

En consecuencia, de acuerdo a la primera ley de Newton, si se abandona el cuerpo a sí mismo, en ausencia de todo otro cuerpo, seguirá moviéndose en la misma dirección (es decir, a lo largo de AB) y un momento más tarde se encontrará en B.

Pero en realidad se encuentra en c, sobre el círculo. Por lo tanto debe haber habido alguna influencia que hizo “caer” el cuerpo de B a C, acercándolo al centro 0. La curvatura de las órbitas de los planetas y los satélites mide el apartamiento respecto de la trayectoria rectilínea que seguirían si no hubiera otros cuerpos que causaran la desviación.

Galileo dedujo la relación (las leyes) entre las distancias recorridas por los cuerpos y los tiempos empleados en recorrerlas, para distintos tipos de movimientos (rectilíneo uniforme, uniformemente acelerado, curvilíneo).

Construyó así la tabla de datos que, junto a las leyes de Kepler, permitieron a Newton encontrar el principio físico y matemático sobre el que se sustentan.

Para imprimir a un cuerpo una aceleración se necesita una fuerza proporcional a ella. El factor de proporcionalidad, de acuerdo a la segunda ley de Newton, es la masa del cuerpo: necesitamos realizar el doble de esfuerzo para mover un cuerpo cuya masa es el doble de la de otro.

Partiendo del descubrimiento de Galileo de que todos los cuerpos caen con igual aceleración, independientemente de sus masas (el Supuesto experimento realizado en la Torre de Pisa), se puede concluir, usando la segunda ley de Newton que las fuerzas que los atraen son proporcionales a Sus masas. Es la fuerza de gravedad que actúa sobre los cuerpos en caída libre y la aceleración provocada por ella es la aceleración de la gravedad: g=GM/R2.

G es una constante conocida como la constante de gravitación universal o constante de Newton M se refiere a la masa del cuerpo que provoca la aceleración y R es la distancia entre éste y el cuerpo atraído. La tercera ley de Newton se expresa entonces matemáticamente como

F=(GmM)/R2     (1)

Así, la fuerza ejercida por la Tierra (de masa M) sobre la Luna (cuya masa representamos por m) será mucho mayor que la ejercida por la Tierra sobre una manzana (de masa mucho menor que la de la Luna), y la atracción gravitatoria entre dos manzanas será perfectamente despreciable.

Utilizando los datos de que disponía sobre la Luna, su distancia a la Tierra y su período de traslación Newton advirtió que la fuerza de atracción entre dos cuerpos satisface una ley de cuadrado inverso, es decir, disminuye como el cuadrado de la distancia que los separa, como indica la fórmula (1). Esta ecuación resume el contenido de su tercera ley o ley de gravitación universal.

Newton La Fuerza de Gravedad Atraccion Terrestre Gravitacion Universal

Newton obtuvo así que la fuerza de gravedad en la Luna era menor que sobre la Tierra (un objeto de 70 Kg. sobre la Tierra pesaría 10 Kg. en la Luna).

Las diferencias entre la aceleración gravitatoria en las superficies de los planetas y en sus satélites (consecuencia de sus distintos tamaños y masas) han dado lugar a una prolífica literatura de ciencia ficción.

Se ha propuesto por ejemplo un ingenioso juego de baseball en Deimos (satélite de Marte) donde la velocidad impresa a una pelota por un bateador profesional sería suficiente para lanzarla en órbita alrededor del satélite.

El bateador podría retirarse a tomar unos mates (si fuera argentino) y volver a las 2 horas, cuando la pelota ha regresado de su órbita para lanzarla nuevamente en sentido opuesto o simplemente recuperarla.

Más allá de la diversión, la fuerza gravitatoria de un planeta es una medida de su capacidad, por ejemplo, para retener una atmósfera.

Si la fuerza de gravedad en la Tierra hubiera sido distinta, las formas de vida que se han desarrollado sobre nuestro planeta también hubieran diferido en su evolución y aspecto.

En las actuales condiciones, las aves vuelan porque mantienen el mismo peso posible: sus huesos son huecos y sus cerebros de capacidad ínfima.

Si la gravedad fuera menor estarían seguramente mejor equipadas y ocuparían tal vez un puesto más alto en la jerarquía de las especies.

La manzana y la luna from alexiscb on Vimeo.

La fuerza del niño es menor que la del adulto y la atracción de la Tierra o gravedad, que resta igual impulso a ambos proyectiles, hace que el primero alcance menor altura y caiga antes hacia la Tierra. Existe una velocidad, llamada velocidad «de escape», muy difícil de calcular porque depende de muchos factores, que permite a un proyectil lanzado verticalmente escapar definitivamente a la decreciente atracción terrestre.

Según la ley de inercia, los proyectiles lanzados por el hombre y el niño proseguirían en línea recta y con velocidad uniforme. Pero la fuerza de gravedad hace que simultáneamente vayan cayendo hacia el mar, según curvas que dependen de su velocidad inicial. Las estrellas, que forman las nebulosas o galaxias, que son como las islas del universo, no se apartan unas de otras debido a la fuerza de la gravitación, pero tampoco se concentran en una sola masa debido a la fuerza centrífuga de sus enormes velocidades individuales, que tienden a hacerlas evadir en línea recta. La galaxia gira como un sistema solar

El radio de la Luna es sólo un cuarto de! de la Tierra; su densidad relativa, 0,6 de la de ésta. Multiplicando ambas cantidades deducimos que la atracción de la Luna alcanza únicamente a la sexta parte de la gravedad de la Tierra. Un atleta que puede saltar a sólo 2 m. de altura en la Tierra, llegará a 12 m. en la Luna. Por otra parte, el peso de su cuerpo será seis veces menor, y el esfuerzo de su corazón para que su sangre vuelva desde los pies hasta la aurícula derecha, o para irrigar su cerebro, será también menor.

Una vez enunciados estos principios, Newton debía demostrar que de ser exactos, las órbitas de los planetas obedecerían las leyes experimentales de Kepler. Resolviendo las ecuaciones diferenciales que se obtienen aplicando las fórmulas newtonianas al movimiento planetario es posible deducir, con bastante exactitud, las 3 leyes keplerianas. Para elaborar su teoría Newton necesitó desarrollar la matemática del cálculo diferencial de la cual no disponía y esto fue lo que demoró la publicación de su obra.

Esta es una situación que se encuentra a menudo en física: al no contar con las herramientas matemáticas necesarias para afrontar un problema físico, muchas veces esta disciplina motivó el desarrollo de partes de las matemáticas que posteriormente encuentran aplicación en otras áreas.

Aunque las órbitas planetarias están relativamente bien descriptas por las leyes de Kepler, de acuerdo con la ley de gravitación universal habrá perturbaciones producidas por la presencia de otros planetas en el sistema solar y de los satélites naturales.

Estas perturbaciones, proporcionales al cuadrado de sus distancias mutuas hacen que el camino de los planetas oscile alrededor de una elipse media. Silos planetas fueran mucho más masivos o si estuvieran mucho más próximos entre sí, su movimiento no podría ser descripto, ni siquiera en una primera aproximación por las leyes de Kepler (obtenidas de la llamada aproximación de dos cuerpos, que en este caso son el Sol y el planeta). Habría que resolver el denominado problema de N cuerpos, donde N se refiere al Sol, el planeta y los otros cuerpos que perturban. Los movimientos resultantes serían muy complejos.

La aplicación de la ley de la gravitación universal de Newton permitió descubrir dos planetas, Neptuno y Plutón, demostrando así su capacidad, no sólo de explicar los fenómenos observados sino también su enorme poder predictivo. El descubrimiento de un cuerpo celeste, a 4 mil millones de kilómetros de la Tierra, mediante un simple cálculo matemático, representa un hito fundamental en la historia de la ciencia. Desde fines del siglo XVIII los astrónomos tenían problemas en conciliar sus cálculos con las posiciones observadas de Urano. Aplicando la tercera ley de Newton a un supuesto cuerpo perturbador de la órbita fue posible calcular la masa y la Posición de este hipotético objeto con suficiente precisión como para descubrir Neptuno.

Los cálculos teóricos fueron publicados por U. J. Leverrier (1811-1877) en junio de 1846 y el nuevo planeta fue observado efectivamente el 23 de septiembre siguiente en el Observatorio de Berlín. El entusiasmo provocado por este descubrimiento motivó la búsqueda de un posible noveno planeta. Los datos sobre la órbita de Neptuno no eran todavía muy precisos, lo que demoró 25 años la primera observación de Plutón, desde que fuera predicho en 1905. Estos descubrimientos también muestran que la fuerza de la gravedad actúa a gran escala, al menos su influencia llega hasta los confines más exteriores del sistema solar.

El radio de la Tierra es tan enorme que a 8 Km. de altura e! peso de un objeto disminuye en sólo algo más de 2 gr. por kilogramo (puesto que la distancia aumentó en una milésima de radio, y debe elevarse al cuadrado, es decir multiplicarse por sí misma). A 15 Km. de altura un kilogramo pierde entre 4 y 5 gr. de peso. A 100 Km. la reducción es de unos 22 gr. por Kg.; a los 1.000 Km. pasa de los 200 gr. por kilo y a los 4.500 Km. el peso decrece a la mitad. Cuanto más nos alejamos tanto menor se vuelve fa atracción.

APLICACIONES Y CONSECUENCIAS
• La gravimetría es el método de elección, entre muchos, para revelar la existencia de petróleo: éste, tres o cuatro veces más liviano que las tierras que impregna, asciende hasta colocarse sobre las cúpulas de roca densa e impermeable. El gravímetro, que consiste en esencia en un peso que tira un resorte, es capaz de señalar esas diferencias locales de densidad de masa, es decir de atracción. Se lo usa en menor escala para descubrir yacimientos de hierro, sumamente densos.

• A la gravitación se deben las mareas, las órbitas de los planetas (la atracción del Sol equilibra su tendencia a escapar en línea recta), la presencia de atmósfera en la Tierra (la Luna, de atracción muy débil, perdió la suya), y la caída de la lluvia cuando las gotas alcanzan a 1/20 de mm. de diámetro (cuando son menores, las corrientes ascendentes equilibran su peso). 9 La dificultad de un vehículo espacial para escapar de la atracción terrestre se debe en primer lugar a la fricción de la atmósfera, que es ya casi nula a los 100 Km. de altura; y en segundo lugar a la gravedad terrestre, que disminuye muy lentamente.

• Se llama relación de masa en un cohete espacial a la proporción entre la masa del proyectil a la salida y el peso útil puesto en órbita. Si dicho cociente es mayor de 8, no queda margen práctico para colocar instrumentos. De allí que los cohetes tengan varias etapas.

• Se ignora por completo la naturaleza de la gravitación y se estima que se necesitarán unos 100 años para dilucidarla y «desviarla» de alguna manera.

• Los animales sometidos a una «gravedad» elevada (centrifugadora) crecen enanos; en los astronautas sin peso el calcio tiende a emigrar de los huesos a los riñones.

• Los viajeros de un avión pesan pues éste es como una plataforma sostenida por las alas.

• Para breves ensayos de falta de gravedad existe un avión especial, el C-131, que «cae» como un ascensor que bajara velozmente.

Fuente Consultada: Notas Celestes de Carmen Núñez

Ver: Conflicto Newton – Hooke Por Las Órbitas de los Planetas

Eclipses de Sol y de Luna Causas del Fenomeno

Eclipses de Sol y de Luna ¿Cual es causa?

Introducción: Los eclipses
Significan la ocultación de un astro por interposición de otro. Los movimientos de la Tierra y de la Luna en torno del Sol originan los eclipses de Sol o de Luna, según sea el astro obscurecido. Para que haya eclipse es menester que la Tierra, el Sol y la Luna estén en línea recta y casi en el mismo plano, y que la Tierra o la Luna penetre en el cono de sombra producido por el otro astro.

La naturaleza de los eclipses de Sol y de Luna difiere muchísimo. En un eclipse solar la Luna podrá ocultar todo o parte del astro para ciertos lugares de la Tierra, pero jamás para toda ella. Así habrá zonas en que el Sol quedará completamente obscurecido, o parcialmente, o no se observará fase alguna del eclipse. A pesar de que los tres astros se encuentran en línea recta suele ocurrir que, dada su distancia relativa, la Luna esté de tal manera que en el máximo del eclipse el disco solar no quede del todo oculto, sino que alrededor del disco lunar pueda verse una parte de aquél. Entonces se produce un eclipse anular.

La luna puede pasar dentro del cono de sombra que proyecta la Tierra en el espacio en el momento del plenilunio. Así queda interceptada para la Luna la luz del Sol y ocurre un eclipse total o parcial, según que se haya sumido tota! o parcialmente en la sombra.

Cuando la Luna pasa delante del Sol, la sombra que señala en la Tierra es circular y que, por causa del movimiento de rotación de nuestro planeta, va recorriendo diversos lugares. En todos ellos el Sol está completamente oculto y produce un eclipse total de Sol. Este fenómeno se inicia siempre en el lado O del disco del astro, y la sombra atraviesa la superficie terrestre de O a E. En los eclipses lunares, por el contrario, la sombra comienza en el lado E del disco y lo va barriendo hacia el O.

LOS ECLIPSES DE SOL Y DE LUNA: Cuando la Tierra, la Luna y el Sol están exactamente alineados en el espacio, el cielo se oscurece debido al eclipse. Los eclipses solares ocurren en luna nueva, cuando la Luna pasa entre los dos astros mayores, tapando el Sol y proyectando su sombra sobre la Tierra. (foto eclipse de Sol)

Hay tres tipos de eclipses solares. En el eclipse parcial, la Luna se come al Sol pero no acaba de devorarlo. El día se oscurece ligeramente y el Sol, visto con cualquier clase de protector de los ojos o por un agujero muy pequeño, parece una galleta a la que se le ha quitado un bocado.

En el eclipse total, la cara del Sol desaparece detrás de la Luna, florece la corona por lo general invisible y los afortunados espectadores situados dentro de la sombra lunar pueden conocer las tinieblas al  mediodía.* El tercer tipo de eclipse, el llamado anular, ocurre cuando la Luna se halla a la máxima distancia de la Tierra y en consecuencia se ve más pequeña que de ordinario. Incluso en el momento cumbre de tal eclipse, el reborde del Sol envuelve la Luna, así:

La luna llena es la época de los eclipses lunares, cuando la Tierra queda entre las luminarias y su sombra cae en la superficie de la Luna. Lo mismo que los eclipses solares, los eclipses lunares no ocurren todos los meses; sólo se producen cuando la alineación tripartita es exacta. Esto sólo sucede de vez en cuando, porque la órbita de la Luna, que es rotatoria, forma un ángulo de 50 con el plano de la órbita que traza la Tierra alrededor del Sol.

Los auténticos amantes de los eclipses no se detienen ante nada para verlos. Por ejemplo, el 3 de octubre de 1986 Glenn Schneider, de Baltimore, y otras ocho almas intrépidas contemplaron un eclipse de Sol desde un pequeño aeroplano a 12.200 metros por encima de Islandia.

Escribiendo en la revista Sky & Telescope, Schneider describe lo que vio cuando la Luna se fue colocando delante del Sol y la luz solar comenzó a filtrarse por los valles y las cimas montañosas situadas en el borde lunar, produciendo el fenómeno conocido como los granos de Baily. «Durante seis segundos enteros —recordaba Schneider—, la danza parpadeante de granos fue relampagueando por el limbo… Un minuto después de la “totalidad”, miramos por las ventanillas de la izquierda para valorar el aumento de la luminosidad del cielo. La sombra de la Luna se proyectaba sobre la cara superior de las nubes como un borrón de tinta (!). Durante todo un minuto contemplamos esta mancha oscura, que tenía la misma forma que un cigarrillo aplastado y se iba alejando de nosotros hacia el horizonte.»

Hay eclipses todos los años: siete como máximo, dos como mínimo. Entonces, ¿por qué no vemos más? Los eclipses lunares sólo son visibles por la noche. La mitad de las veces ocurren durante el día y sólo se ven desde la otra cara de la Tierra. Los eclipses solares son aún más elusivos, porque sólo se ven durante unos minutos y sólo dentro de la zona donde cae la sombra de la Luna. Esta zona es tan estrecha que en toda Inglaterra sólo han sido visibles cuatro eclipses solares totales durante los últimos mil años.

Por eso no son fáciles de ver los eclipses. Tomemos un año de cuatro eclipses, por ejemplo 1997. En marzo será visible un eclipse de Luna desde todo el territorio de Estados Unidos, pero únicamente se tratará de un eclipse parcial. Ese mismo mes se podrá ver un eclipse total de Sol; pero sólo desde una estrecha franja de terreno de China o bien yendo en barco por el océano Ártico. En septiembre, será visible un eclipse solar siempre que se contemple desde Australia o Nueva Zelanda, pero incluso allí abajo sólo será un eclipse parcial. Dos semanas después habrá ocaSión de ver un eclipse total de Luna, pero desde América del Norte. Tal es la persecución de los eclipses. La idea de alquilar un aeroplano para presenciarlos empieza a no resultar del todo irrazonable.

Eclipse de Luna

Seis Eclipses Notables o Históricos:

En la mitología de Dahomey la Luna, que se llama Mawu, y su hermano gemelo el Sol, llamado Lisa, hacen el amor durante los eclipses. Los sietes pares de gemelos así concebidos se convirtieron en las estrellas y los planetas.

Pero en la mayor parte de las mitologías los eclipses tienen asociaciones terroríficas. Los antiguos chinos y los bolivianos imaginaban que durante los eclipses unos perros furiosos desgarraban el Sol y la Luna con sus dientes. En Yugoslavia se decía que los vampiros destrozaban las luminarias. Los egipcios creían que de vez en cuando la serpiente Apep, que gobernaba el submundo y era señora de los muertos, se erguía y se tragaba el barco en que surcaba los cielos el dios solar Ra. En esos momentos el Sol desaparecía.

Las explicaciones históricas tienden a ser semi mitológicas. A menudo hablan de un ser superior —un conquistador o un científico— capaz de predecir los eclipses, con lo que advierte del desastre al tiempo que ilustra lo de saber es poder. Dos ejemplos:

* 28 de mayo de 585 a. C. A pesar de creer que la Tierra era plana, Tales de Mileto es considerado el primer científico griego. Puso en relación las matemáticas con la lógica y fue el primero en formular varias verdades matemáticas que la mayor parte de nosotros aprendemos en el bachillerato. Los antiguos lo reverenciaban por su capacidad para detener una batalla, hazaña que llevó a cabo con ayuda de unas tablas babilónicas. Según Herodoto, los medas y los

lidios estaban en medio de la batalla cuando «el día se convirtió en noche. Y este cambio había sido predicho a los jonios por Tales de Mileto, que les había dicho el año en que ocurriría». Aunque Tales no había especificado el día, su predicción inspiró el suficiente temor para dar lugar inmediatamente a la paz.

* 29 de febrero de 1504. Cristóbal Colón había estado aislado durante meses, con la tripulación descontenta, en la costa de Jamaica. La leyenda cuenta que organizó una reunión con los indígenas para una fecha en que sabía que iba a haber un eclipse total de Luna. Basaba sus predicciones en las tablas de navegación del astrónomo Johann Müller, más conocido por su nombre latino, Regiomontano. El eclipse se produjo según lo previsto, los indios quedaron impresionados y los descubridores recobraron algo de su decreciente influencia.

Hay unos cuantos eclipses memorables por razones científicas:

* 21 de junio de 1629. Los chinos sabían predecir los eclipses, pero no muy bien. Los astrónomos imperiales, que no habían acertado a pronosticar el eclipse de 1610, predijeron un eclipse solar para una fecha de 1629. Sin embargo, los misioneros jesuitas insistieron en que la predicción llevaba una hora de adelanto y en que el eclipse, en lugar de durar dos horas, sólo se vería dos minutos. Los jesuitas tenían razón. Como consecuencia, el emperador ordenó que se revisara el calendario chino y se instó a los jesuitas a que construyeran telescopios y empezaran a traducir al chino libros sobre óptica, música y matemáticas.

* 8 de julio de 1842. Durante este eclipse solar los científicos europeos dedujeron que las protuberancias de color rosa y los rayos opalescentes de luz que envolvían por completo la Luna no eran emisiones de la atmósfera lunar ni ilusión óptica, sino parte del Sol.

* 18 de agosto de 1868. Pierre Jules César Janssen, un banquero francés convertido en astrónomo, hizo una lectura espectroscópica de la corona solar durante este eclipse, lo cual permitió a los científicos analizar la composición de la atmósfera solar. La corona era tan espectacular que Janssen estaba convencido de que debía percibirse en condiciones normales. Al día siguiente localizó las protuberancias y registró un espectro. Otro científico, J. Norman Lockyer, había estado haciendo trabajos similares. Entre los dos demostraron que la corona estaba presente en todo momento, bien que sólo fuera visible durante los eclipses, y formaba parte del Sol, aunque con una composición ligeramente distinta de la de la masa solar. También identificaron, en la franja amarilla del espectro, un elemento que sería llamado por el nombre griego del Sol y que no se encontraría en la Tierra hasta un cuarto de siglo después: el helio.

Janssen estaba tan emocionado con estos resultados que en 1870, cuando iba a haber un eclipse visible en Argelia, no dejó que nada le impidiera ir. Salir de París constituyó un problema, no obstante, pues la ciudad estaba rodeada por tropas prusianas hostiles. Las muchedumbres pululaban por las calles, los ciudadanos hambrientos se comían los gatos y las ratas, los restaurantes exóticos hacían incursiones al zoológico y sirvieron platos hechos con los dos elefantes Cástor y Pólux, y la única manera de salir de la ciudad era hacerlo en globo de hidrógeno. Janssen partió de Paris en una balsa y llegó a Argelia a tiempo. Por desgracia, conforme se acercaba el eclipse total la temperatura disminuyó, las nubes taparon la Luna y Janssen no pudo ver nada.

* 29 de marzo de 1919. Albert Einstein había predicho que la luz, al pasar junto a un objeto pesado como el Sol, se curvaría en proporción al campo gravitatorio del objeto. Esto estaba aún por demostrar, pero el eclipse solar de marzo de 1919, cuando se vio la silueta del Sol contra las apretadas estrellas del cúmulo de las Híades, ofreció la perfecta oportunidad para comparar la posición habitual de estas bien conocidas estrellas con su posición durante el eclipse. Pensando en esto, sir Arthur Eddington se trasladó a una isla situada en la costa occidental africana y un grupo de científicos británicos fue a Brasil.

Durante el eclipse los observadores midieron las posiciones de varias estrellas de las Híades y descubrieron que la luz procedente de estas estrellas resultaba curvada por la gravedad del Sol, por lo que se trasladaban con respecto a su posición habitual exactamente tal como había predicho Einstein, lo cual confirmó la teoría… y cambió la vida de su autor.

En cuanto Einstein se enteró de la noticia, envió una postal a su madre, anunciándole: «Gozosas noticias hoy». Un titular del New York Times proclamaba: «Todas las luces bizquean en el cielo / Triunfa la teoría de Einstein». Y Einstein pasó a ser definitivamente una celebridad mundial.

PARA SABER MAS…
EL SAROS

Los eclipses son fenómenos tan particulares que ya las poblaciones antiguas investigaron sus eventuales ciclos.
Para los eclipses de Luna no es difícil hallar una ley que permita predecir cuándo van a producirse, al menos aproximadamente. Esta ley fue hallada después de atentas observaciones, y resultó que entre dos eclipses de Luna median cinco o seis meses.

Al período de 223 meses lunares (la duración del mes lunar equivale a 29 días y medio) se le dio el nombre de saros, uno de los períodos sobre los que puede calcularse con mayor precisión la repetición de los eclipses.

En cambio, para los eclipses de Sol, el cálculo es más complicado, ya que un eclipse solar es un fenómeno local, no visible desde toda la Tierra, y depende estrechamente de la posición exacta de la Luna en la bóveda celeste. Sin embargo, ya en la Antigüedad se previeron eclipses de Sol: un ejemplo lo dio Tales, que predijo el eclipse total que tuvo lugar el año 585 a.C.

OTROS ECLIPSES
El fenómeno de los eclipses, tal como se presenta, no es exclusivo del sistema formado por la Tierra, la Luna y el Sol, sino que se produce en una gran cantidad de cuerpos celestes. Un ejemplo conocido es el de los satélites galileanos, cuyo estudio permitió llegar a una primera estimación de la velocidad de la luz.

Naturalmente, lo mismo que sucede en la Tierra cuando la Luna se interpone entre ella y el Sol, también podrían observarse eclipses de Sol desde Júpiter cuando uno de los satélites pasa por delante del planeta gigante. Pero el fenómeno más singular ocurre cuando, en determinadas condiciones, son los satélites los que se eclipsan recíprocamente. Por ejemplo, hay eclipses de Io provocados por Ganímedes, mientras que en aquel mismo momento hay un eclipse de Sol en Io.

Otro caso interesante es el de dos estrellas que orbitan una alrededor de otra y el plano orbital está en la línea visual de la Tierra. En tal caso, las estrellas pasarán periódicamente una delante de otra, enmascarando la luz de la compañera que permanece detrás y provocando eclipses de estrellas.

Por consiguiente, los eclipses son una notable fuente de información sobre los sistemas en los que se producen. Esto es así incluso en nuestro medio: durante un eclipse solar es posible estudiar más cómodamente partes del Sol que de otro modo son de difícil observación. También se ha querido comprender el estado de la atmósfera terrestre por el color que adquiere la Luna durante algunos eclipses.

Un aspecto singular de este fenómeno, ligado a su predictibilidad relativamente sencilla, es la investigación histórica: si un hecho tiene una datación incierta y ocurrió en el momento exacto o aproximado de un eclipse, es posible deducir con más rigor su fecha precisa.

Primeros Cohetes Espaciales Historia de Primeros Satélites

Primeros Cohetes y Satélites Espaciales

UN POCO DE HISTORIA...Aunque fue durante la segunda guerra mundial cuando los cohetes adquirieron notoriedad pública, su historia tiene ya más de 700 años de antigüedad y es anterior al invento de las armas de fuego. El primer uso conocido de los cohetes, como arma, data de 1232, cuando los soldados chinos de la ciudad de Peiping repelieron a los invasores mongoles con una cortina de cohetes.

Claro está que eran muy distintos de los actuales cohetes dirigidos. Atados a largas varillas, parecían fuegos de artificio. No eran muy precisos, pero a pesar de ello fueron utilizados en la guerra durante siglos, siendo los más efectivos los inventados por Guillermo Congreve (1772-1828) en el Laboratorio Real de Greenwich.

Algunos de,sus cohetes poseían puntas afiladas que se clavaban en los navios de madera enemigos y luego despedían una mezcla incendiaria de combustión lenta, que quemaba el objetivo. Cuando la armada inglesa atacó Boulogne en 1806, utilizó 24 naves armadas con cohetes Congreve para incendiar y sembrar el pánico tanto en las instalaciones de la marina francesa como en la población.

Un año después se dispararon 25.000 cohetes contra Copenhague, y la letra del himno nacional de los Estados Unidos de Norteamérica que habla de «el rojo resplandor de los cohetes» se refiere al uso de los cohetes Congreve contra Baltimore en 1814.

Todas estas armas estaban provistas de largas varillas, como nuestras «cañitas voladoras», para mantenerlas en vuelo recto. Luego se pensó en utilizar aletas estabilizadoras en lugar de varillas. Posteriormente un americano advirtió que se podría obtener aún mayor seguridad en dirección imprimíendo un movimiento rotativo veloz al cohete, como se hace con los proyectiles de las armas de fuego.

Esto lo conseguía haciendo que parte de los gases de escape salieran por un anillo de toberas inclinadas a un cierto ángulo respecto del eje de vuelo del cohete. Alrededor de 1860 este tipo de cohetes estaba en servicio en gran escala, tanto en el ejército británico como en el norteamericano.

En general, sin embargo, los grandes avances hechos en la técnica de la artillería durante el siglo XIX hicieron que el cohete fuera desplazado y reemplazado por el cañón.

Es importante distinguir entre cohetes y turborreactores. Los primeros llevan consigo la provisión de oxígeno (o una sustancia que puede suministrarlo) mientras que los últimos dependen del oxígeno del aire para quemar su combustible.

Esto significa que mientras el cohete puede ser empleado en el espacio exterior (donde no hay oxígeno), el turborreactor funciona únicamente dentro de la atmósfera terrestre. Al margen de esta diferencia, ambos motores se basan en el principio enunciado por Newton: a toda acción corresponde una reacción igual y de sentido contrario. Esto puede ser mejor comprendido si nos referimos directamente al cohete.

Ya sea que se trate de un combustible sólido (un polvo comprimido) o líquido, como, por ejemplo, peróxido de hidrógeno, para suministrar el oxígeno necesario y queroseno como combustible, un cohete no es sino un cilindro con un extremo abierto y otro cerrado.(ver: propergoles)

Cuando el combustible se enciende produce gases que se expanden rápidamente y en todas direcciones. Al hacerlo presionan contra todas las paredes del cilindro —el extremo cerrado, los lados y el extremo abierto— pero como en el extremo cerrado hay presión y en el abierto no (porque allí no hay nada contra lo que presionar) las fuerzas están desequilibradas y el cohete se ve impulsado hacia adelante. Esta fuerza se denomina empuje. El empuje máximo depende del tipo y cantidad de combustible que se quema. Todo demuestra que el cohete no fue olvidado y nunca dejó el hombre de soñar con sus futuras posibilidades.

Siempre se los usó como señales y los cohetes con luces de color o bengalas se utilizaron comúnmente en la primera guerra mundial. En el año 1916, durante dicha guerra, los franceses equiparon sus aviones de caza con 8 cohetes en sus alas, que eran disparados por resorte eléctrico; su misión era la de destruir los globos de observación enemigos. En la década siguiente al fin de la guerra, los estudiosos de Alemania, Italia y los Estados Unidos luchaban por dar una utilidad práctica a todas sus investigaciones.

En 1926, el americano Goddard presenta un pequeño cohete de combustible líquido, mientras en Alemania se impulsan motocicletas y lanchas de carrera con baterías de cohetes sólidos.

En 1928 el alemán von Opel construye un automóvil impulsado por cohete sólido que alcanza 200 Km/h. También su compatriota Max Valíer construyó luego otro auto con cohete líquido. En 1929 von Opel vuela con todo éxito en un planeador cohete (sólido), que en realidad fue la primera máquina aérea de reacción del mundo.

Al mismo tiempo los profesores alemanes Oberth, Riedel y Nebel estudian y experimentan con toda seriedad y éxito cohetes de combustible líquido que, prácticamente, sentaron las bases de los actuales. En Italia emulan a Opel construyendo también un planeador cohete.

En 1931 se inicia en Alemania la etapa experimental del cohete postal, posiblemente la forma más pacífica de utilizar un proyectil. A la sazón también el ingeniero Espenlaub vuela satisfactoriamente en un ala volante impulsada a cohete líquido.

Ya hacia 1934 las investigaciones del americano Goddard crecen en importancia, pero no reciben mucho apoyo oficial. Los progresos de Oberth, Nebel y Riedel son notables. Por orden de Hitler, en 1934 se instala la gran planta experimental de Pee-nemunde. Todo el equipo de sabios y técnicos se dedica entonces al estudio de lo que después sería la V-2. (Fuente Consultada: Revista TECNIRAMA N°23)

Historia Evolución Tecnológica Post Guerra Mundial
Los cohetes, los satélites y los viajes espaciales

En 1942, cuando Alemania lanzó su primer cohete V-2 de largo alcance desde el centro de investigación de Peenemünde, a orillas del Báltico, Walter Durnberger, su director, señaló que el éxito del experimento demostraba que los cohetes se podían utilizar para realizar viajes espaciales.

cohete espacialSin embargo, durante los primeros años de la posguerra nadie investigó directamente esta posibilidad. La aparición de la bomba atómica había venido a alterar completamente la estrategia militar en lo referente al envío de misiles.

El bombardero tripulado se había vuelto demasiado vulnerable para el ataque, sobre todo teniendo en cuenta el desarrollo de los proyectiles de proximidad, y para basar la defensa en aviones interceptores era preciso mantener en vuelo en todo momento gran cantidad de aparatos, con el fin de evitar el riesgo de destrucción a gran escala en tierra.

La respuesta era el cohete de largo alcance, lanzado desde una base sólidamente fortificada y capaz de volar hasta su destino a gran altitud.

Tanto Estados Unidos como la Unión Soviética aplicaron vigorosamente esta nueva política: en el caso de los norteamericanos, con la ayuda de los expertos alemanes en cohetes, dirigidos por Wernher von Braun, y en el caso de los soviéticos, a partir de los cohetes y diseños capturados.

Estas actividades determinaron el desarrollo de cohetes de creciente potencia y alcance, cuya culminaciónfueron los misiles balísticos intercontinentales (MBI) construidos en los años 60. Los progresos logrados en este campo saltaron a un espectacular primer plano el 4 de octubre de 1957, cuando los soviéticos lanzaron el Sputnik I, el primer satélite artificial.

Se trataba de un aparato de reducidas dimensiones, de apenas 60 cm de diámetro y 84 Kg. de peso. Llevaba dos radiotransmisores que emitían una señal intermitente, mientras el satélite describía una órbita alrededor de la Tierra cada 90 minutos.

Su importancia inmediata no fue el hecho de ser el primer satélite sino el de constituir una clara señal de que la URSS había desarrollado un cohete lo suficientemente poderoso para sembrar Estados Unidos de bombas de hidrógeno. Los norteamericanos reaccionaron inmediatamente, pero les llevó más de un año alcanzar el nivel de los soviéticos. Su primer satélite, el Explorer I, fue lanzado el 31 de enero. Le siguió el Vanguard I dos meses más tarde.

También había comenzado la carrera por ser el primero en enviar un hombre al espacio. Una vez más, los soviéticos tomaron la delantera. En noviembre de 1957, lanzaron el Sputnik II, que llevaba a bordo a la perra Laika. El animal sobrevivió al lanzamiento y permaneció con vida durante siete días.

Luego, en agosto de 1960, el Sputnik V llevó al espacio a las perras Belka y Strelka, que regresaron sanas y salvas a la Tierra. Al año siguiente, el 12 de abril, el piloto de pruebas Yuri Gagarin hizo historia al ser el primer hombre en el espacio. Completó una órbita alrededor de la Tierra a bordo del Vostok I y regresó sin dificultades utilizando un paracaídas.

En 1958-1959, tras la creación de una agencia especializada, la NASA (National Aeronautics and Space Administration), Estados Unidos recuperó la superioridad técnica. Durante ese año, los norteamericanos lanzaron 19 satélites. Entre ellos figuraba el satélite militar Score, especialmente importante por ser el primero de una larga serie de satélites de telecomunicaciones. Estados Unidos envió a su primer hombre al espacio (Alan Shepard) el 5 de mayo de 1961. Shepard realizó un viaje suborbital de 15 minutos en la nave Freedom VII.

PRIMEROS SATÉLITES SOVIÉTICOS:
Uno de los grandes interrogantes del mundo se cifra en los combustibles que utilizan los soviéticos para propulsar los cohetes usados en el lanzamiento de satélites artificiales. Evidentemente, se trata de combustibles muy potentes, dado el considerable peso de dichas naves. El 4 de octubre de 1957, los hombres se asombraron de que un satélite de 90 kilogramos, el «Sputnik I», estuviese girando en órbita alrededor de la Tierra.

Pero, desde entonces, los adelantos en esta materia, por parte de los soviéticos, fueron importantes. Estados Unidos sigue muy de cerca esta carrera del peso, pero, por ahora, no parece aventajar a la U.R.S.S. Un satélite de grandes dimensiones significa un mayor perfeccionamiento y la seguridad de mejor información, por la enorme cantidad de aparatos científicos que puede trasportar; los estadounidenses han paliado este «handicap» lanzando al espacio mayor número de satélites pequeños.

El «Sputnik II», también lanzado en el año 1957 (3 de noviembre), pesó 500 kilogramos y, al año siguiente (en el mes de mayo), los 1.400′ kilogramos del «Sputnik III» empezaron a girar alrededor de nuestro planeta. Progresivamente, se ha ¡do superando el peso de los satélites soviéticos. El «Lunik», primer satélite que fotografió la cara oculta de la Luna, pesaba unos 400 kilogramos, pero la etapa final del cohete que lo trasportaba llegaba a los 1.600 Kg.

El «Vostok I» pesaba unos 5.200 Kg., y la cápsula espacial propiamente dicha, 1.600 Kg. La última nave espacial soviética de. que tenemos noticia es la «ICBM», que desfiló por la Plaza Roja de Moscú el 9 de mayo de 1965.

Se sospecha que existen construidas, o en proyecto, otras cápsulas mucho mayores, pero no hay datos muy concretos, debido a las restricciones informativas en la Unión Soviética. Así, se tienen referencias del «Protón I», satélite de radiación diseñado para un apogeo de 620 Km. y un perigeo de unos 190 Km.; según fuentes soviéticas, el peso de esta nave se acerca a las 13 toneladas y sólo será igualada por la MOL de los estadounidenses, que estará dispuesta para el año 1968.

¿Qué nos reservarán los soviéticos para dicho año? Los cohetes necesarios para impulsar tan grandes cápsulas espaciales tienen que ser poderosísimos. Parece que la Unión Soviética no tiene dificultades en este sentido; se sabe que los motores de sus cohetes de varias etapas poseen un empuje o potencia de 400.000 Kg., pero se. tiene la evidencia de que disponen de prototipos que alcanzan los dos millones y medio de kilogramos de empuje.

satelite ruso comparativos

Historia del Uso de Cohetes en la Guerra Primeros Cohetes

Historia del Uso de Cohetes en la Guerra

 INTRODUCCIÓN:
PRIMEROS CIENTÍFICOS Y PRIMERAS EXPERIENCIAS

Aunque fue durante la segunda guerra mundial cuando los cohetes adquirieron notoriedad pública, su historia tiene ya más de 700 años de antigüedad y es anterior al invento de las armas de fuego.

El primer uso conocido de los cohetes, como arma, data de 1232, cuando los soldados chinos de la ciudad de Peiping repelieron a los invasores mongoles con una cortina de cohetes. Claro está que eran muy distintos de los actuales cohetes dirigidos.

Atados a largas varillas, parecían fuegos de artificio. No eran muy precisos, pero a pesar de ello fueron utilizados en la guerra durante siglos, siendo los más efectivos los inventados por Guillermo Congreve (1772-1828) en el Laboratorio Real de Greenwich.

Algunos de sus cohetes poseían puntas afiladas que se clavaban en los navíos de madera enemigos y luego despedían una mezcla incendiaria de combustión lenta, que quemaba el objetivo.

Cuando la armada inglesa atacó Boulogne en 1806, utilizó 24 naves armadas con cohetes Congreve para incendiar y sembrar el pánico tanto en las instalaciones de la marina francesa como en la población. Un año después se dispararon 25.000 cohetes contra Copenhague, y la letra del himno nacional de los Estados Unidos de Norteamérica que habla de «el rojo resplandor de los cohetes» se refiere al uso de los cohetes Congreve contra Baltimore en 1814.

Todas estas armas estaban provistas de largas varillas, como nuestras «cañitas voladoras», para mantenerlas en vuelo recto. Luego se pensó en utilizar aletas estabilizadoras en lugar de varillas. Posteriormente un norteamericano advirtió que se podría obtener aún mayor seguridad en la dirección imprimiendo un movimiento rotativo veloz al cohete, como se hace con los proyectiles de las armas de fuego.

Esto lo conseguía haciendo que parte de los gases de escape salieran por un anillo de toberas inclinadas a un cierto ángulo respecto del eje de vuelo del cohete. Alrededor de 1860 este tipo de cohetes estaba en servicio en gran escala, tanto en el ejército británico como en el norteamericano. En general, sin embargo, los grandes avances hechos en la técnica de la artillería durante el siglo XIX hicieron que el cohete fuera desplazado y reemplazado por el cañón.

Es importante distinguir entre cohetes y turborreactores. Los primeros llevan consigo la provisión de oxígeno (o una sustancia que puede suministrarlo) mientras que los últimos dependen del oxígeno del aire para quemar su combustible. Esto significa que mientras el cohete puede ser empleado en el espacio exterior (donde no hay oxígeno), el turborreactor funciona únicamente dentro de la atmósfera terrestre. AL margen de esta diferencia, ambos motores se basan en el principio enunciado por Newton: a toda acción corresponde una reacción igual y de sentido contrario. Esto puede ser mejor comprendido si nos referimos directamente al cohete.

Historia del Uso de Cohetes, sus partes

 Comparación de cohetes con distintos combustibles: sólido y líquido

Ya sea que se trate de un combustible sólido (un polvo comprimido) o líquido, como, por ejemplo, peróxido de hidrógeno, para suministrar el oxígeno necesario y queroseno como combustible, un cohete no es sino un cilindro con un extremo abierto y otro cerrado. Cuando el combustible se enciende produce gases que se expanden rápidamente y en todas direcciones.

Primer cohete ruso principios de siglo xxEl Dr. Roberto Goddard con su primer cohete de combustible líquido, en 1926. El científico americano predijo que los cohetes podrían llegar a ser lo bastante poderosos como para alcanzar la Luna.

Al hacerlo presionan contra todas las paredes del cilindro —el extremo cerrado, los lados y el extremo abierto— pero como en el extremo cerrado hay presión y en el abierto no (porque allí no hay nada contra lo que presionar) las fuerzas están desequilibradas y el cohete se ve impulsado hacia adelante. Esta fuerza se denomina empuje.

El empuje máximo depende del tipo y cantidad de combustible que se quema. Todo demuestra que el cohete no fue olvidado y nunca dejó el hombre de soñar con sus futuras posibilidades.

Siempre se los usó como señales y los cohetes con luces de color o bengalas se utilizaron comúnmente en la primera guerra mundial. En el año 1916, durante dicha guerra, los franceses equiparon sus aviones de caza con 8 cohetes en sus alas, que eran disparados por resorte eléctrico; su misión era la de destruir los globos de observación enemigos. En la década siguiente al fin de la guerra, los estudiosos de Alemania, Italia y los Estados Unidos luchaban por dar una utilidad práctica a todas sus investigaciones.

En 1926, el americano Goddard presenta un pequeño cohete de combustible líquido, mientras en Alemania se impulsan motocicletas y lanchas de carrera con baterías de cohetes sólidos. El compatriota Max Valier construyó luego otro auto con cohete líquido. En 1929 von Opel vuela con todo éxito en un planeador cohete (sólido), que en realidad fue la primera máquina aérea de reacción del mundo.

Al mismo tiempo los profesores alemanes Oberth, Riedel y Nebel estudian y experimentan con toda seriedad y éxito cohetes de combustible líquido que, prácticamente, sentaron las bases de los actuales. En Italia emulan a Opel construyendo también un planeador cohete.

En 1931 se inicia en Alemania la etapa experimental del cohete postal, posiblemente la forma más pacífica de utilizar un proyectil. A la sazón también el ingeniero Espenlaub vuela satisfactoriamente en un ala volante impulsada a cohete líquido. Ya hacia 1934 las investigaciones del americano Goddard crecen en importancia, pero no reciben mucho apoyo oficial. Los progresos de Oberth, Nebel y Riedel son notables.

Por orden de Hitler, en 1934 se instala la gran planta experimental de Peenemunde. Todo el equipo de sabios y técnicos se dedica entonces alHitler estudio de lo que después sería la V-2. Casi diez años después, el 7 de setiembre de 1944, la primera V-2 caía en Londres.

Este proyectil fue el primer cohete de importancia y base de todos los que de origen ruso o americano iniciaron luego la conquista espacial. Medía 14 metros de longitud y 1,70 metros de diámetro máximo; su peso era 12.600 kilos y podía llevar una carga explosiva de 1.000 kilos. Su propulsión duraba 70 segundos.

Consumía en ese tiempo 3.500 litros de alcohol y 5.000 litros de oxígeno líquido. Su radio de acción variaba entre los 400 a 700 kilómetros. La velocidad inicial es de 2.000 Km./h.,- su velocidad de crucero 5.000 Km./h., en la ionosfera de 16.000 Km./h. y la de caída es de 4.500 Km./h. Su autonomía era de 6 a 8 minutos y la fuerza de empuje de 26.000 kilos. El lanzamiento era sencillo y requería muy pocas instalaciones.

Desgraciadamente la V-2 tuvo por imperio de las circunstancias un empleo bélico, pero estaba escrito que ese no sería su fin. Von Braun, uno de sus creadores, desarrolló de la V-2 el cohete americano Redstone.

Con éste fue puesto en órbita el primer satélite americano y luego elevó la cápsula Mercury en la experiencia espacial del cosmonauta americano Alan B. Sheppard.

Además, los alemacohetes de von braunnes desarrollaron durante la guerra el fantástico Messerschmidt Me 163 Komet, avión de cada a cohete líquido y de extraordinaria efectividad.

También produjeron cohetes auxiliares para ayudar a los aviones en el despegue. Después de la guerra el desarrollo de los turborreactores y turbohélices recibió la mayor atención de los investigadores para su aplicación a las aeronaves.

Sólo el X-15 constituye un experimento en cuanto a los esfuerzos realizados en ese aspecto. Sin embargo, actualmente todas las miradas están fijas en el excitante campo de la exploración del espacio, para el cual se requieren enormes cohetes.

Para poner una cápsula en órbita alrededor de la Tierra es necesaria una velocidad superior a los 27.000 Km./h. Para salir al espacio interplanetario, la velocidad de escape —es decir, la velocidad necesaria para colocar la cápsula fuera de la atracción terrestre— es de más de 39.000 Km./h. El empuje suministrado por el cohete debe ser superior al peso total del cohete y la cápsula combinados.

El más reciente y poderoso cohete americano, hasta el momento en que escribimos estas líneas, es el denominado Saturno. Fabricado por la Douglas, este gigante constituyó la más firme esperanza de los científicos americanos.

Es el más grande construido hasta hoy, pues mide 55,50 metros de longitud y 6,30 metros de diámetro máximo. La fuerza impulsora está compuesta por 14 motores cohetes. Puede colocar en órbita una cápsula o estación de 10.000 kilogramos y transportar a la Luna 3.000 kilogramos.

Fuente Consultada:
Revista TECNIRAMA N°33
Encarta – Grandes Inventores del Siglo XIX

Fábrica Subterranea de Armas Secretas NAZI Bombas del Tercer Reich

Fábrica Subterranea de Armas Secretas

En la segunda guerra mundial la Luftwaffe había desarrollado otra arma no tripulada. Cerca de Peenemünde estaba preparando una prueba de su bomba volante FZG-76, la V-1. La V-1 tenía una serie de ventajas significativas frente al cohete rival. Se podía producir de forma barata y sencilla, y quemaba petróleo de bajo octanaje en lugar del escaso oxígeno líquido y el alcohol de alta graduación que se necesitaba para impulsar la V-2.

Sin que lo supieran los alemanes, los británicos tenían noticias del programa de armas V y en la noche del 17/18 de agosto de 1943 cerca de 600 bombarderos pesados atacaron la planta en Peenemünde, retrasando al menos dos meses el programa de la V-2.

La Luftwaffe tenía planeado lanzar su campaña con armas V atacando Londres con 500 V-1 al día, haciendo que la ciudad fuera inhabitable, algo que no había conseguido con el Blitz de 1940-1941. Una vez más intervinieron los bombarderos aliados. Desde diciembre de 1943 lanzaron miles de toneladas de bombas sobre las llamativas rampas de hormigón y acero que se habían construido para lanzar las V-1 desde el norte de Francia. La ofensiva de las V-1 no se inició hasta una semana después de la invasión aliada del noroeste de Europa durante el Día D, el 6 de junio de 1944.

Las «doodlebugs», como fueron llamadas las V-1, devolvieron a los londinenses a la primera línea del frente por primera vez desde el Blitz. No eran muy precisas, pero Londres era un blanco muy grande y los alemanes pretendían que los efectos de las V-1 fueran indiscriminados. A finales de agosto de 1944, habían matado o herido de gravedad a unas 24.000 personas en la región de Londres.

Un cuarto de millón de madres jóvenes y niños fueron evacuados y otro millón abandonó la ciudad por iniciativa propia. Durante las noches miles se refugiaban en las estaciones del Metro de Londres El efecto psicológico de las V-1 era desconcertante.

En tierra, los londinenses oían como se acercaban. No tenían control por radio —para que no se pudiera interceptar—, sino que iban guiadas por un piloto automático giroscópico monitorizado por un compás magnético, y su caída sobre el blanco a una distancia determinada venía determinada por las revoluciones de una hélice pequeña. Cuando le decía al motor de la V-1 que se parase, se producía un silencio terrible de 15 segundos, antes de caer a tierra para explotar con una fuerza que podía destruir un edificio entero.

EJECUCIÓN DEL PLAN ALEMÁN: Para  desarrollar el plan se comenzó a construir un centro secreto de investigación en la isla de Peenemünde, en la costa del mar Báltico cercana a la desembocadura del Oder. Eran necesarias unas instalaciones adecuadas, con espacio suficiente y situadas en un lugar discreto. La isla era ideal para ello y se habilitó espacio para más de 2.000 científicos.

En 1937 comenzaron las pruebas del A-3, el predecesor directo de la V-2. Dornberger quería un misil capaz de transportar una cabeza de guerra de 100 Kg. hasta una distancia de más de 260 Km. El A-3, de unos 750 kg de peso, desarrollaba un empuje de 1.500 Kg. en el lanzamiento, utilizando oxigeno líquido y alcohol; pero el A-4 dispondría de un motor con un empuje de 25.000 kg. Ello suponía todo un reto científico.

Por eso se recurrió a la utilización de turbo-bombas de alta velocidad, impulsadas por peróxido de hidrógeno. Se perfeccionaron los giróscopos y continuó mejorándose el misil. En 1938 se lanzó un prototipo hasta una altura de más de 10 Km.

Con el comienzo de la guerra, Hitler, urgió a Dornberger porque quería obtener un arma definitiva, de más de 250 Km. de alcance, que pudiese poner una tonelada de explosivo en París o Londres. Tal misil tenía que ser fácil y relativamente barato de producir, debía poder ser lanzado desde rampas móviles y ocultarse en los túneles ferroviarios.

El 3 de octubre de 1942 se lanzó con éxito el primer A-4, tras dos lanzamientos fallidos. El misil alcanzó la velocidad del sonido (el segundo ya lo había hecho), subió hasta los 80 Km. y cayó a una distancia de 191 Km. De inmediato se dotó a Peenemünde de más personal y recursos para continuar el desarrollo de la futura V-2.

El nombre de V-2 se adoptó al utilizarse el de V-1 para el arma diseñada por la Luftwaffe. Pronto el alcance de la V-2 superó los 400 Km. a una velocidad de más 5.300 Km./h (mach 4, es decir, cuatro veces la velocidad del sonido).

bomba volante v2

Los aliados cuando identificaron el tipo de actividad que se llevada a cabo en la isla, en la noche del 18 de agosto de 1943,  lanzaron una incursión de bombardeos contra las instalaciones. Los daños fueron importantes , pero el edificio principal de las investigaciones resultó ileso. A pesar de todo, perecieron más de 800 personas y se hizo patente la necesidad de dispersar las instalaciones por toda Alemania.

LA NUEVA FÁBRICA SUBTERRÁNEA: Tras los ataques aliados contra Hamburgo, las fábricas de cojinetes de Schweinfurt y el centro de investigaciones de Peenemünde, donde se inventó el V-2, se necesitaba una fábrica a prueba de bombas, y Nordhausen era el candidato perfecto.

La mitad norte del complejo quedó bajo el control de Mittelwerk GmbH, para fabricar y montar las bombas voladoras V-1 (menos las alas) y los cohetes V-2 (menos las cabezas); la parte norte se asignó a la empresa Junkers, para el montaje de los motores de propulsión Jumo 004 para los aviones Messerschmitt 262, y motores de pistón Jumo 213 para los modelos más antiguos, Focke Wulf 190.

Hubo que realizar muy pocas reformas. Se instaló un suministro eléctrico desde una central cercana y se excavó una caverna de 23 metros de altura, donde pudieran ponerse verticales los V-2 ya montados, para probar sus componentes eléctricos. Entre agosto y septiembre de 1943 se trasladaron a Nordhausen numerosos prisioneros de los campos de concentración, para utilizarlos como mano de obra.

Hacia finales de octubre, se trasladó todo el campamento al interior de la montaña, y los prisioneros —en su mayoría franceses, rusos y polacos, aunque también había entre ellos algunos presos políticos alemanes— fueron encerrados en tres cámaras oscuras, húmedas y llenas de polvo.

Dormían en bancos apilados de cuatro en cuatro, y trabajaban en turnos de 12 horas. Cuando un turno iniciaba el trabajo, el otro intentaba dormir en los mismos bancos sucios, cubriéndose con las mismas mantas. No existían letrinas —había que apañarse con barriles de carburo vacíos y cortados por la mitad— y había que caminar más de 800 metros para llegar a un grifo de agua.

Speer Militar AlemanAlbert Speer, ministro alemán de armamentos, visitó la fábrica en diciembre y dejó constancia de sus impresiones en su autobiografía, publicada después de la guerra: «Las condiciones en que vivían estos prisioneros eran verdaderamente bárbaras, y cuando pienso en ellos me invade una profunda sensación de responsabilidad y culpa personal.

Después de la inspección, los supervisores me informaron de que las instalaciones sanitarias eran inadecuadas y las enfermedades hacían estragos; los prisioneros estaban recluidos en cavernas húmedas y, como consecuencia, la mortalidad… era extraordinariamente elevada.»

Por órdenes de Speer, se construyó un campo de concentración fuera de la montaña para alojar a los prisioneros, y las condiciones mejoraron. Cada vez se enviaban a la fábrica más prisioneros, hasta que el número de trabajadores esclavos ascendió a unos 20.000.

La SS dictó órdenes estrictas. prohibiendo todo contacto privado entre los prisioneros y el personal alemán. Bajo ningún concepto debían filtrarse al mundo exterior noticias de lo que estaba sucediendo en Nordhausen.

Los tres primeros misiles V-2 salieron de Nordhausen el día de Año Nuevo de 1944; a finales de enero, se habían terminado otros 17. A partir de entonces, la producción progresó con rapidez, y en junio se entregaron 250 misiles. La producción de V-1 comenzó más tarde, en julio de 1944, pero aquel mismo mes se entregaron 300.

El V-2 era un arma muy compleja y sofisticada, mientras que el V-l era simple y barato, pero los dos resultaron muy eficaces, y en Londres se hicieron muchos chistes macabros acerca de cuál de los dos era más terrorífico: el V-l, que podía oírse venir hasta que el motor se paraba, iniciándose entonces una angustiosa espera hasta que se producía la explosión, o el V-2, que caía sin avisar.

fábrica de bombas volantes

La impresionante instalación de Nordhausen donde se fabricaron mas de 30.000 proyectiles V1, de las
cuales una quinta parte cayó sobre Londres

Todas las entradas y los conductos de ventilación de la fábrica estaban perfectamente camuflados. Los misiles se cargaban en vagones de tren o en camiones dentro de los túneles, y se cubrían bien con lonas. Los trenes salían de los túneles y seguían la red ferroviaria alemana hasta llegar a las bases de lanzamiento, cerca del canal de la Mancha.

Gracias a estas precauciones, la fábrica consiguió permanecer oculta a los reconocimientos aéreos, y los aliados no tuvieron idea de su importancia hasta finales del verano de 1944, cuando el interrogatorio de un prisionero alemán reveló su existencia. Por suerte para los esclavos de Nordhausen, el mando aliado rechazó un plan de von braumataque norteamericano, consistente en arrojar enormes cantidades de napalm sobre los túneles y los conductos de ventilación, para provocar un incendio que acabase con todos los ocupantes del interior.

Durante el mes de diciembre de 1944, la fábrica subterránea produjo un total de 1.500 V-1 y 850 V-2, y el éxito obtenido hizo que se pensara en ampliarla, multiplicando por seis su superficie.

Se empezaron a excavar nuevos túneles, para instalar en ellos una fábrica de oxígeno líquido (uno de los combustibles empleados por el V-2), una segunda fábrica de motores de avión, y una refinería para producir petróleo sintético. Pero todo terminó el 11 de abril de 1945 cuando las tropas norteamericanas llegaron a la zona. Permanecieron en ella seis semanas, llevando a cabo una minuciosa inspección de la fábrica y sus productos, antes de dejarla en manos del Ejército Rojo.

De haberse inventado antes, el V-2 habría influido de manera decisiva en el desenlace de la guerra. En total, se lanzaron sobre Londres unos 1.403 misiles, que mataron a 2.754 personas e hirieron a otras 6.532.

Durante los últimos meses de la guerra, se lanzaron otros muchos contra objetivos belgas: sólo en Amberes cayeron 1.214. Después de la guerra, sus inventores —entre ellos, Werner von Braun— se trasladaron a Estados Unidos para diseñar nuevos cohetes. El misil balístico, dotado posteriormente de una cabeza nuclear, se convirtió en el arma definitiva del precario equilibrio de terror en el que el mundo ha vivido desde entonces.

Fuente Consultada:
50 Cosas que Hay Que Saber Sobre la Guerra Robin Cross
Segunda Guerra Mundial Tomo 19 La Caída de Berlín
Construcciones Fabulosas Volumen II Atlas de lo Extraordinario Ediciones Prado

Las armas alemanas Bombas V1 V2 Segunda Guerra Mundial Secretas Armas

Las Armas Alemanas: Bombas V1 y V2 

Las armas secretas alemanas

Bomba alemana V2Alemania, tras la derrota sufrida en la Primera Guerra Mundial, se vio sometida a las férreas condiciones del Tratado de Versalles, en el que, entre otras cosas, se le limitaban las fuerzas armadas a un ejército de 100.000 hombres y se le prohibía la fabricación de todo tipo de armamento pesado.

Es lógico que, como consecuencia de estas condiciones, el Alto Estado Mayor germano pensara en la posibilidad de desarrollar los cohetes, que no entraban en el capítulo de prohibiciones impuestas, y convertirlos en un arma bélica que podría inclinar a su favor el peso del potencial militar frente al resto de las demás naciones de Europa.

Para ello no vacilará en servirse de los recursos humanos y técnicos que se han ido forjando, a través de las experiencias de la Verein fur Raumschiffahrt (Asociación para el desarrollo de la Astronáutica), en el terreno de pruebas para cohetes que ha estado utilizando en las afueras de Berlín desde 1927.

Al disolverse la sociedad, el gobierno alemán conseguirá atraerse a algunos de los miembros más destacados de la misma, poniendo a su disposición el centro de Kummersdorf, dirigido por el general Walter Dornberger. El colaborador más eficiente del general es el joven Wernher Von Braun, antiguo miembro de la asociación astronáutica, que ha optado por la única forma de poder realizar el sueño de su vida, trabajar en los cohetes, aunque tenga que relegar a un futuro incierto sus sueños de utilizarlos como vehículos para viajar por los espacios interplanetarios y deba limitarse, por el momento, a ponerlos a punto para las aplicaciones bélicas que interesan al país.

Las órdenes del general Dornberger eran tajantes. Se trataba de inventar, diseñar y construir nuevos tipos de armas, cuya existencia debería mantenerse secreta, capaces de dotar a las fuerzas armadas alemanas de una neta superioridad sobre los ejércitos enemigos cuando se iniciase la guerra. Y para ello deberían potenciarse al máximo todas las posibilidades que ofrecían los últimos descubrimientos en el campo de los cohetes propulsados por combustibles líquidos.

Pronto se preparan los planos para la construcción de un cohete de largo alcance, que puede llevar su carga explosiva a más de 200 Kms. de distancia, volando a velocidades superiores a la del sonido. En 1935, Hitler aprueba el proyecto y decide facilitarles todos los medios para poder llevar a cabo su realización en un lugar secreto que será escogido por el propio Von Braun, convertido en el director técnico del proyecto.

El lugar elegido estará situado en una isla del Báltico, Usedom, en la desembocadura del río Oder, lo suficientemente apartada para poder realizar las pruebas a salvo de miradas curiosas y donde se levantarán las instalaciones de la HA? (Heeres Anstalt Peenemünde o Instalaciones del Ejército de Peenemünde), de donde saldrían las principales armas secretas empleadas por las fuerzas alemanas.

La V-1 El Centro de Peenemünde, por su organización interna se encontraba sometido a la jurisdicción del Ministerio del Ejército, principal interesado en el desarrollo de las nuevas armas-cohetes y cuyos jerarcas habían gestionado ante el Führer los presupuestos necesarios para su construcción. Sin embargo, los jefes de la Luftwaffe pensaban que este tipo de armas, al ser utilizadas como elemento de combate aéreo, debían ser adjudicadas a sus centros de investigación y exigían una participación en los procesos de fabricación y puesta a punto de las mismas.

Para satisfacer sus demandas, el Alto Estado Mayor no dudó en concederles una parte de las instalaciones del HAP, donde se desarrollarían las diversas armas secretas alemanas, y que así quedaría dividido en dos zonas: Peenemunde Este, donde Wernher Von Braun se ocuparía de la dirección de todos los proyectos sobre cohetes para el Ejército, y Peenemunde Oeste, bajo las órdenes directas de Goering, donde se desarrollaría un prototipo de bomba volante, impulsada por un pequeño pulsoreactor que constituiría la primera novedad en el campo de las armas secretas alemanas.

Este aparato, ideado por el técnico aeronáutico Gerhard Fieseler, recibiría primeramente esta denominación de Fi-103, para pasar más adelante a hacerse famoso bajo las siglas V-1, correspondientes a Vergeltungswaffe-1, o «arma de represalia».

Este artefacto puede considerarse en esencia, como un avión a reacción no tripulado, cuyo combustible estaba constituido por gasolina mezclada con aire que se hacía detonar en una cámara de combustión a intervalos regulares, mientras los gases al escapar por la parte trasera del reactor le proporcionaban el impulso necesario para el vuelo.

El motor estaba situado encima del proyectil y comprendía una boca para la admisión del aire en una rejilla del tipo persiana para regular la entrada de éste, el sistema de inyección del combustible, la cámara de combustión y la tobera para la reacción de los gases. El conjunto tenía una longitud de 8,22 metros de largo y 1,50 m. de diámetro en su parte más ancha, con un peso total de 2.170 kg.. de los que 900 eran de explosivos, a base de nitrotolueno y nitrato amónico, que se alojaban la parte delantera del proyectil. A continuación la carga explosiva venían los depósitos de combustible, 700 litros de carburante, y un sistema de reacción por piloto automático en el que intervean tres giróscopos y un altímetro. También tenía las pequeñas alas con una envergadura de 5 metros.

Para su lanzamiento se utilizaban rampas de lanzamiento de 45 m. de largo, desde las que se catapultaban mediante una carga de pólvora dirigiéndose hacia sus objetivos a una velocidad media de 650 Kms por hora y a una altura de 2.000 metros.

Disponía de una autonomía de 250 kms. por lo que era un arma eficaz para bombardear las unidades inglesas más próximas a la costa. Sin embargo como eran fácilmente detectables por el radar, de reciente aparición por esos años, y teniendo en cuenta que su velocidad era similar a la de los últimos modelos de aparatos de caza de su tiempo, estos proyectiles eran presa fácil para los pilotos de la R.A.F., quienes, aparte del fuego directo, para derribar el artefacto utilizaban también una arriesgada pero eficiente maniobra a fin de alterar el rumbo del mismo.

Se situaban a si mismo nivel y rozaban con la punta del ala el extremo correspondiente en la de la bomba volante, con lo cual el artefacto venía a caer sobre las aguas del Canal de la Mancha, sin causar mayores daños.

El primer proyectil de este tipo cayó el 14 de junio de 1944 en Swanscombe, cerca de Gravesend, causando más pánico entre la población civil que daños materiales reales, y desde entonces hasta el final de la guerra no dejarían de caer sobre Londres. De las 8.000 bombas volantes aproximadamente que lanzaron los alemanes en este intervalo solamente 2.419 alcanzaron su objetivo causando la muerte de 6184 personas y heridas a 17.981. Otras 2.448 se lanzaron sobre Antwerp.

La bomba volante V-1 fue el primer proyectil operativo lanzado desde la base de Peenemunde, el centro de experiencias secretas alemán. Durante las pruebas el prototipo se adaptó para ser pilotado por la famosa aviadora germana Hanna Reichst, que realizó el vuelo en abril de 1944, antes de que las V- 1 fueran construidas en serie para la Luftwaffe.

La serie de bombardeos sobre las ciudades inglesas mediante las V- 1 fueron más espectaculares que efectivos en daños materiales y si bien al principio levantaron grandes esperanzas entre los dirigentes nazis convencidos de que tenían en sus manos el arma que les daría la victoria, pronto vieron que se necesitaba algo más demoledor y eficaz para conseguir aplastar el poderío militar de los aliados.

Entonces se volvieron de nuevo a Peenemunde, pidiendo a los técnicos que allí trabajaban la que debía ser el «arma definitiva»: un cohete capaz de transportar una tonelada de explosivos sobre Londres y que pudiera escapar a los sistemas de detección y a los ataques de los cazas enemigos.

Para lograrlo a tiempo, había que acelerar al máximo los proyectos de Wernher Von Braun y su equipo de científicos, quienes ya en sus experiencias del centro de pruebas de Kummersdorf, los años inmediatamente anteriores a la guerra, habían trabajado con los que serían los predecesores del futuro V-2, cohetes de la serie Aggregate-1 (A-1), propulsados por alcohol y oxígeno líquidos.

Las primeras experiencias realizadas en Peenemunde, en otoño de 1937, consistirían en el lanzamiento de varias versiones mejoradas de este prototipo. El A-3, ya era un artefacto de 6 metros de alto y 745 kgs. de peso cuyo motor a base de combustibles líquidos, le proporcionaba un empuje de 1.360 kgs. Sin embargo, los resultados no serían satisfactorios hasta que nuevos mejoramientos, principalmente en los sistemas de dirección, condujeron al A-4, que a finales de 1938 alcanzó una altura de más de 10 kilómetros, convirtiéndose en el prototipo sobre el que se realizarían todas las investigaciones posteriores, hasta llegar a la definitiva V-2.

Los lanzamientos de prueba del nuevo modelo tuvieron lugar entre junio y octubre de 1942 y finalmente se consiguió que un cohete de 14,5 metros y 12 toneladas de peso, lanzado desde la costa de Pomerania, alcanzase una altitud de 80 kilómetros y cayera a 191 Kms. de distancia. El proyectil-cohete era una realidad y el gobierno alemán, que hasta entonces había estado de espaldas a tan excitantes experiencias, mostró súbitamente un enorme interés por las mismas, apremiado por los avatares de la guerra que habían cambiado mucho desde los meteóricos éxitos iniciales.

Las demostraciones de la nueva arma convencieron plenamente al Alto Mando que no vaciló en poner a disposición del equipo técnico responsable de su realización todos los medios necesarios para lograr su desarrollo definitivo hasta pasar al proceso de fabricación en serie y su puesta en servicio final.

El resultado de estos esfuerzos sería el artefacto conocido como V-2 (también de Vergeltungswaffe o «arma de represalia»), que presentaría un aspecto verdaderamente impresionante. El proyectil tenía unas proporciones completamente inusitadas: 14,5 metros de longitud por 1,65 de diámetro máximo. Pesaba 12 toneladas y media en el momento del despegue, de las que un 70 % lo constituía el combustible compuesto por 3.750 kgs. de alcohol etílico y 4.970 de oxígeno en estado líquido. Estos gases se consumían a razón de 125 Kgs. por segundo en la cámara de combustión, proporcionándole un empuje de 25.000 kgs. y una velocidad de eyección de los propergoles de 2.000 m. por segundo.

La estructura del artefacto es la siguiente:

En la cabeza iban los 910 kgs, de amatol que constituían su carga explosiva; a continuación, entre la carga y los depósitos de combustible, venía un pequeño compartimiento en el que se situaban los mecanismos de control automático y de radio-dirección; seguían después los depósitos cilíndricos de combustible, las bombas que asPi/an los líquidos en la cámara de combustión finalmente ésta con su tobera del tipo «Laval» a la salida de la cual se encontraban, en medio del paso de los gases eyectados, unas pequeñas aletas de dirección construidas en grafito, que actuaban como estabilizadores del cohete.

Al contrario de lo que sucedía con las V-1, las V-2 eran prácticamente invulnerables, pues alcanzaban velocidades supersónicas y era imposible interceptarlas con los cazas de motor de émbolo o derribarlas con la artillería antiaérea. Además podían ser disparadas desde rampas móviles, por lo que la localización de sus bases de lanzamiento resultaba bastante problemática. Su lanzamiento se efectuaba en sentido vertical, para irse inclinando hasta alcanzar un ángulo de unos 45 grados y una vez agotado el combustible seguía una trayectoria parabólica hasta alcanzar los 100 Kms. de altitud y dirigiéndose a su blanco, situado a más de 300 Kms. de distancia a una velocidad de 5.600 Kms. por hora. Resulta evidente la nula capacidad defensiva ante semejante ingenio ya que por la altura y velocidad a que se desplazaba era prácticamente imposible de localizar por el radar de la época.

La primera V-2 cayó sobre Chiswick, cerca de Londres, el 8 de septiembre de 1944, sin que sus habitantes se pudieran apercibir de lo que se les venía encima hasta sentir el estruendo de la explosión, que sería seguida del terrible estrépito producido al atravesar el artefacto la barrera del sonido y que sería escuchado en la ciudad unos segundos después del impacto. De estas armas cayeron más de 2.000 sobre Inglaterra, entre la fecha citada anteriormente y el 27 de marzo de 1945 en que cayó

la última sobre Orpington, en Kent. El total de victimas producidas fue de 2.754 muertos y 6.523 heridos. También se emplearon las’ V-2 contra la ciudad de Amberes y contra las fuerzas aliadas de la región de Aquísgran. Se supone que un gran número de artefactos explotaron en sus bases de lanzamiento o nunca alcanzaron sus blancos y se calcula que el número de aparatos fabricados por la industria alemana en el tiempo que les permitió la duración de la contienda, no sobrepasaría los 5.000.

Si bien los daños causados por esta nueva arma fueron bastante más cuantiosos que los de su predecesora la V- 1, no fueron suficientes para cambiar el curso de la guerra que ya había tomado un giro decisivo hacia la victoria aliada. Las V-2 actuarían principalmente como armas psicológicas, manteniendo la moral de las fuerzas alemanas durante algún tiempo todavía, pero su función decisiva en los campos de batalla todavía no había llegado. Era un arma prematura que necesitaba todavía de unos cuantos años más de perfeccionamiento para convertirse en el misil teledirigido intercontinental que amenaza como una pesadilla la paz en nuestro tiempo.

Otras armas secretas alemanas

Además de las V-1 y las V-2 que tuvieron su período operativo, la industria alemana de guerra desarrolló otros variados ingenios propulsados por cohetes, que apenas pudieron intervenir en la contienda o su utilización quedó restringida a escenarios muy reducidos.

Una de éstas fue la denominada Wasserfall («cascada») consistente en una versión a escala reducida de la V-2, pero con la ventajosa posibilidad de poderse orientar automáticamente hacia su blanco mediante un dispositivo de rayos infrarrojos. Era un cohete de 8 metros de longitud que podía portar una carga explosiva de 306 kgs. a una distancia de 35 Kms.

Otra derivación de la V-2, que no salió de los tableros de diseño, fue la correspondiente a las siglas A-9/A-10, prevista para dar origen a un gigantesco cohete de dos etapas que doblaría en tamaño a la V-2. Según sus datos técnicos podría haber alcanzado una distancia de 4.800 kms. lo que lo colocaba ya en la línea de los modernos proyectiles balísticos intercontinentales que tardarían más de una década en ser desarrollados por los ejércitos de Rusia y Estados Unidos.

Con un arma de esas características es evidente que la guerra hubiera podido seguir un rumbo diferente, pues incluso los Estados Unidos hubieran estado bajo su radio de acción. Los cohetes aplicados a la artillería darían origen al Rheintochter (Hija del Rhin), precursor de los actuales proyectiles tierra-aire, que sería lanzado por primera vez en agosto de 1943, para ser sustituido a partir de Diciembre de 1944 por otros proyectiles semejantes pero más eficientes: el Enzian y el Schmetterling, que serían fundamentalmente pequeños aviones-cohete con posibilidad de ser dirigidos por radio.

Principios fÍsicos de los cohetes: porqué vuelan los cohetes Von Braun

Principios Físicos de los Cohetes: ¿Por qué vuelan?

Características de la propulsión por cohetes

Como ya hemos visto en los capítulos anteriores, el hombre ha ido imaginando muchos métodos, algunos totalmente sorprendentes, para trasladarse desde la Tierra a otros astros. Unas veces estos métodos se basaban en principios físicos que creía conocer bien, pero que en la práctica jamás podrían haber dado resultado y otras se trataba simplemente de ingeniosos productos de su imaginación que no respondían a las leyes de la Naturaleza.

Tal es el caso de la misteriosa fuerza antigravitacional, que tan fácilmente resolvía todos los problemas de los vuelos por el espacio, o los recursos a fuerzas mágicas o sobrenaturales, que también tuvieron cabida en tantos relatos de viajes astronáuticos.

Algunos de los procedimientos utilizados, como el dejarse arrastrar por el vuelo de las aves, el empleo de alas artificiales, los globos aerostáticos (este último descrito por Edgar Allan Poe en su relato La Aventura sin Par de un tal Hans Plaau). etc. independientemente de la imposibilidad física de realizar un recorrido tan largo en un tiempo razonable, carecían de fundamento científico a partir del descubrimiento de la existencia del vacío entre la Tierra y la Luna, debida a los experimentos de Torricelli, que había inventado el barómetro en 1643, y de Blas Pascal, quien, en 1648, medía la presión atmosférica existente en diferentes alturas de una montaña, llegando a la conclusión de que la capa de aire no se extendía indefinidamente por el espacio, sino que tenía una altura determinada. encontrándose el vacío a continuación de ella.

El método del obús disparado por el gigantesco cañón Columbia de Julio Verne, aunque aparentemente podría ser realizable siempre que se encontrara un medio de reducir a límites tolerables la aceleración inicial sufrida por los tripulantes, tan poco ofrece ningún tipo de solución para vencer la resistencia del aire a la enorme velocidad de 40.000 kms. por hora. Esta resistencia produciría un violento frenado del artefacto con el consiguiente calentamiento aerodinámico del mismo, el llamado «muro del calor» que aumenta con la velocidad, hasta alcanzar temperaturas imposibles de resistir por cualquier material conocido.

De todos los medios imaginados en estos relatos, el único que haría viables los vuelos por el espacio es el de la impulsión por cohetes, aparato que ya era conocido desde bien antiguo, aunque no hubiera merecido la suficiente atención y se encontrase relegado a unos aspectos muy secundarios en sus aplicaciones prácticas. Una de las ventajosas características del cohete es que su velocidad puede regularse de forma que el calentamiento provocado por la resistencia del aire al atravesar las capas bajas de la atmósfera sea tolerable.

En el momento del despegue la velocidad del aparato es reducida, para irla incrementando progresivamente a medida que va alcanzando las capas superiores, donde la resistencia es mínima, y finalmente alcanza su máxima velocidad en el vacío donde la resistencia del aire es nula.

La fuerza de reacción

Para comprender mejor las inmensas posibilidades de los cohetes en el terreno de la Astronáutica, recordemos sus principios básicos. Ante todo debemos partir de la idea de que un cohete es un aparato volador que se desplaza siguiendo los principios expuestos por Isaac Newton en su famosa Tercera ley del Movimiento: A una fuerza llamada acción se opone otra llamada reacción, de igual magnitud, pero de sentido contrario.

Esta fuerza de reacción la podemos comprobar experimentalmente, observando el retroceso que sufre un cañón o cualquier otro tipo de arma, cuando dispara sus proyectiles. Si colocásemos un cañón de tiro rápido sobre una vagoneta de ferrocarril y empezásemos a dispararlo en una dirección, la vagoneta empezaría a moverse en el sentido opuesto, y silos disparos se sucediesen a un ritmo más rápido que la duración del impulso de retroceso, éste se incrementaría sucesivamente y la vagoneta adquiriría una velocidad y una aceleración crecientes.

El fenómeno se intensificaría si se arrojasen proyectiles más pequeños y en mayor cantidad, o a mayores velocidades. Lo ideal sería que se disparasen moléculas de un fluido a su máxima velocidad. Esto es lo que se produce en el cohete cuando expulsa los gases producidos durante su combustión, obtenidos mediante la reacción química de sus dos substancias componentes: el combustible y el comburente.

saturno 5 y el apolo 11El mismo principio se aplica a los motores de reacción de los aviones. Estos aspiran por su parte delantera el aire exterior, mezclándolo con gasolina pulverizada u otro combustible, en una cámara de combustión donde se produce su encendido. Los gases obtenidos, en lugar de mover un pistón como en los motores de explosión convencionales, salen expulsados por la tobera o salida posterior del motor formando un chorro de moléculas de alta velocidad (de aquí proviene el nombre de «propulsión a chorro» con que son designados también estos motores), provocando la consiguiente reacción que impulsa el motor hacia adelante.

Sin embargo aunque utilicen el mismo principio de reacción para producir el movimiento, existen ciertas notables diferencias entre los motores cohete y los motores a reacción. En estos últimos, el oxígeno necesario para la combustión es obtenido del aire que aspiran del exterior, por lo cual sólo pueden funcionar en las capas atmosféricas lo suficientemente densas para poder proporcionar este gas en las cantidades necesarias, lo cual automáticamente invalida este tipo de motores para las grandes alturas y sobre todo para los vuelos por el espacio.

En cambio los motores cohete poseen la gran ventaja de contener en su interior todo el oxígeno necesario, el comburente, ya sea mezclado con el combustible, o en depósitos independientes en el caso de cohetes de combustibles líquidos, convirtiéndose así en un sistema verdaderamente autónomo, totalmente independiente del medio externo y por lo tanto capaz de funcionar en zonas donde exista el vacío más absoluto.

Este tipo de motores, denominados anaerobios, obtienen su máximo rendimiento precisamente en esas zonas carentes de aire atmosférico al no tener que vencer ninguna resistencia para su desplazamiento, lo que los convierte en los impulsores ideales de los vehículos espaciales.

Componentes del cohete

Todo cohete, desde los tipos más sencillos utilizados en pirotecnia, hasta los enormemente complejos de las aplicaciones astronáuticas, constan esencialmente de los mismos elementos. Un cilindro, ya sea de cartón o de metal, en el que se alojan las substancias químicas que van a entrar en combustión, un sistema de encendido para producir ésta (la simple mecha de los pequeños cohetes de pólvora) en la correspondiente cámara de combustión, y un orificio de salida o tobera por el que se expulsarán los gases obtenidos provocando así la fuerza de reacción. Para mantenerlo en la dirección deseada existen varios sistemas desde una simple varilla de madera al conjunto de aletas estabilizadoras y giróscopos de los grandes cohetes actuales.

Por otra parte, el cohete deberá transportar algún tipo de carga útil. En los cohetes utilizados en los fuegos artificiales será la caperuza donde se aloja la mezcla que estallará cuando el cohete alcance la altura adecuada, produciendo sus brillantes efectos luminosos, mientras que en los cohetes de usos militares serán cargas explosivas y en los utilizados en Astronáutica serán las cápsulas espaciales, los satélites u otros instrumentos de medida que se vayan a lanzar al espacio.

La utilización de combustibles y comburentes, llamados en conjunto propergoles, de naturaleza sólida o líquida, dará lugar a tres tipos diferenciados de cohetes. Los denominados cohetes a propergoles líquidos, por hallarse ambos componentes en ese estado, los cohetes a propergoles sólidos, por el mismo motivo, y los cohetes híbridos, donde uno de los componentes es sólido y el otro líquido.

Los cohetes a propergoles líquidos, de construcción bastante más compleja que los otros por la necesidad de llevar depósitos aislados y sistemas de bombeo de cada uno de los líquidos a la cámara de combustión, son generalmente de bastante mayor potencia que los de propergoles sólidos, por lo que se utilizan fundamentalmente en los aparatos que necesitan enviar al espacio grandes masas, como los vehículos americanos A polos, impulsados por los cohetes a propergoles líquidos del Saturno V.

En este caso el combustible es queroseno y el comburente oxígeno líquido, mantenido en ese estado mediante altas presiones y bajas temperaturas en los depósitos. En la actualidad esos son los propergoles líquidos más empleados aunque también se utilicen el ácido nítrico, el peróxido de nitrógeno y el ozono líquido como comburentes y el alcohol, la hidracina o el hidrógeno líquido como combustibles. La combinación ideal sería la de hidrógeno-oxígeno líquido por proporcionar la máxima velocidad a los gases de escape.

Los principales propergoles sólidos empleados son los siguientes: balistita (formado por nitroglicerina y nitrocelulosa), cordita (nitrocelulosa, nitroglicerina, vaselina), pólvoras, nitroparafina, y percloratos de amonio o de potasio. Los propergoles híbridos más utilizados son: caucho artificial y oxígeno líquido, resinas sintéticas y peróxido de hidrógeno (agua oxigenada).

Los propergoles sólidos ofrecen por su parte la ventaja de ser fácilmente almacenables y tienen menos problemas a la hora de su manipulación por lo que son más adecuados para cohetes de aplicaciones militares o de pequeñas potencias de empuje. También permiten que la construcción y el funcionamiento del cohete sean más simples.

El primer tipo de combustible utilizado en los cohetes no fue otro sino la pólvora negra, obtenida con la mezcla de salitre, carbón vegetal y azufre. Estos ingredientes al quemarse producen un gas que tiende a ocupar un volumen 400 veces mayor que la mezcla original, produciendo una fuerte presión en las paredes del recipiente que los contiene. Si este se encuentra cerrado explotará bruscamente con el consiguiente «petardazo».

En el cohete de pólvora, ésta se coloca en una masa compacta, pero dejando un hueco en forma de embudo a lo largo de su eje central que terminará junto a la abertura de la parte posterior del cilindro que constituye el cohete. Este hueco cónico y la abertura de salida constituyen la cámara de combustión y la tobera del motor-cohete.

Cuando se enciende la carga, la pólvora empieza a arder por la superficie interna de la cámara de combustión, creando rápidamente una considerable masa de gas a temperaturas muy elevadas y con una presión muy alta que escapará por la abertura posterior a gran velocidad, provocando por reacción el movimiento del cohete hacia adelante que se elevará emitiendo su característico silbido hasta que se queme toda la pólvora contenida en su interior.

Empuje de un cohete

La fuerza de propulsión que desarrolla el cohete es igual al producto de la masa de gases que arroja en un segundo por la velocidad de los mismos, es decir:

E = m.v

Por lo tanto si un motor-cohete consume 10 kgs. de propergol por segundo y expulsa los gases a una velocidad de 3.000 metros por segundo, el empuje obtenido sería de:

E=10 . 3000/9.8 =3.061 Km ó 3061 Tm.

(teniendo en cuenta que la masa es igual al peso dividido por la constante gravitatoria 9,8.)

De esta fórmula se desprende que para que el cohete pueda elevarse del suelo, su peso total a plena carga, deberá ser menor que el del empuje producido.

Velocidad final

Aplicando la fórmula de la Dinámica que dice «el momento lineal o la cantidad de movimiento de un sistema es constante», tendremos:

m.v = M.V

siendo m, la masa de los gases expulsados, u, la velocidad de los mismos, M, la masa total del cohete y V, la velocidad en ese momento.  Para saber la velocidad que adquiere el cohete despejamos V en la fórmula anterior y obtenemos:

V=m.v/M

Esta fórmula nos dice que la velocidad del cohete depende de tres factores: su masa, la masa de los gases que expulsa por segundo y la velocidad de éstos. Por lo tanto para poder aumentar la velocidad del cohete deberemos disminuir su masa (M), aumentar la velocidad del chorro de gases (u) o aumentar la cantidad de gas expulsado por segundo (m), y de ser posible, las tres cosas a la vez.

La cantidad de gas expulsado y su velocidad de salida son constantes pero a medida que va consumiendo su combustible, la masa del cohete disminuye, por lo que la velocidad, del mismo irá aumentando sucesivamente hasta que alcance su límite máximo cuando el combustible se haya acabado por completo.

De esta forma vemos que el cohete despega del suelo con cierta lentitud en principio, para irse acelerando progresivamente a medida que transcurre su vuelo. Esta característica le permite vencer la resistencia del aire con más facilidad que si saliese despedido a su velocidad máxima como les sucede a los proyectiles disparados por un canon.

Es lógico pensar que si el cohete contiene mayores cantidades de combustible, éste tardará más tiempo en consumirse y por lo tanto la velocidad final aumentará. Este incremento debe tener

un límite y para calcular con exactitud las posibilidades de aumento de la velocidad final, tenemos que utilizar el término «razón de masas», que corresponde al cociente de dividir la Masa total del cohete al despegar (M1) por la Masa final al consumir todo su combustible (M2).

Velocidad de KM/seg. que alcanza un cohete

Velocidad de KM/seg. que alcanza un cohete al final de la combustión en función de la razón de las masas, es decir, la relación entre la masa total en el momento del despegue y la masa al final de la combustión

Así la fórmula que nos dará la velocidad final del cohete, descubierta por Ziolkovsky, es la siguiente:

y = c.loge (M1/M2)

Es decir que la velocidad final (u) será igual al producto de la velocidad de eyección de los gases (c) por el logaritmo neperiano de la razón de masas. (El logaritmo neperiano es igual al logaritmo decimal x 2,3).  Esta velocidad final será exactamente igual a la velocidad de salida de los gases cuando el logaritmo valga 1, es decir cuando la razón de masas valga 2,718 que es la base de los logaritmos neperianos. 

Un ejemplo nos ayudará a hacer los cálculos. Supongamos que un cohete tiene una razón de masas de 3, lo que quiere decir que el combustible representa los dos tercios de su peso total, y que expele los gases a 2.000 m. por seg. La velocidad que alcance al final de la combustión será:

v = 2.000 x loge 3= 2.200 m. por seg.

Si en vez de logaritmos neperianos utilizamos logaritmos decimales, la fórmula se transformará en:

v = 2.000 x log 3 x 2,3 = 2.200 m. por seg.

Si la razón de masas hubiese sido de 10 y los gases se expelen a la misma velocidad de 2.000 m. por seg. la velocidad final sería de:

v= 2.000 x log 10 x 2,3 = 4.600 m. por seg.

Lo que demuestra la importancia que tiene para la velocidad final del cohete el incremento en la razón de masas.

 La carga útil :Sin embargo la razón de masas no puede aumentar indefinidamente, pues el cohete está previsto para que transporte algún tipo de elemento que constituiría su carga útil. Las cápsulas espaciales y sus tripulantes, los satélites artificiales, o los instrumentos de diversos tipos que se envíen al espacio en el cohete serán los componentes de esta carga y limitarán la razón de masas del mismo, si bien, la mayor parte del peso del cohete estará constituida por los propergoles.

La carga útil llega a ocupar solamente de un 0,4 a un 2 % del peso total del aparato, lo que supone un rendimiento bastante bajo en comparación con cualquier otro vehículo de transporte.

Como en muchos casos no es suficiente un solo cohete para elevar una carga útil determinada, se pueden agrupar varios de ellos en forma de racimo, es decir en paralelo, y encenderlos todos a la vez, de forma que el empuje resultante sea la suma de todos los componentes del grupo.

Hoy día todos los grandes cohetes utilizados en Astronáutica recurren a este procedimiento y así tenemos a los gigantescos Saturno IV y Saturno V americanos, compuestos el primero de ellos por ocho motores en racimo que le proporcionan un empuje total de 745 Tm y el segundo por cinco motores principales, en su primera fase, que a base de quemar oxígeno líquido y queroseno, le proporcionan un empuje de 3.500 Tm.