Mision Apolo XI

La Luna Características Generales Información Científica

INFORMACIÓN GENERAL Y CIENTÍFICA DE LA LUNA, SATÉLITE TERRESTRE

De todos los cuerpos celestes, la Luna es posiblemente el más conocido. Fue objeto de muchas antiguas creencias y es aún llamada poéticamente Selene, el viejo nombre de la diosa Luna. La ciencia que la estudia se denomina selenografía, y a pesar de que este cuerpo celeste no ha revelado aún todos sus secretos, se conoce bastante sobre él, pues  el hombre ha alunizado en varias oportunidades y ha conseguido centenares de muestras de su superficie para futuras  investigaciones en la NASA.

MAPA DE LA LUNA CON NOMBRES DE SUS MARES Y CRÁTERES

satelite de la Tierra, Luna

(Para Ver Nombres de Cráteres y Mares)

LA LUNA EN NÚMEROS:

Edad: 4.600 millones de ños
Distancia máxima a la Tierra: 405.000 km
Distancia mínima a la Tierra: 363.000 km
Diámetro real de la Luna: 3.473 km
Circunferencia: 10.927 Km.
Superficie: 0,075 de la Terrestre
Volumen: 0,02 de la Terrestre
Peso: 0,012 de la Terrestre
Densidad: 0,6 de la Terrestre
Velocidad de Escape: 2,4 Km/s.
Revolución sobre su eje: 27 d. 7 hs. 43′
Distancia media a la Tierra: 384.403 km
Tiempo de su traslación: 27 d. 43′ 11″
Temperatura de su superficie: De 100°C a -184°C (noche lunar)
Altura máxima de sus montañas: 9.000 m.
Duración del día: 14 dias terrestres
Duración del la noche: 14 dias terrestres

Sobre su formación: Hace unos 5000 millones de años cuando el sistema solar se estaba formando, y definiendo su constitución actual, en nuestro planeta una capa de lava volcánica semiderretida burbujeaba por toda la superficie como un dulce hirviendo. No había tierra sólida, ni agua, ni vida. La Tierra, completamente inestable, giraba tan deprisa sobre su eje que cada día duraba sólo unas cuatro horas.

Ocurrió entonces fue algo inesperado. Los expertos creen que dos planetas jóvenes coincidieron en la misma órbita alrededor del Sol, aunque moviéndose a distintas velocidades. Uno era la Tierra; el otro, el planeta llamado Theia. Unos cincuenta millones de años más tarde, el Sol comenzó a brillar, y aquellos dos jóvenes planetas chocaron uno con otro. Con la sacudida, la Tierra giró sobre su costado, fuera de control.

Miles de volcanes entraron en erupción tras el impacto. Enormes cantidades de gas, antes atrapadas en el núcleo de la Tierra, salían ahora a borbotones a través de la superficie, y creaban así la primera atmósfera del planeta. Las capas más exteriores de Theia se vaporizaron en miles de millones de pequeñas partículas. Los restos volaron en todas direcciones y rodearon la Tierra con una gruesa capa de polvo, rocas y granito a elevada temperatura.

Atrapada por la gravedad terrestre, esta bruma de escombros se arremolinó en el cielo, y todo se oscureció. Durante meses ni siquiera el rayo más brillante de sol podía penetrar las capas de polvo que en un tiempo habían constituido el planeta Theia. Su núcleo de hierro fundido alcanzó el centro de la Tierra, y produjo la fusión de los dos núcleos en una única bola metálica, compacta, con una temperatura de miles de grados, que se hundió en el centro del globo, destrozado por la fuerza del impacto.

En la actualidad, no hay pruebas físicas en el planeta del impacto de la colisión con Theia, ya que tuvo tal fuerza que todo el material exterior se vaporizó y explotó en el espacio. Pero la evidencia no está muy lejos. El polvo y el granito que envolvieron la Tierra pronto se reagruparon, y se convirtieron en una enorme bola de polvo. Aproximadamente sólo un año después del impacto, la Tierra tenía una nueva compañera, nuestra grande, brillante y cristalina Luna.

Aldrin astronauta de la NASA tomando muestras

El astronauta estadounidense Neil Alden Armstrong, como comandante de la misión lunar Apolo 11, es la primera persona que pisa la Luna. Su compañero Edwin E. Aldrin es el segundo hombre en poner un pie en la Luna. Aquí lo vemos tomando muestras del suelo lunar. También participa en la misión el astronauta Michael Collins, que pilota el módulo de control

INFORMACIÓN GENERAL: La Luna da una vuelta completa alrededor de la Tierra en 27 días, 7 horas, 43 minutos, 7 segundos; pero a causa del movimiento de la Tierra alrededor del Sol, el mes lunar —o sea el período que va desde una nueva luna hasta la siguiente— es levemente mayor de 29,5 días.

El diámetro de la Luna es de 3.474km.; pero como la distancia que la separa de la Tierra varía, debido a que su trayectoria es elíptica, su tamaño parece cambiar levemente. La distancia mínima entre la Tierra y la Luna es de 364.300 km. y la máxima es de 408.000 km.

Sólo la mitad de su superficie está siempre iluminada por la luz del Sol. Durante la luna nueva, la cara iluminada está oculta para nosotros; pero a medida que va rodeando a nuestro planeta, vamos viendo cada vez más esta faz, hasta que se muestra totalmente en luna llena. Por varias razones, parece inclinarse levemente, de manera que podemos ver un 59 % de su superficie, en diferentes períodos de su trayectoria; pero no vemos jamás toda la cara posterior.

Cuando fue inventado el telescopio, en 1609, observó Galileo que la superficie lunar es muy rugosa, con picos y cadenas montañosas, con círculos como cráteres volcánicos y llanuras, que confundió con mares. Muy pronto se dibujaron mapas de la Luna y se están haciendo cada vez más perfectos, con ayuda de la fotografía. Un mapa simple de la Luna se muestra en la ilustración superior.

Galileo observando la Luna

1610: Galileo Galilei Observando los astros celestes

La palabra latina mare (mar) señala los desiertos; dos de ellos se muestran abajo, en escala mayor. A la izquierda está el llamado Mare Imbrium (Mar de las Lluvias), que es un vasto desierto, con algunas montañas y cráteres diseminados. Junto a éste, están los Apeninos (la mayoría de las cadenas montañosas de la Luna lleva el mismo nombre que algunas cordilleras terráqueas, mientras que los picos montañosos se conocen con el nombre de algún famoso sabio). En la lámina de la izquierda está el Mare Nubium (Mar de las Nubes), bordeado por una región de cráteres próxima al polo sur de la Luna.

Su peso es mucho menor que el de la Tierra y así también su fuerza de gravedad, de manera que nosotros pesaríamos allí sólo un sexto de nuestro peso en. la Tierra y nuestra fuerza muscular nos permitiría realizar saltos espectaculares.

En la Luna no hay atmósfera en la Luna, de modo que no puede escucharse sonido alguno en su superficie. La ausencia de aire debe hacer que el cielo se vea negro aun en plena luz del día, pero las estrellas se destacarán marcadamente. Desde un lado de la Luna la Tierra está siempre visible y aparece mucho más grande de lo que la Luna se ve desde la Tierra; además, visto desde la Luna, nuestro planeta nunca se oculta, pero sí se mueve de un lado al otro en el cielo. Desde la cara posterior de la Luna nunca sería posible ver la Tierra.

El día y la noche lunares son aproximadamente 14 veces más largos que los nuestros. No se han observado jamás señales de vida allí y sólo cambios muy leves y dudosos. Se han intentado muchas teorías para explicar la causa de su superficie rugosa; a pesar de sus nombres, los cráteres lunares no pueden haber sido producidos por volcanes, sino quizá por la caída de meteoritos, cuyos efectos habrían sido muy destructores, debido a la falta de atmósfera.

Comparar la Tierra con la Luna es como comparar un organismo viviente con uno muerto. Sabemos que en la Tierra se desarrolla una infinita variedad de seres vivos, que han alcanzado su presente estado de desenvolvimiento por un continuo proceso de evolución. Cambios han ocurrido y ocurren constantemente.

Contrariamente a lo que ocurre en nuestro planeta, palpitante de vida en todas sus formas, con climas que varían enormemente, desde el calor tropical al frío polar, y con sólo una parte comparativamente muy pequeña de su superficie total incapaz de mantener cualquier clase de ser viviente. En 2015 la NASA ha encontrado señales de presencia de agua en la Luna, pero hasta hoy es completamente inepta para toda forma de vida. Es un mundo absolutamente muerto.

Ningún otro cuerpo celeste está tan cerca de la Tierra como la Luna y ningún otro cuerpo puede ser observado, estudiado e investigado tan detalladamente: montañas y llanuras pueden verse con mucha claridad con un simple telescopio casero. Si existiera la vida, lo sería en alguna forma que escaparía a nuestra observación, y ésta parece ser una posibilidad bastante remota.

Un argumento de peso que sostiene la teoría de la imposibilidad de la existencia de vida en la Luna, parte del hecho de que no hay agua ni atmósfera en ésta. Todo ser vivo que visitara la Luna debería llevar consigo los medios para poder respirar, beber y comer. Todos los datos coinciden en afirmar que en la Luna no puede haber vida.

Si la Luna en algún estadio de su existencia poseyó atmósfera, no pudo haberla mantenido por mucho tiempo, pues como su tamaño no es lo suficientemente grande, su fuerza de atracción es insuficiente para impedir que los gases envolventes escapen al espacio. La ausencia de una atmósfera da como resultado temperaturas muy extremas en el día; desde 82° cuando brilla el Sol hasta muy por debajo del punto de congelación cuando aquél se ha ido. La superficie no está nunca, por supuesto, oscurecida por nubes.

Negro y blanco son los colores que hay en la Luna, con algunos toques de amarillo, que son aportados por la luz del Sol. Como no hay atmósfera que pueda captar la luz, el cielo lunar es profundamente oscuro. A pesar de que el Sol esté brillando, las estrellas permanecen siempre visibles.

También la ausencia de aire, según hemos dicho, hace que la Luna sea un lugar de absoluto silencio; aun el disparar de un cañón no produciría el menor sonido.

La Luna ejerce una gran influencia sobre la Tierra, aparte de reflejar la luz del Sol sobre nuestro planeta durante la noche. Océanos y mares están sometidos al movimiento regular de las mareas; éstas resultan de la atracción entre la Tierra y la Luna y el Sol. El Sol es infinitamente más grande que la Luna, pero está tan alejado de la Tierra, que su influencia sobre las mareas es menor.

Durante la luna nueva y el plenilunio, Tierra, Luna y Sol están en una misma línea recta y así la influencia de la Luna sobre las mareas está reforzada por la del Sol. De esta manera se producen pleamares y bajamares extremas.

Cuando la Luna está en cuarto creciente o menguante, la atracción lunar forma un ángulo recto con la del Sol; los efectos de la Luna y del Sol son opuestos entre sí y el resultado es la marea muerta, con movimientos muy excepcionales de subida y bajada. Las mareas están influidas por la posición de las masas continentales, y los mares cerrados, como el Mediterráneo, tienen rara vez mareas.

inclinación entre orbita lunar y la Tierra

El plano de la órbita de la Luna forma un ángulo de 5° con el terrestre. Desde la Tierra se descubre un ancho de 6° 30′ del suelo lunar más allá de cada polo: del Polo Norte si la Luna está en la parte sur de su órbita, y del sur cuando se halla en su parte norte. Este fenómeno recibe el nombre de libración en latitud. Las dos libraciones citadas y u na tercera llamada diurna, que solamente alcanza un grado, dan origen a que se reconozca el 59% de la superficie lunar en lugar de la mitad exacta que se vería si aquéllas no existiesen.

LA FASES DE LA LUNA:

FASES DE LA LUNA

Dijimos que la Luna como la Tierra carecen de luz propia y reflejan la que reciben del Sol. Por ello hay siempre en ellas una cara iluminada que en la Tierra denominamos día, y otra obscura, que llamamos noche. Combinados los movimientos lunar y terrestre se produce el ocultamiento permanente de una cara del satélite. Hasta octubre de 1959 ningún terrícola había podido ver la parte oculta. Pero en esa fecha fue fotografiada mediante un satélite artificial lanzado por la Unión Soviética.

Las variaciones que experimenta la Luna se denominan fases: en ocasiones vemos el disco lunar completo, en otras sólo una especie de hoz, y a veces nos resulta totalmente invisible. (Cuando se halla en conjunción con el Sol decimos que se halla en fase de Luna nueva. Al otro día surge por occidente cual un delgado creciente luminoso cuya convexidad está siempre del lado del Sol en el ocaso.

El ancho creciente va aumentando hasta que, transcurridos seis días, aparece en forma de semicírculo cuya parte luminosaterminaen una línea recta. En tal situación se dice que está en cuarto creciente. Se la observa con facilidad durante la tarde y en el anochecer. A medida que sigue su camino y se va alejando del Sol adquiere figura oval y su brillo va en aumento, hasta que al cabo de siete u ocho días se torna completamente circular.

Esta fase se llama de Luna llena, después de la cual la parte iluminada comienza a disminuir y las mismas fases se van repitiendo en sentido inverso. Es decir que, primeramente, toma la forma oval y después la de semicírculo en que llega al cuarto menguante, fácilmente observable al alba.

Por último, tras haber dado una vuelta completa al cielo, sale por la mañana un poco antes que el Sol, y ya cerca de éste, se pierde entre sus rayos y vuelve a la posición original de Luna nueva. Esta posición oculta se denomina conjunción, porque en ella se encuentra entre la Tierra y el Sol. De manera similar, las épocas de la Luna llena reciben el nombre de sicigias y las de los cuartos creciente y menguante, cuadraturas.

GRAN MAPA DE LA LUNA CON CRÁTERES Y MARES:

Ver También: Los Eclipses

Fuente Consultada:
Biblioteca Temática UTEHA Tomo 10 El Mundo Que Nos Rodea – La Luna, satélite terrestre-
Cielo y Tierra Nuestro Mundo en el Tiempo y el Espacio Globerama Edit. CODEX
Enciclopedia Electrónica ENCARTA Microsoft

Que es un Radiotelescopio? Función de la Radioastronomia

LA RADIOASTRONOMIA

La palabra “radioastronomía” data de mediados del siglo XX, por lo que podríamos decir que un rama de la astronomía, relativamente joven, pensemos que las primeras observaciones con telescopio fueron las de Galilei en el siglo XVI. La primera identificación de ondas de radio de origen extraterrestre tuvo lugar hace ochenta años; pero la colaboración sistemática con los observatorios ópticos sólo comenzó después de la segunda guerra mundial. Entretanto progresaron otras formas de escudriñamiento mediante cohetes o globos-sonda capaces de analizar las vibraciones que nuestra atmósfera intercepta o perturba, como por ejemplo los rayos X.

La radioastronomía depende por completo de los telescopios ópticos; sin ellos carecería de sentido y valor porque es incapaz de calcular la distancia de las fuentes emisoras. La comparación de los resultados de ambas disciplinas es interesante pues las ondas radioeléctricas más intensas suelen provenir de los objetos celestes menos visibles y aún, aparentemente, de ninguna materia identificable.

También los registros históricos son muy útiles. Gracias a los astrónomos chinos que en el año 1054 señalaron el súbito estallido de una estrella (“supernova”) podemos reconstruir la historia de la actual nebulosa del Cangrejo, que pertenece a nuestra galaxia, la vía Láctea . Otras supernovas, indicadas por Tycho Brahe en 1572 y Kepler en 1604, son ahora débiles radioestrellas.

Esta última categoría de astros, la más inesperada de la nueva ciencia, parece incluir los cuerpos más distantes que conoce la astronomía. Su conocimiento contribuyó notablemente a la dilucidación de uno de los problemas capitales de todos los tiempos: el del origen del universo.

Grupo de Radiotelescopios Trabajando en Paralelo

LA RADIOASTRONOMIA Y LOS RADIOTELESCOPIOS:

Las Ondas Electromagnéticas Que Emiten Las Estrellas: Cuando una estrella explota, formando una nova o supernova, irradia una enorme cantidad de energía luminosa. Los átomos componentes de la estrella reciben gran cantidad de energía, se calientan extraordinariamente y, como todos los cuerpos muy calientes, irradian la mayor parte de su energía en forma de luz.

La estrella se presenta mucho más brillante. Pero, además de la luz visible, la estrella emite otras clases de radiaciones: rayos infrarrojos invisibles, rayos ultravioletas y ondas de radio. Todas estas clases de radiaciones se hacen mucho más intensas en el momento de la formación de una supernova. La radioastronomía se ocupa de la última clase de radiación citada, o sea, de las ondas de radio.

La fuerza de la explosión acelera y ex-. pulsa de la estrella nubes de partículas cargadas eléctricamente. Asociada con ellas, hay una serie de campos magnéticos turbulentos que cambian rápidamente. Cuando las partículas cargadas se mueven por los campos magnéticos, ganan energía, irradiándola en forma de ondas electromagnéticas.

Una de las ondas corrientes emitidas por los átomos de hidrógeno cargados tiene una longitud de onda de 21 centímetros. Las ondas electromagnéticas de esta longitud de onda son ondas de radio. Se propagan, a partir de su origen, en todas direcciones, viajando con la velocidad de la luz.

Las ondas luminosas son también un tipo de radiación electromagnética, pero de longitud de onda mucho más pequeña. Todas las galaxias y muchas estrellas, incluso el Sol, emiten ondas de radio. El Sol no es una estrella que se caracterice especialmente por enviar ondas de radio; pero, durante los períodos de actividad de sus manchas, la emisión de ondas de radio aumenta.

Las fuentes que emiten ondas de radio con gran intensidad no coinciden necesariamente con los objetos que a nuestros ojos aparecen brillantes, como las estrellas. De hecho, las ondas de radio provienen de regiones oscuras del cielo, de oscuras nubes de polvo y de hidrógeno, en las que éste (según ciertas teorías) está concentrándose para formar nuevas estrellas; sus átomos irradian la energía que ganan al acelerarse en los campos magnéticos del espacio.

Las ondas de radio son invisibles y no pueden detectarse con los telescopios ópticos. Pero, de la misma forma que las emitidas por una estación de radio, pueden ser recogidas por una antena receptora. Estas ondas producen la circulación de débiles corrientes eléctricas en la antena.

Estas corrientes pueden amplificarse, seleccionarse y convertirse en sonidos audibles, tal como acontece con un receptor de radio corriente. Pero es más frecuente utilizar un receptor especialmente concebido, para recoger las ondas de radio del espacio. En él, las corrientes fluctuantes de la antena se registran automáticamente en una gráfica. Al mismo tiempo, se conducen directamente a un cerebro electrónico, para su análisis.

Gigate Radiotelescopio de Arecibo

Los radiotelescopios son grandes antenas diseñadas para interceptar toda la emisión de radio posible de una estrella o de una galaxia. Para ello, las ondas se recogen juntas y se concentran de forma que las corrientes fluctuantes que producen en la antena sean lo suficientemente grandes para ser detectadas.

Las ondas de radio se dispersan en todas direcciones a partir de su fuente. Sólo una pequeñísima fracción de la radiación total de una estrella es interceptada por la Tierra, y esta radiación ha recorrido distancias tan enormes que sus ondas son prácticamente paralelas unas a otras. El radiotelescopio intercepta los rayos paralelos en la mayor superficie posible y los concentra enfocándolos en la antena. Cuanto mayor sea la superficie, más sensible será el radiotelescopio, ya que recogerá más cantidad de radiación de la estrella lejana. Los mayores telescopios ópticos son gigantescos reflectores formados por espejos parabólicos.

Los rayos que llegan a la cuenca del espejo parabólico se reflejan en un pequeño espejo colocado en el foco, y son enviados a una pequeña película fotográfica. El enorme espejo parabólico recoge todos los rayos luminosos que llegan a susuperficie.

Algunos de los grande radiotelescopios son muy parecidos a ese dispositivo. El radiotelescopio es también un paraboloide que puede tener cientos de metros de diámetro.

El pequeño espejo colocado en el foco del telescopio óptico está reemplazado en el radiotelescopio por la antena, a la que se enfoca toda la radiación recibida. Hay un inconveniente importante en los radiotelescopios. Incluso si existen dos o tres fuentes de ondas de radio separadas en el campo de detección es imposible distinguirlas unas de otras.

Las corrientes fluctuantes son el resultado de todas las ondas de radio recibidas en el radiotelescopio. La placa fotográfica del telescopio óptico es un medio más eficiente para detectar la imagen, pues los rayos de luz que llegan al espejo con distintos ángulos se concentran en puntos ligeramente diferentes en el espejo pequeño, y se reflejan para ennegrecer puntos distintos en la placa sensible.

El radiotelescopio ideal debe ser lo más grande posible, para recoger el mayor número de rayos, pero también debe ser manuable, de forma que pueda dirigirse _ a cualquier parte del cielo. Cuando el diámetro sobrepasa los 80 metros, el telescopio no puede ser lo suficientemente rígido para resistir el viento sin doblarse y distorsionar la “imagen”. Además, no es fácil manejarlo. Se está construyendo en Puerto Rico un radiotelescopio de más de 300 metros de diámetro, forrando con aluminio pulimentado las paredes de un cráter que presenta una forma conveniente. Pero este radiotelescopio no puede ser enfocado arbitrariamente, puesto que es fijo.

Los radiotelescopios reflectores simples son de construcción difícil y costosa. Sin embargo, puede fabricarse otra clase de radiotelescopio formado por varios reflectores pequeños y antenas, dirigidos hacia diferentes partes del cielo y que se mueven conjuntamente, cubriendo una distancia mucho mayor de la que puede abarcar un solo reflector. De esta forma, la “imagen” puede componerse a partir de fragmentos parciales. Para localizar de manera más precisa las fuentes de ondas intensas, se usan unas largas hileras de reflectores y antenas idénticas, colocados exactamente a la misma distancia unos de otros.

Estos dispositivos tienen un excelente poder de resolución y resultan mejores para separar dos fuentes de ondas próximas. A pesar de que los rayos procedentes de una fuente emisora puntual son paralelos, si llegan al radiotelescopio formando un ángulo, alcanzarán la antena de un extremo de la línea antes de llegar a la del otro extremo. Al llegar a las antenas en instantes diferentes, las ondas de cada extremo lo harán en distintas fases de su vibración.

Al sumar todas las corrientes de las antenas, las de un extremo pueden estar en una fase opuesta a las del otro, eliminándose parcialmente una a otra. El efecto producido es hacer más nítida la imagen de radio de la estrella. Este tipo de radiotelescopio se llama radiointerjerómetro, debido a que la eliminación de una serie de ondas por otra es una interferencia. Generalmente, el interferómetro se compone de dos líneas de antenas que forman ángulos rectos. La nitidez de la imagen o poder de resolución puede aumentarse de varias maneras, sumando o restando las señales de las distintas antenas.

Los radiotelescopios pueden penetrar mucho más profundamente en el universo que los telescopios ópticos. Las galaxias más lejanas que se conocen son también los transmisores de radio más potentes, y fueron descubiertas precisamente a causa de esta poderosa emisión de ondas de radio, que emiten probablemente por ser galaxias en colisión. El telescopio óptico de Monte Palomar investigó con mucho cuidado en esa dirección, y encontró la tenue nube de galaxias causantes de las ondas de radio.

La atmósfera terrestre es un inconveniente para la radioastronomía, dado que absorbe grandes cantidades de la radiación electromagnética que llega a la Tierra. Sólo un pequeño margen de ondas puede atravesar la atmósfera. Las ondas de radio de pequeña longitud son absorbidas por las moléculas de la atmósfera, y las de onda larga se distorsionan a causa de las capas cargadas eléctricamente de la ionosfera.

Una solución sería la de colocar un radiotelescopio en un satélite artificial, y una idea todavía más prometedora es la de construirlo en la Luna, donde no hay atmósfera que pueda interrumpir la radiación. En la Luna se podrían construir radiotelescopios mayores, ya que siendo menor la fuerza de la gravedad, la estructura de los aparatos podría manejarse con menor esfuerzo y una menor deformación del reflector.

ALGUNAS FUENTES INTENSAS DE ONDAS DE RADIO

Sol 8 minutos Desde algunos milímetros a varios metros, emitidas por la corona y la cromosfera
Júpiter 40 minutos Unos 15 metros
Gas hidrógeno en ios brazos espirales de una galaxia De 1.500 a 80.000 años
21,1 cm„ emitida por el gas hidrógeno ionizado
Nebulosa de la constelación de Cáncer (su pernova) 3.000 años De 1 cm. a 10 m. Ondas de electrones acelerados
Supernova de la constelación de Casiopea 10.000 años De un centímetro a 10 metros; proceden de hidrógeno ionizado, oxígeno y neón
Centro de nuestra galaxia 30.000 años
Nubes de Magallanes (las galaxias más próximas) 200.000 años 21,1 centímetros
Nebulosa de la constelación de Andrómeda (la galaxia espiral más próxima) 2 millones de años 21,1 cm. Es un emisor tan potente como nuestra propia galaxia
Galaxia elíptica de la constelación de Virgo (Virgo A), nebulosa del chorro azul 33 millones de años Ondas de electrones acelerados
Dos galaxias espirales en colisión de la constelación del Cisne (Cisne A) 50 millones de años
Nebulosa de radio lejana, de la constelación de Hércules 750 millones de años

Fuente Consultada:
Revista TECNIRAMA N°90 Enciclopedia de la Ciencia y La Tecnología – La Radioastronomia –

La Comida de los Astronautas Misión Apolo Comida en el Espacio

La Comida de los Astronautas – Misión Apolo

Los exploradores de todos los tiempos han tenido siempre el problema de llevar suficiente comida para su viaje. Siempre tuvieron que limitar el tamaño de su carga y también encontrar métodos para evitar que  la comida se echara a perder. La cuestión fue especialmente importante durante los días de las largas travesías por mar.

No solo era necesario que los víveres se mantuvieran en buenas condiciones durante el- viaje sino que conservaran su valor nutritivo. Lo mismo ocurre cuando el hombre se aventura al espacio exterior. Solo que además debe llevar consigo hasta él aire que respira y el agua que bebe: Por eso la cápsula Apolo es un mundo -en miniatura, Y este articulo nos explica cómo se alimenta un astronauta.

Una larga experiencia ganada durante las misiones Mercury y Géminis, permitió desarrollar la técnica de preparación, manipuleo y consumo de la comida en el espacio para el proyecto Apolo. Los alimentos que lleva la Apolo 11 en esta histórica misión son similares a los productos “rehidratables” y del tamaño de un “bocado” utilizados durante el programa Géminis, con algunos agregados para dar a los astronautas una mayor variedad en la preparación de sus menúes.

comida de los astronautasPara aumentar el gusto de lo que se come, la espacionave Apolo está equipada para proveer tanto agua caliente como fría para reconstituir las comidas o bebidas deshidratadas. El agua potable de los tanques puede ser calentada a gran temperatura (casi 70 grados) en un recipiente de un par de litros de capacidad, cada media hora, para utilizarla es la preparación de comidas calientes.

El agua helada se obtiene de un congelador que enfría un litro y medio de líquido cada 24 minutos. A una temperatura de menos de 10 grados, el agua se carga en un “dispensador” de mano con capacidad para un cuarto litro, que permite “inyectarla” en las raciones y preparar comidas o bebidas frías.

El menú que acompaña esta nota es un ejemplo de la selección hecha para dos ellas por un astronauta, de la misión Apolo. Pero los expertos de la NASA han analizado cada uno de los componentes de estas comidas para establecer su exacto valor calórico y nutritivo, empleando la información obtenida en la elaboración de un menú balanceado.

Esta información también proporciona una base para calcular la absorción nutritiva de cada hombre, diariamente y a lo largo de una misión completa. Se estableció que, por  ella, un hombre en el espacio debe recibir aproximadamente 2.800 calorías. El do nutritivo se balancea para que suministre 20 por ciento de proteínas, 62 de hidratos de carbono y 18 de grasas. La distribución calórica es del 17 por ciento de las proteínas, 51 de los hidratos de carbono y 32  por ciento de las grasas.

Todos los envases de alimento y de bebida para, una comida de un solo hombre están envueltos en una sobrecubierta especial de aluminio. Estos paquetes llevan una identificación de color para identificar las comidas seleccionadas por cada astronauta. De esa manera se evitan confusiones y cada cual puede dedicarse a sus manjares predilectos sin búsquedas engorrosas.

Además, los miembros de la tripulación van provistos de los tradicionales elementos de higiene personal, que Incluyen goma de mascar (para después de las comidas), cepillo de dientes, paños secos y mojados y toallas.

Todo esto —tanto la comida como los elementos de higiene— es conservado en. gabinetes a prueba de Incendios dentro de la cápsula Apolo.

Los estudios de- nutrición, llevados, a cabo por los laboratorios de Investigación Médica Aeroespacial de la:•base de Wright-Patterson, para la NASA, han demostrado que la comida que lavan los astronautas de la Apolo U ‘es en todo equivalente a los alimentos frescos que se consumen en la Tierra. Cada ración ha sido probada largo tiempo, hasta que no quedaron dudas de sus cualidades.

El mismo gusto de la comida fue objeto de especiales cuidados, para lograr que los sabores atrayentes y variados proporcionándoles el atractivo que la presentación de los alimentos les niega. El hacer de los momentos dedicados a la alimentación en el espacio una “pequeña fiesta gastronomita”, según el decir de uno de los expertos, ha costado también años de esfuerzos.

Otro dietista de laboratorios de Wright-Pattersoh lo definió así: “Queremos que cuando uno de nuestros muchachos regrese de una excursión por el espacio a la cápsula que es su hogar, encuentre en la comida apetitosa y caliente el, mismo sabor al  que se acostumbró en la -Tierra”.

Ejemplo del menú seleccionado por uno de los astronautas de la Apolo XI para los dos primeros días de la misión.
(R):reidratable y (B):bocado – de 6 a 8 por ración –

La Ciencia en la Edad Moderna Teorias Cientificas del Universo

La Ciencia en la Edad Moderna: Teorías Científicas del Universo

biografias de grandes astronomos

Biografía
Copérnico
Biografía
Johanes Kepler
Biografía
Tycho Brahe
Biografía
Galileo Galilei

LOS AVANCES DE LA CIENCIA: A partir del siglo XV comenzaron a producirse transformaciones significativas en la vida económica, política, social y cultural de Europa occidental, que fueron modelando lo que se conoce como Modernidad. Sin embargo, al abordar este período es importante advertir que no hubo un corte tajante con la Edad Media. Por el contrario, persistieron algunos aspectos de la Baja Edad Media, que marcaron una continuidad con el pasado.

En el plano cultural, el pensamiento de los humanistas –con su interés por el pasado-. las traducciones de los sabios de la Antigüedad y la nueva forma de concebir al hombre desplazaron el saber escolástico medieval. Se revalorizó la experiencia como fuente de conocimiento, en desmedro de la tradición que primaba durante la mayor parte de la Edad Media. La imprenta permitió difundir ampliamente no sólo el conocimiento de la Antigüedad sino también las obras de los eruditos medievales y la de los hombres del Renacimiento. En el arte surgieron nuevas formas de representación.

El desarrollo de la ciencia y de la técnica trajo consigo nuevas formas de concebir el universo que modificaron la imagen de los mundos conocidos. La evolución de los medios de transporte favoreció la expansión del comercio marítimo y los viajes de exploración. Con el descubrimiento de América y la profundización del conocimiento de África se amplió el horizonte geográfico de los hombres europeos.

Los adelantos científicos
Durante los tiempos del Humanismo y el Renacimiento, los estudios científicos cobraron gran importancia. Surgió un gran interés por las investigaciones en matemática, botánica, zoología, astronomía, medicina, historia, física, y demás ramas científicas.

La ciencia no era autónoma, sino que debió construir paulatinamente su independencia. Tuvo que despegarse del ámbito religioso, que frenaba los adelantos que se opusieran eran al dogma. Cada ciencia se preocupó por el problema del conocimiento: ¿Es posible conocer? ¿Cómo puede adelantar el conocimiento en cada rama científica?

A partir del siglo XV, aproximadamente, se operó un cambio radical en la concepción del mundo, que culminaría en los siglos XVI y XVII con una revolución científica. El logro más importante de la generación que estableció las bases de la nueva ciencia fue darle una mayor importancia al lenguaje matemático, comprender que era el empuje científico por excelencia. En adelante no se buscaría la comprensión de la naturaleza por la reservación inmediata sino por las estructuras matemáticas y mecánicas. Comprendieron que el universo no se movía por “carácter divino”, como se pensaba en e Medievo.

En física, astronomía y matemática se realizaron descubrimientos trascendentales. Entre ellos Nicolás Copérnico (1473-1543) demostró que la Tierra gira sobre su eje y que los planetas se mueven alrededor del Sol (teoría heliocéntrica). Sus ideas, combatidas por la iglesia de la época, fueron confirmadas años después por el alemán Kepler (1571-1630), quien perfeccionó el telescopio, y finalmente por Galileo Galilei (1564-1642).

En medicina también hubo importantes adelantos: investigaciones sobre anatomía humana (Andrés Vesalio, 1514-1564), estudios sobre infección (Jerónimo Francastori, quien recibió el nombre de “padre de la patología moderna”), y descubrimientos sobre la circulación de la sangre (Miguel Servet, 1511-1553, y Guillermo Harvey, 1578-1658).

También a partir del siglo XV, mediante sucesivas expediciones marítimas se descubrieron nuevas tierras y abrieron nuevas rutas. En poco más de dos siglos, civilizaciones hasta entonces desconocidas, y otras con las que solamente se habían establecido contactos a través de comerciantes y caravaneros, quedaron sólidamente unidas a Europa por mar.

La demanda de objetos de lujo -seda, marfil, joyas- y de costosas especias, así como de metales preciosos necesarios para la creciente actividad mercantil, se acentuó con la recuperación económica de mediados del siglo XV. Pero estos productos llegaban de Oriente a Europa a través de multitud de intermediarios que los encarecían, sin contar con que el flujo se vio bloqueado por el dominio turco en el Mediterráneo oriental a partir de la toma de Constantinopla (1453).

Fue la necesidad de buscar nuevas rutas para conseguirlos, junto a los avances en navegación y en la elaboración de los mapas, los que se combinaron para hacer posible la sucesión imparable de descubrimientos y conquistas.

Portugal y España lideraron esta búsqueda, cuyos éxitos más notorios fueron conseguidos por Vasco de Gama, al alcanzar la India a través del mar, y por Cristóbal Colón, en pos del mismo objetivo, al encontrar por error un continente desconocido en Europa. Las ansias de riqueza de reyes, mercaderes y aventureros, más los deseos evangelizadores de la Iglesia, inauguraron un nuevo escenario mundial en el que Europa colonizaría vastas zonas del mundo. (ver revolución científica siglo xv)

Avances Técnicos:
Los mayores avances técnicos durante el Renacimiento se legraron en el campo de las. industrias prácticas -como la textil o la imprenta- y en aquellas que permitían alcanzar riqueza o pode: -como la minería, la metalurgia o la navegación-. Muchos de los progresos técnicos alcanzados durante este período fueron posibles gracias a la importancia otorgada al estudio de la química ; de la física y a la aplicación de sus propiedades.

• Distintas innovaciones aceleraron el desarrollo de la actividad textil: el perfeccionamiento de los telares permitió que aumentara el número de tejidos producidos y, a partir del siglo xv. se generalizó el cardado de lana -operación que desenreda la fibra formando hilos-. También se difundieron nuevas telas, más baratas, más livianas y con mayores variaciones de color.

• La imprenta, introducida en Europa a mediados del siglo xv, trajo consigo el desarrollo de la industria del papel. Mediante la palabra escrita y las ilustraciones, la industria editorial contribuyó a la divulgación de la cartografía y de los tratados técnicos, como los de agricultura, de metalurgia y de arte militar.

• Las necesidades de los estados y de los comerciantes de contar con una mayor cantidad de metales preciosos -oro y plata-aceleraban los avances en el campo de la metalurgia. A mediados del siglo xv, se descubrió el método de amalgama, que permitía separar la plata del mineral en bruto extraído del yacimiento. Se impulsó también la metalurgia del hierro.

• Las guerras frecuentes entre los estados llevaron a aplicar los avances en la manipulación de los metales también en la mejora del armamento: se perfeccionó, por ejemplo, el uso del cañón, de la balística y del granizado de pólvora. Frente a la utilización de las armas de fuego, como el arcabuz, las tradicionales armaduras se volvieron inútiles, si bien los nobles continuaron utilizándolas en los torneos y los combates. La aplicación de las nuevas técnicas en la guerra obligó a la construcción de nuevas fortificaciones para aumentar las posibilidades de defensa de las ciudades y proteger a los civiles. El mayor uso de la artillería hizo necesario realizar muros de menor altura pero de mayor grosor. También se modificó la forma de estas fortificaciones para mejorar la capacidad de tiro.

• Con respecto a la navegación, uno de los logros más importantes fue el empleo de la brújula a partir del siglo xrv. Junto al antiguo astrolabio, necesario para medir la latitud, la brújula facilitó la orientación en la tierra y en el mar. También se llevaron a cabo importantes mejoras en las embarcaciones.

• Con respecto a los transportes terrestres, se introdujo el eje delantero móvil que, además de mejorar el diseño de los carruajes, permitió disminuir el riesgo de accidentes.

Los progresos técnicos desarrollados desde fines de la Edad Media permitieron a los comerciantes incrementar sus actividades, sobre todo a partir del auge alcanzado por el comercio marítimo. Para aumentar sus ganancias y realizar un mejor control de sus empresas, los comerciantes debieron perfeccionar el sistema económico. Entre los avances relacionados con la técnica de los negocios, la contabilidad fue muy importante porque permitió ordenar las operaciones contables. Al mismo tiempo, para efectuar transacciones en distintas ciudades y evitar el manejo de dinero al contado, se generalizó el uso de dos documentos: el cheque y la letra de cambio. También aparecieron los seguros comerciales como una forma de cubrir los riesgos, ante las posibles pérdidas de mercaderías y de barcos.

Avances en navegación
Con los aportes de los árabes, la ciencia náutica se había enriquecido de forma considerable. El Almagesto, manual cosmográfico debido al alejandrino Ptolomeo, las obras de Aristóteles sobre el espacio celeste y las del cardenal francés Fierre d’Ailly -que hablaban de la posibilidad de dar la vuelta al mundo por mar, y que eran conocidas por Colón- alumbraban nuevas teorías en numerosos campos de la ciencia.

Desde finales del siglo XV, los portugueses realizaron sus navegaciones fijando su posición marítima por medio de la Estrella Polar y, más tarde, por la altura del Sol a mediodía. Desde 1508, el rey Fernando el Católico hizo que sus capitanes se adiestrasen en el manejo del cuadrante y del astro-labio en la Casa de Contratación de Sevilla. Las tablas astronómicas, desde la Edad Media hasta bien entrado el siglo XVIII, fueron fundamentales para orientarse en el mar. La brújula, necesaria para la navegación, era conocida en China desde finales del siglo XI y usada desde mediados del siglo XIII.

Las cartas marítimas o portulanos trazados por los cartógrafos desde 1300 registran en un principio únicamente el Mediterráneo o el Báltico, pero estos mapas fueron perfeccionados bien pronto. El Atlas de los Mediéis, de 1351, señalaba ya la costa occidental de la India. Faltaba todavía un conocimiento exacto de África, pero era ya conocida como un continente rodeado de mares. Hacia 1300, españoles e italianos situaban en sus mapas universales países e islas ya conocidos o sospechados.

ALGUNOS AVANCES: 1543-1727: A finales del siglo XV y durante el XVI se produce una auténtica revolución en la ciencia y la filosofía. Nicolás Copérnico (1473-1543) rechaza la visión tradicional del Universo. Tycho Brahe (1546-1601) y Johannes Kepler (1571-1630) continúan su trabajo. Kepler aplica las observaciones de Brahe a la formulación de sus tres leyes del movimiento planetario.

Galileo Galilei (1564-1642) lleva más lejos todavía las teorías de Copérnico en Diálogo sobre los dos sistemas del mundo (1632). Sus trabajos principales están relacionados con el estudio del movimiento y la inercia.

Isaac Newton (1642-1727) publica sus leyes sobre la gravitación universal y ensayos sobre óptica. Asimismo desarrolla un cálculo diferencial e integral al que llega también Gottfried Leibniz(1646-1716). Jean Napier (1550-1617) inventa los logaritmos (1614). Rene Descartes (1596-1650) define la geometría analítica y Blaise Pascal formula una teoría de la probabilidad y una ley de la presión sobre fluidos, e inventa una máquina sumadora (1642) y una prensa hidráulica. Miguel Servet (h.1511-1553) descubre la circulación pulmonar y su papel en la circulación de la sangre. Willian Harvey( 1578-1657) describe la circulación de la sangre y la función del corazón (De motu coráis, 1628).

La invención del microscopio permite a Antón von Leeuwenhoek (1632-1723) estudiar los microorganismos. Christian Huygens (1629-95) formula una teoría ondulatoria de la luz, describe los anillos de Saturno e inventa el reloj de péndulo. Robert Boyle (1627-91) establece las propiedades físicas de los gases. William Gilbert (1540-1603) estudia el magnetismo (De magnete).

Robert Hooke (1635-1703) establece una ley de la elasticidad de los cuerpos. Francis Bacon(1561-1626)y Rene Descartes proveen de bases filosóficas a las nuevas ciencias. El Novum organum de Bacon se publica en 1620 y en 1637 el Discurso del método de Descartes. Otros filósofos importantes son Leibniz, Spinoza, Hobbes y John Locke, que aplica los nuevos adelantos a la psicología humana. Hugo Grocio (1583-1645) aboga por un sistema de derecho internacional (De jure
belli acpacis, 1625). Se funda en Toscana la primera academia científica (1657), a la que pronto siguen otras similares en Inglaterra (1662), Francia (1666) y Berlín (1670).

Biografia de Astronomos del Renacimiento Kepler Copernico Galileo

Biografía de Astrónomos del Renacimiento Kepler Copérnico Galileo

biografia de grandes astronomos antiguos

Biografía
Copérnico
Biografía
Johanes Kepler
Biografía
Tycho Brahe
Biografía
Galileo Galilei

Los mayores logros en la Revolución Científica de los siglos XVI y XVII ^vieron lugar en los campos más dominados por las ideas de los griegos: la astronomía, la mecánica y la medicina. Las concepciones cosmológicas, a finales de la Edad Media, se habían formado sobre una síntesis de las ideas de Aristóteles, Claudio Ptolomeo (el mas grande astrónomo de la antigüedad, quien vivió en el siglo II de C.) y la teología cristiana.

En la concepción ptolomeica o geocéntrica resultante, el universo se veía como una serie de esferas concéntricas con una Tierra fija o inmóvil en su centro. Compuesta de las sustancias materiales de tierra, aire, fuego y agua, la Tierra era imperfecta y se hallaba en cambio constante. Las esferas que la rodeaban estaban hechas de una sustancia cristalina y transparente, y se movían en órbitas circulares alrededor de ella.

El movimiento circular, de acuerdo con Aristóteles, era la clase de movimiento más “perfecta” y, por ende, apropiada para los “perfectos” cuerpos celestes que  creía estaban compuestos de una “quinta esencia” inmaterial e incorruptible. Estos cuerpos celestes, orbes puros de luz estaban incrustados en las esferas móviles y concéntricas, y en 1500 eran diez. Partiendo de la Tierra, las ocho esferas contenían la Luna, Mercurio, Venus, el Sol, Marte, Júpiter, Saturno y las estrellas fijas.

La novena esfera impartía su movimiento a la octava esfera de las estrellas fijas, mientras que a la décima esfera se le describía frecuentemente como  impulsora primaria, que se movía a sí misma e impartía movimiento a las otras esferas. Más allá de la décima esfera estaba el Empíreo o Cielo: el lugar de Dios y de todas las almas salvadas. Así, este universo ptolomeico cristianizado era finito.

Tenía un fin fijo en armonía con el pensamiento y las expectativas cristianos. Dios y las almas salvas estaban en un extremo del universo, mientras que los humanos estaban en el centro; a éstos se les había dado poder sobre la Tierra, pero su propósito real era alcanzar la salvación.

Sin embargo, esta visión no satisfacía a los astrónomos profesionales, que querían determinar las trayectorias precisas de los cuerpos celestes a través del cielo. Al encontrar que sus observaciones no siempre correspondían al esquema aceptado, los astrónomos trataban de “cubrir las apariencias” elaborando un detallado sistema de dispositivos.

Proponían, por ejemplo, que los cuerpos planetarios viajaban en epiciclos, esferas concéntricas dentro de esferas, que permitían a las trayectorias de los planetas corresponder más precisamente a las observaciones, a la vez que se adherían a las ideas de Aristóteles del movimiento circular planetario.

CopernicoCopérnico
Nicolás Copérnico (1473-1543) había estudiado tanto matemáticas como astronomía primero en Cracovia, en su nativa Polonia, y después en las universidades italianas de Bolonia y Padua. Antes de salir de Italia, en 1506, había tenido conocimiento de antiguos puntos de vista que contradecían la visión ptolomeica geocéntrica del universo. Entre 1506 y 1530 terminó el manuscrito de su famosa obra Sobre las revoluciones de las órbitas celestes, pero su propia timidez y temor al ridículo ante sus colegas astrónomos lo contuvieron de publicarla hasta mayo de 1543, poco antes de su muerte. (seguir leyendo…)

Tycho Brahe  Tycho (o Tyge)Tycho Brahe Brahe nació el 14 de diciembre de 1546 en Knudstrup, Escania; hoy Suecia pero entonces perteneciente a Dinamarca. Hijo del gobernador del castillo de Helsingborg, fue apadrinado por su tío Joergen.  El tío Joergen era un gran terrateniente y vicealmirante que había pedido a su hermano que cuando tuviera un hijo quería apadrinarlo y adoptarlo hasta el punto de considerarlo como hijo suyo. El gobernador le prometió a su hermano que así sería pero un incidente vino a postergar la promesa. (seguir leyendo…)

Johannes Kepler: El teólogo, profesor de matemáticas. Los estudios de Kepler, que siempJohannes Keplerre realizó con becas gracias a su precoz inteligencia, se encaminaban a la teología. También amaba las matemáticas, según él mismo nos dice y en la Universidad de Tubinga, su profesor Michael Maestlin, le ayudó a descubrir lo que sería el objetivo de su vida. Maestlin era un competente astrónomo. En las clases no podía enseñar el sistema copernicano, considerado en la Facultad de Teología contrario a las Escrituras, pero en privado iniciaba a unos pocos alumnos escogidos en la cosmología de Copérnico. El joven Kepler se entusiasmó desde el primer momento y, más osado, proclamaba públicamente su copernicanismo. (seguir leyendo…)

Galileo GalGalileo Galileiilei: Profesor de matemáticas, pero también de mecánica, astronomía y arquitectura militar, Galileo atrajo a numerosos estudiantes, especialmente a los cursos de astrología que dictaba. Aprovechando el descubrimiento que probablemente había hecho un desconocido óptico holandés de Middelburg, de nombre Hans Lippershey, Galileo construyó el primer telescopio. En Venecia, desde lo alto del campanil de San Marcos, el científico se volcó a sus primeras observaciones de los cuerpos celestes, comenzando por la Luna. El 7 de enero de 1610 remitió el resultado de sus largas vigilias nocturnas al gran duque de Toscana, Ferdinando de Medicis.  (seguir leyendo…)

Galaxia Via Lactea-Sistema Solar-Planeta Tierra-Astronomia Elemental

Galaxia Vía Láctea – Sistema Solar – Planeta Tierra Astronomía Elemental

Estructura

astronomia, planetas del sistema solarEl Sol, y el Sistema Solar con el, se encuentra en la galaxia llamada Vía Láctea. Se trata de una galaxia espiral catalogada como SII consistente en una agrupación de estrellas y gas y polvo interestelar con una mása de cien mil millones de veces la del Sol (lO(ll) Mo).

Una gran parte de esta materia (en torno al 90%) solo puede detectarse a través de los efectos gravitacionales que produce, no por la luz que emite; se trata por tanto de “materia oscura” que puede estar constituida por enanas blancas que ya se han enfriado (enanas negras), planetas gigantes (del tipo de Júpiter) que no tienen la mása suficiente como para brillar con luz propia, micro-agujeros negros (como los que postula Hawking que pudieron formarse en las primeras fases del Big Bang) o en forma de otros tipos de materia a la que no estamos acostumbrados en nuestro Sistema Solar (estrellas Q, …).

La estructura de la Galaxia consta de dos partes bien diferenciadas: el disco y el halo. Ambas presentan diferente simetría y composición estelar.

El halo galáctico esta formado por estrellas viejas, con unos 10 mil millones de años, llamadas “de la población II” agrupadas en cúmulos globulares. Se trata de estrellas con una baja proporción de elementos pesados, entendiendo por elementos pesados (o metales) todos aquellos que sean más masivos que el Helio (peso atómico superior a 4). La composición química de estas estrellas es prácticamente la misma que la que tenia el Universo primordial después del Big Bang (80% de Hidrogeno y 20% de Helio).

El material del que estan formadas no ha sido procesado anteriormente por otras estrellas y por eso mantienen la proporción de elementos químicos primordial. La distribución de cúmulos globulares presenta simetría esférica respecto al centro de la Galaxia, con una mayor densidad en la zona central (en la dirección de Sagitario). Estos cúmulos tienen órbitas muy elípticas cuyo periodo es de varios cientos de millones de años. La simetría esférica es un indicativo de que el halo se formo antes de que la materia que los constituye participara del proceso de “achatamiento” que origino más tarde el disco galáctico. La edad de estos cúmulos se puede obtener trazando el diagrama H-R de sus estrellas; en el vemos como las únicas estrellas que permanecen en la Secuencia Principal se corresponden con las menos masivas, que son las que más tiempo necesitan para abandonarla.

Por su parte, el disco galáctico se halla distribuido en un plano más o menos definido en el que se pueden distinguir dos partes: El bulbo central o núcleo y los brazos espirales. El diámetro del disco se estima actualmente en unos 25 Kpc con una anchura de 1 Kpc. Las estrellas muy jóvenes y las regiones de polvo interestelar se sitúan en la parte central de este disco en una zona de anchura no superior a 100 pc.

En el se encuentran las estrellas de la población I así como gas y polvo interestelar. Las estrellas de la población I son más jóvenes que las de la población II. Su contenido en elementos pesados es no despreciable, debido a que se han formado a partir de materia que ha sido reciclada por estrellas anteriores que ya evolucionaron, y que en los últimos estadios de su vida, liberaron los resultados de la nucleosíntesis al espacio interestelar.

En el núcleo, el disco galáctico se hace más abultado y puede considerarse una región más o menos esférica con un diámetro de unos 5 Kpc. Las estrellas que pueblan esta región son también de la población II, aunque la gran concentración de materia allí existente, no les ha permitido evolucionar de la misma manera que a las del halo.

La zona más externa del disco galáctico esta dominada por la presencia de los brazos espirales. Se trata de regiones en las que se agrupa la materia: estrellas, gas y polvo interestelar. En los brazos espirales es donde se encuentran los núcleos más activos de formación de estrellas. Perturbaciones de diferentes tipos hacen colapsar inmensas nubes de gas y polvo que, después de fragmentarse en otras más pequeñas, dan lugar al nacimiento de estrellas en grupos o cúmulos (estos cúmulos se conocen con el nombre de cúmulos abiertos o galácticos). El más famoso de estos cúmulos abiertos son las Pleiades en Tauro.

A la Galaxia se le conocen cuatro brazos espirales: el de Sagitario-Carina (el brazo Mayor), el de Escudo-Cruz (brazo Intermedio), el de Norma (brazo Interno) y el de Perseo (brazo Externo). El Sol se encuentra en una región intermedia entre el brazo de Sagitario Carina y el de Perseo, a unos 10 Kpc de distancia del centro galáctico, cerca por tanto, del borde de la Galaxia. La extinción que provoca la materia interestelar es la causante de que no veamos una luminosidad mayor en la dirección del centro (podemos decir que, en el visible, nuestro campo de visión hacia el centro es similar al que tenemos hacia el exterior), no obstante, la distribución espacial de los cúmulos globulares y, sobre todo, las observaciones radioastronómicas en la linea de 21 cm y las infrarrojas, nos indican claramente la posición del centro de la Vía Láctea.

El núcleo galáctico

Mención aparte merece el estudio del centro galáctico debido a los violentos sucesos que se supone que ocurren allí. La absorción interestelar lo hace inobservable en el visible (produce una disminución del brillo en unas 30 magnitudes) pero la luz emitida en el infrarrojo y en el dominio radio nos llega hasta aquí, permitiéndonos su estudio.

A partir de estas observaciones encontramos que en una región de 1 pc de diámetro se encuentra concentrada una cantidad de mása equivalente a entre uno y cuatro millones de veces la del Sol, en forma de un cúmulo estelar superconcentrado o de un agujero negro súper masivo. Sea cual sea el objeto allí existente, lo que parece claro es la existencia de un viento de gas y polvo hacia afuera a una velocidad de 750 km/seg.

Este viento ha formado una región con forma de anillo que rodea el centro galáctico, con un diámetro interno de 3.4 pc. Este anillo esta rotando a una velocidad de unos 90 km/seg. Además, se ha detectado una fuente compacta (menos de 20 U.A. de diámetro) de ondas de radio, a un segundo de arco del objeto en el que se supone que se sitúa el centro de la Galaxia. El problema que presenta la explicación del núcleo galáctico mediante la hipótesis del agujero negro, es que con uno de cien masas solares seria suficiente para producir la emisión de radiación gamma observada.

Por otro lado, todavía no esta claro si nuestra galaxia tiene una barra de materia cruzando el núcleo o no, es decir, si se trata de una espiral barrada o de una espiral normal. Para nosotros, situados en su interior, nos resulta mucho más fácil determinar la estructura global de otras galaxias situadas a millones de años-luz, que la de la galaxia en la que nos encontramos. Podemos determinar la estructura fina, los detalles más concretos, pero no verla en su totalidad.

EL UNIVERSO A GRAN ESCALA

Clasificación de Hubble de las galaxias

La clasificación de galaxias más aceptada en la actualidad proviene de la efectuada en 1925 por Edwin Hubble, el padre de la Cosmología moderna. Esta clasificación distingue cuatro tipos principales de galaxias: Las elípticas, caracterizadas por su forma esférica o elipsoidal, apariencia uniforme y luminosidad regularmente distribuida.

El polo opuesto serian las galaxias espirales, que presentan dos componentes, una parte central (el bulbo, similar a primera vista a las galaxias elípticas) y un disco plano sobre el que se puede observar una estructura espiral. Las galaxias espirales pueden ser divididas en dos grupos, espirales ordinarias y espirales barradas, dependiendo de si tienen una barra de materia atravesando el centro o no.

Las galaxias lenticulares (o SO) también tienen un bulbo central y un disco, pero este no presenta estructura espiral. Finalmente, como su propio nombre indica, las galaxias irregulares no presentan una estructura bien definida; no presentan un bulbo y tienen una presencia caótica.

Cada una de estas clases se divide en grupos. Las galaxias elípticas se clasifican de 0 a 7 de acuerdo con su elipticidad (E0 para las esféricas, E7 para las más achatadas). Las espirales varían desde la Sa hasta la Sd (se incluyen también las del tipo Sm) atendiendo a la disminución del tamaño relativo entre el bulbo y el disco y a la separación de los brazos espirales. La misma división se aplica a las espirales barradas SB.

Esta clasificación cubre diferencias físicas además de las puramente morfológicas. Las galaxias elípticas son más rojas que las espirales, esto es interpreta como una diferencia en sus constituyentes estelares. Además, en las galaxias elípticas la emisión de luz esta dominada por la que proviene de estrellas, del tipo de las gigantes rojas.

La población estelar de estas galaxias parece similar a las de los cúmulos globulares, a las estrellas de la población II. En contraste, en las galaxias espirales todavía existe una cierta actividad en la formación de estrellas; pueden encontrarse estrellas jóvenes con una emisión dominante en el azul. Las galaxias lenticulares tienen población estelar similar a las elípticas.

Mientras que para las galaxias elípticas y lenticulares se aprecia más o menos, la misma población estelar, cualquiera que sea su tipo, para las espirales, la población relativa de estrellas jóvenes aumenta de los tipos Sa a Sm y para las irregulares es todavía mayor.

En lo que respecta al contenido de materia interestelar (gas y polvo), se aplican las mismás consideraciones; las galaxias elípticas no contienen prácticamente nada de esta material mientras que en las espirales e irregulares se detectan grandes cantidades (en las irregulares, la fracción de gas neutro alcanza entre el 10 y el 20% del total de la materia de la galaxia).

Las S0 son un tipo intermedio entre las elípticas y las espirales; dos terceras partes no contienen nada de gas, y el resto tienen tanto como las espirales. De esta forma, la clasificación morfológica se corresponde bastante bien con las diferencias físicas entre las galaxias. No obstante hay que tener presente que esta clasificación no responde a todos los fenómenos observados, ya que se encuentran galaxias de los mismos tipos que presentan fenómenos físicos bien diferenciados.

Grupos de galaxias

Las galaxias no se encuentran uniformemente distribuidas a lo largo del espacio sino que aparecen en grupos. El ejemplo más cercano lo constituyen las Nubes de Magallanes, dos galaxias irregulares, difusas satélites de la Vía Láctea. La interacción gravitacional entre la Vía Láctea y sus dos satélites da lugar a la Corriente de Magallanes, una corriente de Hidrogeno neutro arrancado de las Nubes de Magallanes por las fuerzas de marea ejercidas por nuestra propia Galaxia, que forma un puente de materia que une la Galaxia a sus satélites.

Las galaxias gigantes a menudo están acompañadas por un numero más o menos numeroso de pequeños satélites gravitando en torno a ellas. Así, la galaxia de Andrómeda M31, tiene por satélites a M32, NGC 147 y NGC 205, tres bonitas galaxias elípticas rotando en torno a ella con un periodo de unos 500 millones de años. M31 es una espiral gigante con una masa de una vez y media la de la Galaxia.

A una escala un poco mayor advertimos la presencia de varias galaxias en un radio de 1.3 Mpc y una ausencia total de las mismas en una distancia de entre 1.4 y 2.4 Mpc. Esto induce a pensar en la existencia de un grupo de galaxias, el llamado Grupo Local, compuesto por dos espirales gigantes (la Galaxia y M31), dos espirales medias (la galaxia del Triángulo M33 y la Gran Nube de Magallanes), una galaxia elíptica con núcleo (M32), media docena de galaxias irregulares pequeñas, una docena de galaxias elípticas enanas y unos cuantos objetos muy débiles con apariencia de cúmulo globular. Según van mejorándose las técnicas astronómicas, se añaden nuevos objetos a este Grupo Local.

Por otro lado, es muy posible que la lista este bastante incompleta ya que las galaxias elípticas enanas, por ejemplo, no son observables a una distancia mayor que la que nos separa de la M31, lo que significa que podrían existir unas cien galaxias de este tipo que todavía no se han detectado.

El Grupo Local no presenta una condensación central de materia, más bien esta se concentra en dos núcleos principales: en torno a la Vía Láctea y en torno a M31. La ligazón gravitatoria del Grupo Local no esta todavía muy clara, aunque parece claro que las galaxias se agrupan en este tipo de “pequeñas estructuras”.

Actualmente se han catalogado más de 50 grupos en un radio de 16 Mpc, cada uno con varias decenas de miembros. Se trataría de las estructuras básicas de las que constituyen el Universo a media y gran escala. La definición que se adopta para Grupo de Galaxias es la de una asociación de galaxias, de las que una docena son más brillantes de magnitud absoluta -16 en un volumen de alrededor de un Mpc cubico (esto equivale a una densidad de galaxias diez veces superior a la media fuera de los grupos).

La pregunta que nos hacemos a continuación es si todas las galaxias pertenecen a un grupo o a una estructura mayor del Universo. Observacionalmente se encuentra que entre el 10 y el 20% de las galaxias no pertenecen a ningún grupo. A estas galaxias se las conoce como galaxias de campo.

La determinación de la mása de un grupo de galaxias se realiza por dos procedimientos diferentes: por un lado se estudian los efectos gravitacionales (obteniéndose la mása dinámica) y por otro se analiza la luz que nos llega de las galaxias (dando lugar a la mása luminosa). Comparando ambos resultados se comprueba que la mása dinámica es entre cuatro y diez veces superior a la luminosa. Esto significa que una gran parte de la materia que compone los grupos de galaxias “no brilla”, es decir, no emite luz suficiente para ser observada desde la Tierra o bien esta en una forma de materia que no emite luz. A esta mása se le suele llamar “materia oscura”.

Cúmulos y supercumulos de galaxias

Parece existir una tendencia natural de la materia a juntarse en unidades cada vez más grandes. Los quarks (uno de los constituyentes básicos de la materia) se agrupan para formar bariones, los cuales a su vez forman los átomos junto con los electrones. Los átomos se juntan en estrellas y estas son los constituyentes básicos de las galaxias, quienes, como hemos visto, se juntan en grupos de unas decenas para formar los Grupos de galaxias. Los grupos de galaxias constituyen los cúmulos de galaxias los cuales a su vez se agrupan en supercúmulos de galaxias, las estructuras más grandes del Universo conocido.

A la vista de las observaciones astronómicas no parece una labor fácil decidir una definición clara de lo que se entiende por cumulo de galaxias. Para intentar clarificar este termino, se ha recurrido a una herramienta utilizada en Estadística: las funciones de correlación. Se parte de la idea de que si las galaxias se encuentran en un cumulo, la distancia media que las separa es bastante menor que si estuvieran distribuidas uniformemente. El calculo de las funciones de correlación es bastante complicado.

En primer lugar se necesita disponer de un catalogo de galaxias que nos de su posición aparente. Este catalogo fue elaborado en el observatorio de Lick y representa un total de un millón de galaxias (hasta magnitud 18.7). La esfera celeste se divide en cuadraditos de 1 grado cuadrado sobre los que se cuentan las galaxias que estan dentro de cada uno, comparándose este numero con la densidad media.

Este análisis muestra la existencia de un fondo uniforme de unas 50 galaxias por grado cuadrado, sobre el que se superponen un gran numero de cúmulos con densidades que rondan las cien galaxias por grado cuadrado. Esta tendencia a la agrupación de las galaxias disminuye drásticamente para escalas de distancias mayores de 20 Mpc, correspondiéndose con las dimensiones de los mayores cúmulos observados.

No obstante, las funciones de correlación no nos dicen nada acerca de cual es el nivel de concentración de galaxias necesario para que tengamos un cumulo. La definición es bastante más arbitraria. Normalmente se llama cumulo de galaxias a aquellas agrupaciones que, en un volumen como el del Grupo Local (una esfera de unos pocos Mpc) contienen un numero de galaxias comprendido entre varios cientos y varias decenas de miles. La densidad de galaxias en los centros de los cúmulos muy ricos, puede llegar a ser de miles a millones de veces superior a la densidad media del Universo.

Los dos cúmulos de galaxias más cercanos a la Vía Láctea son el cumulo de Virgo, a una distancia de 20 Mpc en la dirección del Polo Norte Galáctico y el Cumulo de Coma, en la constelación de la Cabellera de Berenice a 100 Mpc de nosotros.

Del estudio del catalogo de galaxias de George Abell, realizado con la cámara Schmidt de Monte Palomar y que comprende galaxias hasta magnitud 21, se ha podido detectar la existencia de dos tipos principales de cúmulos de galaxias: los cúmulos regulares, muy concentrados y los irregulares, con una concentración y un numero de miembros menor y por lo tanto con una mayor dispersión.

Los cúmulos regulares de galaxias tienen simetría esférica y una gran concentración de galaxias en su parte central (a menudo, el centro del cumulo lo ocupa una galaxia elíptica supergigante). Las velocidades de rotación de las galaxias del núcleo son del orden de 1000 Km/seg. La mayoría de las galaxias en estos cúmulos son elípticas o lenticulares, con muy poca materia interestelar, El diámetro de estos cúmulos oscila entre 1 y 10 Mpc, sus másas son del orden de 10l5 Mo, equivalente a diez mil galaxias como la Vía Láctea. El cercano Cumulo de Coma es el prototipo de cumulo galáctico regular.

Los cúmulos irregulares no muestran simetría ni una concentración en la distribución de las galaxias que lo forman. Las velocidades orbitales de la galaxias son muy pequeñas, sus tamaños varían entre 1 y 10 Mpc y el rango de másas entre 10(12) y 10(14) Mo. Un exponente claro de cumulo irregular es el Cumulo de Virgo. También pueden considerarse dentro de esta categoría al Grupo Local y a todos los grupos de galaxias distribuidos en nuestras inmediaciones.

El problema de la materia oscura que vimos en el punto anterior persiste cuando hablamos de cúmulos de galaxias, es decir, la mása dinámica del cumulo no coincide con la mása luminosa, siendo esta ultima inferior.

Los ricos cúmulos de galaxias de 10 Mpc de diámetro no son las estructuras más grandes del Universo. De hecho, su distribución consiste en un fondo más o menos uniforme de cúmulos separados 55 Mpc de promedio, sobre los que se superponen cúmulos de cúmulos, los llamados Supercúmulos de galaxias.

Por ejemplo, nuestro Grupo Local, junto con algunas docenas más de grupos cercanos de galaxias, es un miembro de un sistema mucho mayor de 15 Mpc de radio, centrado en el cumulo de Virgo, conocido como Supercúmulo Local. Por otro lado, este supercúmulo es relativamente pobre; contiene únicamente un cúmulo rico (en su centro) y varios grupos de galaxias.

En la actualidad se han encontrado más de 50 supercúmulos, cada uno con un promedio de unos doce cúmulos ricos y varias decenas de cúmulos más pequeños. El diámetro de estas estructuras es del orden de 100 Mpc.

Se cree que la jerarquía de las estructuras del Universo se detiene en los supercúmulos de galaxias. De hecho, se obtiene que a escalas mayores de 1000 Mpc, la variación en la densidad de galaxias se reduce a la mitad de la densidad media del Universo, lo que significa que, a escala muy grande, el Universo es homogéneo e isótropo.

En la actualidad se cree que la distribución de cúmulos y supercúmulos de galaxias en el Universo no es homogénea. Se ha observado que esta distribución tiene lugar en grandes “burbujas” de espacio de forma que la materia se encuentra en las paredes de estas estructuras, quedando la parte central constituida por un vacío (de materia) casi absoluto. En los puntos de contacto entre las burbujas se localizarían las grandes distribuciones de materia antes mencionadas, la más cercana de las cuales se conoce como “la Gran Muralla”.

Sea como sea nuestro Universo, parece factible hoy en día, que en un plazo de tiempo razonablemente corto (en escala humana) podremos contar con una visión bastante aproximada de como es la distribución global de materia en la parte del Universo en la que nos encontramos.

EL BIG BANG

Las observaciones nos indican que el Universo se esta expandiendo, es decir, las galaxias se estan separando unas de otras. Echando la vista hacia atrás, esta expansión significa que antes, el Universo era más pequeño, las galaxias estaban más juntas.

La expansión del Universo no hay que entenderla como la clásica imagen de una artefacto que ha explotado y sus piezas se separan unas de otras en el espacio exterior, ajeno a la propia explosión, más bien se trata de una expansión del propio espacio-tiempo, que arrastra a los objetos materiales en el inmersos. En este sentido, el punto en donde se produjo la Gran Explosión (Big Bang) no es ninguno en concreto, sino más bien es todo el Universo (aquí, en Logroño, en Canopo y en cualquier lugar del Universo).

Daremos aquí un pequeño repaso a lo que se conoce como Modelo Estandar del Big Bang. Para ello comenzaremos una centésima de segundo después del comienzo de la expansión, hace entre 13 y 20 mil millones de años. Lo anterior a esa primera centésima de segundo inicial y hasta 10-47 segundos después del Big Bang pertenece al dominio de la Mecánica Cuántica (alguna de cuyas predicciones ya han sido confirmadas observacionalmente mediante el satélite COBE) y de ahí hasta el cero, corresponde al dominio de las teorías de Gran Unificación (que pretenden configurar una teoría capaz de explicar la Gravitación y las otras tres fuerzas conocidas, Electromagnetismo, interacción Débil y fuerza Fuerte, como distintas facetas de esa única “Superfuerza”).

En t = 0.01 seg. el Universo tenia una temperatura de unos cien mil millones de grados K, con una densidad de cuatro mil millones de veces la del agua. En estas condiciones, la materia y la radiación se encuentran acopladas y ni siquiera los neutrinos eran capaces de escapar a esta interacción.

Un tercio de segundo después, los neutrinos dejaron de interactuar apreciablemente con la materia y se desacoplaron. A partir de ese momento evolucionaron de forma independiente. Esos neutrinos llenan todo el Universo desde entonces, constituyendo un baño de partículas que no ha podido ser detectado.

En t = 1.1 seg. comenzó la aniquilación de pares e+ e-: la destrucción de materia y antimateria para dar luz. Un pequeñísimo exceso de la materia sobre la antimateria fue el que permitió más tarde que se formaran las galaxias y con ellas las estrellas y los planetas.

A los 3 minutos y 46 segundos comienza la nucleosíntesis primordial: la formación de núcleos de Deuterio, Helio y una pequeñísima proporción de Litio.

En t = 4 min. ya se había producido todo el Helio observado actualmente en el Universo, quedando una composición de un 75% de Hidrogeno y un 25% de Helio aproximadamente.

El hecho de que la explicación vaya tan despacio en esta primera fase se debe a que en esa época, el tiempo necesario para que un evento tuviera carácter cosmológico, es decir, para que afectara a una parte significativa del Universo, era muy pequeño debido a su reducido tamaño.

En la actualidad, para que un evento tenga carácter cosmológico, hay que esperar un tiempo igual a 10 veces la vida del Universo. Esto se resume diciendo que el Tiempo Característico del Universo primigenio era mucho menor que ahora (Tiempo Característico = Tiempo necesario para que una región dada del Universo doble su tamaño por la expansión cosmológica). De esta forma, en Cosmología, el tiempo se mide con potencias de 10 (tanto positivas como negativas).

Al cabo de media hora, se habían aniquilado todos los pares electrón-positrón apareciendo el estado de vacío que encontramos hoy. De esta aniquilación se salvaron uno de cada mil millones de electrones, suficiente para neutralizar la carga eléctrica positiva de los protones y constituir un Universo globalmente neutro en carga eléctrica.

En este momento había mil millones de fotones por cada nucleón. A esta época se le llama “época de la radiación” ya que la alta energía de la misma impedía la formación de los átomos. La temperatura había descendido a unos 300 millones de grados K y la densidad era del 10% de la del agua.

Para que se formaran átomos había que esperar a que la temperatura descendiera por debajo de los 4000 K. Entre t = 300000 años y un millón de años, prácticamente toda la materia paso a formar parte de átomos, produciéndose el desacoplamiento materia radiación. Antes de que esto ocurriera, el Universo se parecía a la superficie del Sol:

Caliente, opaco y lleno de luz amarillenta. Después se hizo transparente, al tiempo que la mayor parte de la energía pasaba a formar parte de la materia. Terminaba así la era de la radiación y comenzaba la “era de la materia” en la que nos encontramos actualmente.

La radiación del Universo dejo de interactuar apreciablemente con la materia neutra, desacoplándose ambos y evolucionando a partir de entonces de manera independiente (como había ocurrido anteriormente con los neutrinos). La radiación lleno todo el Universo mientras que la materia tendía a configurar grandes agrupaciones.

La radiación que se desacoplo en aquella época es la que descubrieron Pencias y Wilson en 1965 como un fondo cósmico de microondas. Este baño de radiación es altamente isótropo, es decir, presenta las mismás características en todas las direcciones en las que se observe. Su espectro corresponde al de un cuerpo negro a 2.7 K, siendo esta la temperatura actual del Universo.

Al final de la era de la radiación, la densidad era de unos 10 millones de átomos por cada litro de Universo, mientras que en la actualidad se encuentra, en promedio en 1 átomo por cada 1000 litros.

En la época dominada por la radiación debieron crearse las irregularidades que más tarde darían lugar a la formación de las estructuras a gran escala del Universo, en las que se hallan incluidas las galaxias y en ellas las estrellas. Este proceso no esta bien comprendido en la actualidad, existiendo dudas de que se formo antes, si las grandes estructuras y a partir de ellas las pequeñas, o al revés.

Actualmente, entre 13 y 20 mil millones de años después, se han formado unos cien mil millones de galaxias, cada una de ellas con un promedio de unos cien mil millones de estrellas, lo que hace un total de diez mil millones de billones de soles, repartidos a lo largo y ancho de un Universo observable de entre 10 y 20 mil millones de años luz de radio.

La Astronomia en la Exploracion Espacial Estudio del Universo

La Astronomía en la Exploración Espacial: Estudio del Universo

En la investigación astronómica, el descubrimiento de nuevos tipos de estrellas es análogo al descubrimiento de nuevos tipos de partículas en la física atómica. La radioastronomía reveló la existencia de discretas fuentes de radio en el universo, y en 1960, en Estados Unidos, A.R. Sandage consiguió un importante adelanto al identificar una de estas fuentes con un objeto tenuemente visible mediante un telescopio óptico. Era el primero de los quásars fuentes pequeñas pero sumamente energéticas, caracterizadas por una peculiaridad en sus espectros que indica que se mueven a una velocidad cercana a la de la luz.

astronautaEn 1967, Anthony Hewish y Jocelyn Bell descubrieron el primer pulsar, otra fuente de ondas de radio que fluctúa periódicamente. Por un momento, pensaron que podían proceder de alguna forma distante de vida inteligente que trataba de comunicarse, pero esta posibilidad fue descartada cuando se descubrieron otros ejemplos del mismo fenómeno. La frecuencia de las ondas de radio de los púlsars  varía entre unas pocas centésimas de segundo y alrededor de cuatro segundos.

Al parecer, los púlsars son estrellas neutrónicas colapsadas, es decir, objetos originalmente masivos donde la materia ha llegado a concentrarse tanto que los electrones y los protones se han unido para formar neutrones. Probablemente, no tienen más de unos pocos kilómetros de diámetro, y la pulsación se debe aparentemente a su rápida rotación, del mismo modo que la cabeza giratoria de un faro produce un haz de luz a intervalos regulares en todas direcciones.

En 1962, el espectro astronómico se amplió aún más gracias a las originales investigaciones de B.B. Rossi sobre los rayos X procedentes del espacio. Más concretamente, Rossi identificó una fuente de rayos X en Escorpión X-l. Dos años más tarde, las ondas de radio proporcionaron más indicios sobre los mecanismos del universo.

Con una gigantesca antena diseñada para recibir las señales de los satélites, A.A. Penzias y R.W. Wilson, de la empresa Bell Telephone, en Estados Unidos, registraron una radiación de fondo en la región de las ondas de radio, procedente de todas direcciones, correspondiente a las emisiones de un cuerpo negro a una temperatura de 3,5 °K. En la Universidad de Princeton, R.H. Dicke y P.J. Peebles pudieron ofrecer una explicación teórica para este fenómeno.

Según la teoría del «big bang» sobre el origen del universo, la radiación liberada en la explosión inicial debe haberse distribuido y enfriado progresivamente. Los cálculos indicaban que la temperatura actual del universo debía ser de unos 5 °K, con cierto margen para una serie de incertidumbres. Era razonable suponer que la radiación observada por Penzias y Wilson era la radiación natural de fondo del universo enfriado. Los cosmólogos consideran este fenómeno como una de las pruebas más convincentes en favor de la teoría del «big bang».

Los experimentos de Rossi se efectuaron mediante sondas instaladas en cohetes, lo cual nos recuerda que para 1960 se habían logrado considerables progresos en el campo de los satélites de observación no tripulados. Sus posibilidades se habían presagiado con cierta confianza ya en 1955, cuando tanto la URSS como Estados Unidos los incluyeron provisionalmente entre sus contribuciones al Año Geofísico Internacional (AGÍ).

Sus ventajas sobre los cohetes-sonda, como los utilizados por Rossi, residían en su capacidad para registrar y transmitir informaciones durante largos periodos, no solamente durante unos pocos minutos. Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el AGÍ, pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.

Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958. Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960. A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Sondas Espaciales Lunik Surveyor Envio de Sondas a la Luna

La Sondas Espaciales: Lunik Surveyor Envio de Sondas a la Luna

El nacimiento de la astronáutica: ¿Qué es una sonda?

En la terminología espacial se llama sonda a todo ingenio lanzado al espacio por medio de cohetes y provisto de los instrumentos de medición y radiocomunicación que le permiten la exploración automática del espacio. Algunas sondas disponen de aparatos fotográficos o de televisión para tomar vistas de las superficies de los astros que exploran; otras son dirigidas de forma que lleguen a posarse en la superficie del astro (como las enviadas a la Luna, Venus y Marte).

La técnica de navegación de las sondas es algo más que una simple extrapolación de la empleada en los satélites artificiales: las distancias de, a lo sumo, miles de kilómetros de éstos, se convierten en decenas de millones en el caso de una sonda destinada a Marte, por ejemplo, lo que complica extraordinariamente los sistemas de navegación y seguimiento.

Sin embargo, los problemas de la investigación por medio de sondas se centran en la dificultad de poder emitir imágenes lejanas suficientemente detalladas, ya que la energía disponible a bordo para su transmisión es muy limitada. Por otra parte, las sondas que se envían hasta la superficie de otros astros deben posarse en ellos con suavidad y quedar en una posición de reposo adecuada para su buen funcionamiento.

El empleo de sondas espaciales ha proporcionado importantes avances en el conocimiento científico de la superficie de la Luna, Venus y Marte, y muy recientemente de Mercurio y Júpiter, desbancando totalmente a los más modernos observatorios astronómicos terrestres en la investigación de los planetas y astros menores del Sistema Solar.

Sondas lunares: Los datos suministrados por las sondas enviadas a la Luna han sido fundamentales para realizar los programas tripulados y para el envío de sondas profundas destinadas a estudiar otros astros del Sistema Solar.

Pueden dividirse en cuatro grandes grupos o familias:

1) Sondas de vuelo abierto.

2) Sondas de alunizaje, divisibles a su vez en sondas de impacto y de alunizaje suave.

3) Sondas de alunizaje con órbita intermedia alrededor de la Luna.

4) Satélites artificiales lunares.

Entre las del primer grupo cabe destacar el Lunik 1, soviético, por el impacto que causó en la opinión pública, en tanto que el primer lanzamiento de un ingenio destinado a nuestro satélite, pasó a unos 7.400 kilómetros de éste y entró en órbita solar. Los tres Pioneer estadounidenses que lo habían precedido constituyeron un absoluto fracaso. El Lunik 3 (octubre de 1959) fue un importante éxito de la tecnología astronáutica soviética: circunvalé la Luna y transmitió por primera vez fotografías de su cara oculta.

La sondas espaciales Lunik Surveyor Envio de Sondas a la Luna

Sonda Lunik, destinada a la astronáutica soviética a la exploración de la Luna. Con el programa Lunik la U.S. demostró la posibilidad de explorar automáticamente el satélite, sin arriesgar vidas humanas.

En este grupo debe incluirse también la serie Zond soviética (1965 1970), en principio destinada a la investigación de los planetas cercanos y después cambiada radicalmente de objetivo: a partir del Zond 4 todos los vehículos de esta serie parecen haber sido modelos derivados de las cápsulas habitadas Sojuz, y dedicados exclusivamente a la investigación lunar.

El Zond 5 fue el primer vehículo recuperado tras un vuelo circunlunar, mientras que los Zond 6, 7 y 8 permitieron ensayar las técnicas de reentrada en la atmósfera con “rebote” sobre las capas intermedias de la misma. Todos ellos iban equipados, además, con equipos fotográficos automáticos e instrumentos registradores de diversos parámetros.

En el segundo grupo debe incluirse el Lunik 2 (septiembre de 1959), que fue el primer objeto fabricado por el hombre que estableció contacto con otro cuerpo en el espacio.

La contrapartida estadounidense la constituyó la serie Ranger, destinada a fotografiar la Luna de cerca, pero en los años 196162 los deseos superaban las propias posibilidades y los seis primeros Ranger fallaron total o parcialmente.

Sólo consiguieron su objetivo los tres últimos de la serie. Por esta razón, mientras preparaba el ambicioso programa Lunar Orbiter, Estados Unidos intentó ganar la partida a los soviéticos con la serie Surveyor, destinada a lograr alunizajes suaves.

Sin embargo, una vez más se adelantaron sus oponentes con el Lunik 9 (enero de 1966), gran éxito tras cinco fracasos parciales que lo precedieron en otras tantas misiones Lunik. Cuatro meses más tarde, en mayo de 1966, el Surveyor 1, primero de una serie afortunada, lograba alunizar y obtener fotografías de gran calidad del suelo lunar.

En el tercer grupo hay que incluir los Lunik de los números 16 al 21. Cabe destacar el Lunik 16 (septiembre de 1970), cuya cápsula de descenso, equipada con un brazo articulado, tomó muestras de la superficie lunar en el Mar de la Tranquilidad y regresó a la Tierra. Con esta misión y las posteriores los soviéticos demostraron la posibilidad de explorar la Luna por medio de aparatos automáticos, evitando así los riesgos y las costosas inversiones que tuvieron que afrontar los estadounidenses con el programa Apolo.

El Lunik 17 (noviembre de 1970) alunizó en el Mar de las Lluvias y de su interior salió un vehículo lunar teledirigido, el Lunojod 1, que disponía de varios equipos de televisión, un telescopio de rayos X, detectores de radiación, un analizador químico por dispersión de partículas y un penetrómetro. La mayor parte de estos dispositivos iban encerrados en un compartimiento estanco mantenido a la presión atmosférica y con temperatura regulada. Como fuente de energía durante los períodos de noche lunar se utilizaba un reactor isotópico. 

La vida útil del Lunojod 1 fue de nueve meses, durante los cuales recorrió un total de 10 kilómetros transmitiendo más de 180.000 imágenes de televisión. El Lunik 18 (septiembre de 1971) se estrelló en una región próxima al Mar de la Fertilidad. Mientras que el Lunik 19 estudió las irregularidades del campo gravitatorio lunar, el Lunik 20 (febrero de 1972) realizó una misión similar a la del 16, recogiendo muestras lunares y trayéndolas a la Tierra.

La serie de investigaciones lunares soviéticas finalizó con el Lunik 21, lanzado el 8 de enero de 1973, llevando a bordo el Lunojod 2, casi cien kilogramos más pesado que su antecesor (840 frente a 756), y que construyó, cómo éste, un gran éxito de la exploración automática.

Entre los satélites artificiales lunar destacan los Lunik 10, 11 y 12 y la serie Lunar Orbiter estadounidense, cuyas fotografías fueron imprescindibles para la preparación de las misiones Apolo.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Que es un satelite artificial? Uso y Funciones de Satelites Artificiales

¿Qué es un satélite artificial? Uso y Funciones de Satélites Artificiales

El nacimiento de la astronáutica: Satélites artificiales

Se entiende por satélite artificial todo cuerpo fabricado por el hombre y puesto por él en órbita terrestre, lunar o alrededor de otro astro del Sistema Solar. No debe confundirse con las sondas interplanetarias, de las que nos ocuparemos más adelante.

satelite artificial

En teoría, el principio fundamental en que se basa la comunicación vía satélite es bastante simple, pero resulta muy complejo de llevar a la práctica. Una vez situado en órbita, el satélite de telecomunicaciones es un punto fijo en el espacio que puede ser utilizado para reflejar o retransmitir una señal de radio de alta frecuencia.

La señal audio, vídeo o de datos que se transmite se envía al espacio y es recibida por el satélite, que la amplifica y la retransmite a la Tierra. Esto permite que la señal, que solamente puede viajar en línea recta, «rebote» a lo largo de miles de kilómetros hasta unas localidades situadas en todo el mundo.

Salvo raras excepciones, los satélites de telecomunicaciones son geoestacionarios o están colocados en una órbita especial, a casi 36.000 km. de altura sobre el ecuador, con una velocidad angular igual a la terrestre, por lo que se mantienen fijos respecto a un punto cualquiera de la superficie de la Tierra. Los satélites geoestacionarios ofrecen a las telecomunicaciones las ventajas siguientes:

tres satélites son suficientes para cubrir toda la superficie terrestre (excluidos los casquetes polares)
en conjunto, el sistema de telecomunicaciones (satélites y estaciones terrestres) tiene una configuración fija, lo que simplifica considerablemente el modo de operar y hace que las interferencias puedan controlarse mejor; todo ello permite la instalación en el espacio de una gran capacidad de comunicación.

Los satélites artificiales se mueven con arreglo a las mismas leyes que gobiernan el movimiento de los planetas alrededor del Sol.

Describen, por tanto, órbitas elípticas, generalmente de escasa excentricidad; los puntos de sus órbitas que están más cerca y más lejos de la Tierra se denominan, respectivamente, perigeo y apogeo (perigeo y apogeo cuando se trata de un astro cualquiera); el tiempo que emplean en dar una vuelta completa es el período, que, en la mayor parte de los satélites terrestres, oscila alrededor de una hora y media.

Su velocidad varía a lo largo de la órbita, alcanzando un valor máximo en el perigeo y mínimo en el apogeo.

La puesta en órbita de un satélite requiere básicamente dos operaciones: elevarlo hasta la altura prefijada y comunicarle una velocidad orbital adecuada para que se mantenga en ella. Por lo general, es conveniente que el perigeo sea lo más elevado posible, ya que la fricción con la atmósfera impone una seria limitación a la vida de los satélites; los hay que sólo han permanecido una pocas horas en órbita, mientras que otros tienen asegurada una permanencia de centenares de años, muchos más de los que puede durar el funcionamiento de los aparatos que contienen.

La forma, estructura y características mecánicas de un satélite artificial dependen de muchos factores. El más importante es el volumen de que se dispone cuando se proyecta, el cual está en función de los equipos que debe albergar, y muy especialmente de la potencia del lanzador en cuya ojiva ha de instalarse.

Un segundo factor condicionante viene dado por la aceleración que debe soportar, las vibraciones a que está sometido y la temperatura que debe resistir. Finalmente, los métodos de estabilización y alimentación de energía imponen una nueva limitación: la concepción de un satélite alimentado por medio de baterías eléctricas será muy distinta de la de otro que deba utilizar la energía solar por medio de paneles de células fotoeléctricas.

copernico, astronomo

La forma , estructura, y características mecánicas de un satélite dependen de su volumen y de su aceleración, las vibraciones y las temperaturas que debe resistir, como asi también del método de estabilización y de alimentación de energía. Vista del satélite ruso Protón, el de mayores dimensiones de los construidos por la Unión Soviética.

Actualmente, existen más miles satélites o restos de ellos en órbita alrededor de la Tierra, de los cuales un buen número no emiten ya ningún tipo de datos. otros funcionan sólo en parte y un centenar, aproximadamente, están en pleno rendimiento. Los fines a que han sido destinados cubren un amplio campo de aplicaciones, desde los satélites científicos o militares hasta los de comunicaciones, meteorológicos, de ayuda a la navegación, etcétera.

Su puesta en órbita ha representado un paso importante en el conocimiento del cosmos, y constituyen la solución casi perfecta para obtener información de lo que pasa alrededor de la Tierra, aunque, probablemente, será con los laboratorios espaciales tripulados, como el Skylab, con los que el hombre podrá llevar a cabo las más perfectas tomas de datos del espacio que nos rodea.

grafico de una órbita geoestacionaria

USO EN TELEFONÍA Y TELEVISIÓN: En una primera fase, los satélites nacionales estadounidenses se utilizaron principalmente para comunicaciones telefónicas de larga distancia; las transmisiones televisivas aparecían sólo esporádicamente. En 1975. un servicio estadounidense de televisión de pago, con menos de 60.000 abonados, anunció que utilizaría un satélite nacional para distribuir sus programas a las redes de TV vía cable de todo el país. El 30 de septiembre de 1975, Home Box Office Inc. (HBO) distribuyó a redes vía cable afiliadas, de Florida y Mtssissippi, la retransmisión en directo del encuentro de boxeo, válido para el campeonato mundial de los pesos pesados, entre Muhammad Alí y Joe Frazier.

Poco después, otros servicios se unieron a HBO a bordo del satélite Satcom e iniciaron el desarrollo de miles de redes vía cable en todo Estados Unidos. Mientras HBO organizaba su sistema de distribución vía satélite, la NASA se dedicaba a llevar su satélite experimental ATS-6 a una órbita temporal sobre el océano índico. Había prestado el ATS-6 a la India como parte del Satellite Instructional Televisión Experiment (SITE), para mostrar cómo la tecnología de los satélites podía servir para distribuir programas educativos directamente a terminales de comunicaciones distribuidos por zonas del Tercer Mundo.

USO EN METEREOLOGÍA: Aunque las imágenes del tiempo proporcionadas por el Meteosat aparecen todos los días en las televisiones europeas, la mayoría de nosotros no nos damos cuente de hasta qué punto dependemos de las previsiones meteorológicas precisas. Solamente en términos de ahorro de recursos, la contribución de la meteorología europea es considerable.

La importancia de la meteorología en muchos campos de la actividad humana hizo comprender rápidamente a Europa que, para las previsiones del tiempo, no era posible depender de otros países. Así, uno de los primeros empeños de la Agencia Espacial Europea fue precisamente lanzar satélites meteorológicos.

El primero de la serie fue puesto en órbita en noviembre de 1977. Se trataba del Meteosat-1, seguido del Meteosat-2 en junio de 1981. El Meteosat-3 fue llevado al espacio en junio de 1988; en marzo de 1989 le tocó el turno al Meteosat-4, llamado también MOP-1; en marzo de 1991 partió el Meteosat-5 o MOP-2 y, en noviembre de 1993, el Meteosat-6 o MOP-3. Actualmente, tres de ellos todavía están en activo: el MOP-1, el MOP-2 y el MOP-3, que giran alrededor de la Tierra a 36.000 km de altura en órbita geoestacionaria.

USOS CIENTÍFICOS: para estudio del universo y de los cuerpos celestes, para fotografías la superficie terrestre y analizar suelos, relieves, recursos naturales y cualquier tipo de otra información que sea complicado su acceso. (ampliar este uso desde aquí)

USO COMO G.P.S.: El Global Positioning System es una red de satélites que identifica con extrema precisión cualquier posición, y gracias a la cual es imposible perderse. Hasta no hace mucho, todo aquel que se aventuraba en pleno océano sólo disponía para calcular su posición de la observación de las estrellas o del uso de la brújula y el sextante. Ahora, gracias a la moderna tecnología de los satélites, es posible efectuar esta operación de un modo más sencillo.

Con la simple presión de un botón de un pequeño instrumento portátil, el Global Positioning System (Sistema de Posicionamiento Global), podemos determinar nuestra posición con un error de pocos metros. Esta tecnología va destinada a pilotos, marinos, alpinistas y a cualquier individuo que desee o deba conocer su propia posición con un margen de error muy pequeño.

El empleo de satélites para la navegación o la determinación de localizaciones no es nuevo. En 1959, la Marina militar norteamericana lanzó su primer satélite Transit para uso de los submarinos lanzamisiles Polaris y de los buques de combate de superficie; este sistema permitía determinar la posición con un error de 150 metros.

El Global Positioning System es todavía más preciso. Establecido y controlado por las fuerzas armadas estadounidenses, utiliza una red de 24 satélites Navstar, 21 de los cuales están en activo y tres son de reserva, colocados en seis planos orbitales que se cruzan a una altura de 20.000 km. El primero de estos satélites fue lanzado en 1978, pero el sistema no llegó a ser operativo hasta 1987, cuando hubo en órbita 12 satélites; en diciembre de 1993, la red quedó completada.

Fuente Consultada:
Los Viajes Espaciales Salvat Tomo 53
El Universo Enciclopedia de la Astronomía y El espacio Tomo IV

Propulsion de Satelites al Espacio Sistema Propulsor de Sondas Espaciales

Propulsión de Satélites al Espacio: Sistema Propulsor de Sondas Espaciales

Lanzadores y satélites: La propulsión

En su obra Principios matemáticos de la filosofía de la Naturaleza (1687), Isaac Newton estableció las bases axiomáticas de la mecánica moderna, que, para nosotros, son de gran interés para asimilar el fenómeno de la propulsión. Newton comprendió que la fuerza de la gravedad —es decir, la atracción mutua que ejercen unos cuerpos sobre otros, y que es la responsable, no sólo de la caída de los cuerpos sobre la superficie terrestre, sino también del movimiento de los astros— no cesa en ningún punto: su alcance es ilimitado, si bien disminuye progresivamente con la distancia.

A partir de las leyes enunciadas por Kepler sobre el movimiento de los planetas, Newton dedujo el valor de la acción del Sol sobre éstos, y estableció que el Sol atrae a cada planeta con una fuerza, dirigida del centro del segundo al del primero, cuya intensidad es directamente proporcional a la masa del Sol e inversamente proporcional al cuadrado de la distancia que separa a ambos. Pero la fuerza con que el Sol atrae al planeta es igual y de sentido contrario a la fuerza con que el planeta atrae al Sol (principio de la acción y la reacción), por lo que la atracción Sol-planeta no depende tan sólo de la masa del Sol, sino también de la del planeta.

El principio de la acción y la reacción tiene una validez universal: a toda fuerza (acción) que un cuerpo ejerce sobre otro, éste ejerce sobre el primero otra fuerza (reacción) de igual intensidad, pero de sentido contrario. El funcionamiento de los cohetes se basa precisamente en este principio. En este caso, la acción la constituye el chorro de gases (jet) que es expulsado por la tobera de escape, y que determina la aparición de una reacción de sentido opuesto al flujo del gas, la cual impulsa al cohete.

Sistemas propulsores

La retropropulsión o reacción es un método para producir movimiento mediante la eyección de una masa, generalmente en forma gaseosa, desde el interior del cuerpo propulsado. Los gases desprendidos proceden de una combustión y poseen elevada temperatura y gran velocidad.

Se llama cantidad de movimiento de un sistema al producto de su masa por su velocidad. En la retropropulsión la cantidad de movimiento de los gases expulsados determina un incremento igual de la misma en el cohete. Pero la masa del cohete es siempre muchísimo mayor que la de los gases que expulsa, razón por la cual éstos deben ser emitidos con gran velocidad.

Con objeto de corregir el enorme inconveniente que supone la masa del cohete, la mayoría de éstos se construyen en varias etapas o gases acopladas: en el momento del lanzamiento el cohete debe desarrollar una Titán III: nueva generación de lanzadores gran fuerza para contrarrestar la atracción de la Tierra, lo que supone el consumo de gran cantidad de combustible; al alcanzar tina determinada altura se desprende la tapa del cohete que ha servido para iniciar su elevación, y en este instante entran en funcionamiento los motores de la segunda etapa, favorecidos por la circunstancia de tener que impulsar una masa mucho menor y también por tener que vencer un valor más pequeño de la gravedad terrestre; muchos cohetes constan todavía de una tercera etapa para las operaciones de puesta en órbita o para dirigirse a otro astro.

Un motor-cohete consta esencialmente de los siguientes elementos: una cámara de combustión, un sistema que suministra el combustible y una tobera o conducto de eyección de los gases al exterior. La reacción química de los agentes combustible y comburente (en la tecnología de los cohetes este conjunto recibe el nombre de propergol) situados en la cámara de combustión, produce gases que son expulsados a través de la tobera.

Imagen Izq: Titán III constituyó una nueva generación de
lanzadores en la que se destacan los dos boosters acoplados

El motor-cohete tiene su propio combustible y oxidante, de aquí que según la naturaleza de los propulsantes utilizados para producir el chorro de gases se distinga entre cohetes con propulsante sólido, líquido y mixto o híbrido, cuya importancia es cada vez mayor.

En los cohetes con propulsante sólido, el combustible y el comburente —a los que suele ir incorporada una sustancia afín a ambos con objeto de que su mezcla sea homogénea y bien repartida— están almacenados en la cámara de combustión. La combustión puede ser restringida o ilimitada. La primera se realiza de manera análoga a la de un cigarrillo, o sea, a partir del extremo de la carga que se encuentra más próxima a la tobera y progresando hacia el extremo anterior de la misma.

La combustión ilimitada o sin restricciones se realiza simultáneamente en todos los puntos de las superficies interior y exterior de la carga. Aunque los cohetes con propulsante sólido son, en general, de construcción relativamente sencilla, presentan el inconveniente de requerir una cámara de combustión grande y pesada, y de que. en ocasiones, la combustión no es correcta; generalmente, se emplean como auxiliares los de combustión restringida para ayudar al despegue de aviones, y los de combustión ilimitada en cohetes auxiliares que se desprenden una vez han sido utilizados (su nombre inglés, booster, ha sido universalmente aceptado). Tienen la ventaja de que su lanzamiento es más fácil y de que pueden ser almacenados sin dificultades; su uso es básicamente militar.

En los cohetes con propulsantes líquidos, combustible y comburente están almacenados en depósitos distintos y pueden ser inyectados en la cámara de combustión por medio de dos sistemas: el de alimentación a presión, para los pequeños, y por medio de bombas, en los grandes. Presentan la ventaja de que, cerrando o abriendo a voluntad la alimentación, se puede regular el impulso; además, permiten el apagado y reencendido de los motores cada vez que ello es necesario, sin lo cual difícilmente se hubiesen conseguido las maniobras de cita y atraque en pleno cosmos, indispensables para los programas Gemini, Apolo, Sojuz, etc.

Aún actualmente, la manipulación de los líquidos (hidrógeno y oxígeno licuados, etcétera) constituye siempre un difícil problema, debido a que con frecuencia deben conservarse a temperaturas extraordinariamente bajas, o son muy inflamables. La “anatomía” de los cohetes con propulsantes líquidos es muchísimo más complicada que la de los sólidos; respecto a ello se cuenta que el primer ingeniero estadounidense que vio el interior de una V-2 exclamó, ante la complicación de los dispositivos: “Esto es la locura de un fontanero!

La propulsión en el futuro: Aunque empleando hidrógeno como combustible se han obtenido importantes valores del impulso, la limitación de la energía extraída de reacciones químicas es evidente. Para poder llevar a cabo misiones espaciales a distancias extremas es necesario desarrollar nuevos sistemas propulsores, que permitan la total exploración del Sistema Solar e incluso ciertos viajes espaciales.

La propulsión nuclear se basa en una planta de energía que utiliza el enorme calor desarrollado en la fisión nuclear para calentar un “líquido operante”, que podría ser un gas licuado, el cual se canaliza a través de la tobera. La construcción de un motor-cohete nuclear se ha demostrado factible merced al proyecto Kiwi (nombre de un pájaro de Nueva Zelanda que no vuela), al cual han seguido el Febo y otros, con el nombre genérico de NERVA (Nuclear Engine for Rocket Vehicle Application Ingenios nucleares para su aplicación en lanzadores).

La propulsión iónica, cuya idea es original de Ciolkovskij, consiste, a grandes rasgos, en la eyección de partículas elementales cargadas (protones, electrones, etcétera), las cuales adquirirían gran velocidad gracias a la acción de un campo electromagnético. Con una diferencia de potencial de 1.000 voltios entre los electrodos se obtienen velocidades de eyección del orden de 40.000 metros por segundo, diez veces superiores a las obtenidas mediante propulsantes líquidos. El empuje producido por los motores iónicos es reducido, pero merced a su escaso consumo de combustible pueden mantenerlo durante períodos de tiempo más largos.

En el terreno de las técnicas futuristas, pero teóricamente posibles, cabe imaginar un motor-cohete impulsado por la presión ejercida por los fotones o partículas de luz (propulsión fotónica). Quedan aún otros procedimientos que, al igual que éste, son todavía materia de especulación: aceleradores de plasma, motores eléctricos e iónicos combinados, etc.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Satelites Militares Durante la Guerra Fria Usos y Características

Satélites Militares Durante la Guerra Fría: Usos y Características

GUERRA FRÍA: Luego de la segunda guerra mundial Nada quedó sin ser afectado: ni puentes, ni ferrocarriles, ni caminos, ni transportes.  La mano de obra se resintió y grandes extensiones de tierras se perdieron para el cultivo.  La actividad industrial se atrasó, faltaban materias primas, herramientas apropiadas, tecnología moderna y energía.  Ante esta realidad, Europa perdió su papel decisivo en la política internacional, y surgió entonces, un nuevo orden mundial representado por la hegemonía de los Estados Unidos y de la Unión Soviética, alrededor de los cuales, y formando dos bloques enfrentados, el bloque occidental y el bloque oriental, se alinearon los restantes países del mundo.  La tensión entre ellos, dio lugar a la llamada “Guerra fría” que dominó por completo las relaciones internacionales en la última mitad del siglo XX. 

satelite militar

Los Primeros Satélites Artificiales de Uso Militar:
Usos y Características

Aunque los datos existentes son muy escasos, se calcula que más de la mitad de los satélites situados en órbita hasta 1973 estaban destinados a aplicaciones militares o paramilitares. Por sus misiones se pueden agrupar en cinco clases :

1) de reconocimiento fotográfico;
2) de alarma contra proyectiles balísticos ;
3) de detección de pruebas nucleares;
4) de bombardeo orbital;
5) de apoyo táctico.

A pesar del secreto que rodea a estos experimentos, los satélites de reconocimiento constituyen la clase mejor conocida y también la más numerosa. En líneas generales, se trata de plataformas muy bien estabilizadas, sobre las que van instalados equipos tomavistas de gran precisión. Las imágenes se envían a la Tierra por técnicas de televisión o en forma de negativo fotográfico, a bordo de cápsulas recuperables.

Los primeros ensayos de reconocimiento orbital se efectuaron en el marco del programa Discoverer y promovieron una oleada de protestas por parte de la Unión Soviética; pero meses después, también ésta disponía de sus propios satélites fotográficos. Desde entonces, entre las do; grandes potencias existe una especie di acuerdo tácito respecto a la legalidad del espionaje espacial recíproco.

No se conocen demasiadas características de estos primeros satélites, aunque se supone que la resolución de sus cámara, no alcanzaba más allá de los ocho o diez metros. La primera serie de satélites estadounidenses de reconocimiento propiamente dichos entró en servicio en 1961, con el lanzamiento del Samas 2. Su principal no vedad era que en vez de ir provisto de cápsula sula recuperable, como los Discoverer, las imágenes eran transmitidas a la Tierra por radio.

Las características de este sistema de transmisión constituyeron un secreto militar durante varios años. Tan sólo hacia 1964 la USAF (United States Air Force) Fuerzas Aéreas de los Estados Unidos) accedió a facilitarlas a la NASA para que pudieran ser empleadas en tareas civiles Su primera aplicación se llevó a cabo a bordo de las naves Lunar Orbiter, para confeccionar un plano detallado de la superficie de nuestro satélite. Pero entonces tales cámaras estaban consideradas como material anticuado y los satélites militares empleaban ya tomavistas de nuevo diseño, de definición muy superior.

Las cámaras de los Orbiter disponían de dos objetivos fotográficos: un gran angular y un tele. Ambos apuntaban en la misma dirección y se disparaban simultáneamente, impresionando cada uno un fragmento distinto de la misma película. En las misiones lunares (a unos 50 Km. sobre el suelo, aproximadamente) el gran angular cubría un cuadrado de 30 Km. de lado, mientras que el tele estaba enfocado hacia el centro de esa zona, sobre un campo de 16 por 4 Km. El resultado eran dos imágenes: una abarcaba una considerable extensión de terreno, escasamente detallada, en tanto que la otra presentaba un aspecto mucho más completo y minucioso de una pequeña parte de la misma región.

El Orbiter utilizaba película especial para fotografía aérea, de 70 milímetros de anchura y sin perforaciones laterales. La carga estándar de cada nave era de 90 metros de filme, suficientes para registrar unos doscientos pares de fotografías. El revelado se producía automáticamente a bordo, y los negativos ya tratados se recogían en una bobina de almacenamiento, en espera de que todo el carrete hubiese sido utilizado.

Una vez completada la toma de fotografías, se invertía el movimiento de avance de la película, que al deslizarse hacia atrás, pasaba ante el convertidor de imagen. Este dispositivo constaba de un foco luminoso muy concentrado que se desplazaba transversalmente sobre la película, explorándola por franjas de 2 milímetros de anchura. Al pasar a través de los diferentes grados de gris del negativo, la intensidad de luz variaba y esas oscilaciones eran recogidas por un foto multiplicador que las convertía en señales eléctricas.

Estas, convenientemente codificadas, eran enviadas a la Tierra. Más tarde, siguiendo un proceso inverso al descrito, podía reconstruirse la imagen con todo detalle. Aunque el sistema de transmisión era muy lento (para enviar una doble imagen requerían unos 40 minutos), tenía la ventaja de proporcionar una extraordinaria calidad de imagen. En muchas fotografías enviadas por los Orbiter se distinguen detalles de la superficie lunar de apenas un metro de diámetro.

La resolución obtenida por los satélites Samas equipados con estas mismas cámaras debió ser algo menor, pues éstos, forzosamente, tenían que estar a mayor altura que los Orbiter: 200 Km. como mínimo, en el perigeo; y también debido a la presencia de la atmósfera que con sus turbulencias y contaminantes en suspensión debió producir cierta degradación en la calidad de las fotos. Por tanto, teniendo en cuenta estos dos factores, cabe afirmar que, en la práctica, el poder de resolución de las cámaras de los Samas era por lo menos cinco veces inferior a la de los Orbiter, por lo que estos satélites “espías” sólo eran capaces de fotografiar detalles superficiales de cuatro a cinco metros de diámetro.

En 1963 apareció el primero de una nueva serie de satélites recuperables que venía a sustituir a los derivados del Discoverer.

Para lanzarlos se utilizaba un nuevo modelo de cohete, el Agena D, capaz de reencender su motor en pleno vuelo, lo que permitía al satélite ejecutar diversas maniobras, alterando las características de su órbita inicial. El equipo óptico se hallaba instalado en la sección media del vehículo, pues su enorme tamaño no permitía acomodarlo en el reducido espacio disponible en la cápsula de retorno.

La carga de película virgen también se encontraba en la sección media del satélite. A través de unas ranuras especiales, el filme penetraba en la cámara, donde era impresionado; a continuación, salía de nuevo al exterior y pasaba, a través de unos conductos a prueba de luz, al interior de la cápsula de reentrada, donde lo recogía una bobina de almacenamiento.

Al finalizar la misión, el motor del Agena D se encendía a contramarcha y el satélite empezaba a caer. Segundos más tarde se producía la separación de la cápsula, que efectuaba la maniobra de reentrada, mientras el resto del equipo, incluida la cámara fotográfica, se desintegraba al contacto con la atmósfera.

No se conocen muchos detalles acerca de la cámara usada en estos satélites; sin embargo, ésta pesaba más de doscientos kilogramos e iba equipada con un teleobjetivo en el que podían detectarse objetos de sólo un metro de diámetro, incluso desde alturas superiores a los 200 Km.

Hasta 1966, los satélites de reconocimiento estadounidense se habían utilizado para determinar de cuántos proyectiles se componía el arsenal balístico soviético y localizar las plataformas de disparo. El objetivo se había cumplido, pero las últimas fotografías transmitidas por los satélites demostraban que los técnicos militares soviéticos habían empezado a construir silos subterráneos; este descubrimiento iba a forzar una nueva estrategia en cuanto a reconocimiento aéreo. Un silo subterráneo es casi invulnerable a un ataque nuclear, a menos que reciba un impacto directo.

El objetivo de la tercera generación de satélites americanos de reconocimiento era levantar un mapa completo de la Unión Soviética, especificando la situación de cada rampa o silo de lanzamiento. Para ello hubo que diseñar tomavistas especiales, provistos de un sistema de estabilización que los mantenía enfocados hacia el suelo en perfecta vertical, a fin de reducir los errores por distorsión.

Para asegurar aún más la exactitud del trabajo, las nueve cámaras incorporadas a los satélites eran dobles: mientras un objetivo fotografiaba el terreno, el otro, enfocado en dirección opuesta, registraba una imagen de un fragmento de la bóveda celeste. Luego, en el laboratorio, los técnicos en cartografía analizaban la posición en que aparecían las estrellas y constelaciones en la segunda fotografía y determinaban, a partir de ellas, la posición en que se encontraba el satélite en ese momento y el lugar de la Unión Soviética que estaba sobrevolando.

Algunos de estos satélites de reconocimiento llevaban también a bordo un sistema de cámaras provistas de filtros y película especial, sensible a determinadas longitudes de onda. Estas se disparaban todas a la vez, produciendo cuatro o hasta seis negativos, cada uno correspondiente a una determinada zona del espectro.

Analizando cada juego de fotografías los especialistas podían deducir detalles increíbles. Por ejemplo, llegaban a diferenciar la vegetación viva de las ramas cortadas que se emplean para enmascarar objetivos militares, o identificar parcelas de cultivos afectados por plagas, o incluso descubrir en pleno océano la estela de agua ligeramente recalentada que expulsaban las turbinas de un submarino nuclear en inmersión.

Por su parte, los especialistas soviéticos construyeron también una doble familia de satélites de reconocimiento: los de cápsula recuperable y los de transmisión as fotografías por radio. Ambos suelen lanzarse bajo la denominación de Cosmos.

Los Cosmos de radiotransmisión suelen ser de tamaño bastante reducido. Muchos técnicos occidentales opinan que los primeros modelos de este tipo derivaban del Luna 3, el primer vehículo que fotografió el hemisferio oculto de la Luna.

A lo que parece, estos Cosmos cumplen dos tareas distintas. Algunos son puestos en órbita con perigeo muy bajo (incluso inferior a 200 Km.) y se dedican a fotografiar grandes extensiones de terreno de forma rutinaria. La resolución de sus cámaras es buena, aunque no permite precisar demasiados detalles. Cuando estas fotos revelan signos de actividad militar anormal en alguna zona determinada, su investigación en detalle se confía a otra serie de satélites, los Cosmos recuperables.

El otro tipo de Cosmos, de radiotransmisión, es de características idénticas al primero, excepto en lo que se refiere a la trayectoria que describen, que, por lo general, es bastante más elevada. Entre ellos es frecuente encontrar perigeos superiores a 300 Km.

A esta altura de vuelo las cámaras pierden mucho de su eficacia. La definición disminuye y sólo pueden detectarse objetivos bastante grandes, de quince a veinte metros de diámetro, como mínimo. Por tanto, lo más probable es que estos satélites tengan asignada una misión de vigilancia oceánica, en busca de las largas estelas que dejan tras sí los buques de superficie y, sobre todo, los submarinos Polaris.

Otros de estos mismos Cosmos desempeñan una tarea de apoyo meteorológico, enviando fotografías de las formaciones nubosas existentes sobre territorios que interesa fotografiar. Este dato es de gran importancia a la hora de programar los lanzamientos de satélites “espías”, ya que, evidentemente, si los puntos a fotografiar se encuentran bajo las nubes, la misión estará condenada al fracaso.

Los Cosmos de radiotransmisión se lanzan con bastante regularidad, por lo menos a un ritmo de uno por mes. Al principio, su base de lanzamiento era Tyuratam, junto al Mar de Aral, pero desde 1969 casi todos ellos despegan desde Piesetsk, a 1.000 Km. al norte de Moscú.

La base de Plesetsk es ideal para efectuar disparos en dirección norte sin peligro deque el cohete portador caiga en zonas habitadas. De este modo es posible alcanzar trayectorias polares, desde las que, en el curso de sucesivas revoluciones, se puede explorar la totalidad del globo terrestre.

Los Cosmos recuperables son mayores que los de radiotransmisión. Parece ser que los primeros modelos se basaban en el aprovechamiento de cápsulas tipo Vostok, cuyo peso podía alcanzar fácilmente cuatro o cinco toneladas. El equipo fotográfico incluía una o varias cámaras de gran resolución, capaces de analizar en detalle los objetivos previamente localizados por los Cosmos de radiotransmisión.

Uno de los problemas más serios con que se enfrentaron los técnicos rusos al iniciar este programa fue la recuperación de las cápsulas. Por regla general, éstas I caen sobre territorio soviético, pero su excesivo peso impide “pescarlas” en el aire tal como lo hacían los norteamericanos con sus Discoverer. Los rusos han de recurrir a equipos de recuperación dotados di’ helicópteros y vehículos terrestres.

Durante 1964 se lanzaron doce Cosmos recuperables, lo que da un promedio de uno por mes, a pesar de que durante el invierno la actividad en este campo estuvo casi paralizada. En 1965 su número se elevó a 17, incluyendo un disparo en pleno enero, otro en noviembre y otro en diciembre, lo que demostraba que los especialistas rusos habían dominado ya las técnicas de recuperación y podían dirigir sus cápsulas hacia el lugar más favorable para el aterrizaje.

A partir de entonces, el número de Cosmos recuperables fue aumentando hasta alcanzar un ritmo normal de uno cada quince días; aunque en casos excepcionales han llegado a lanzar un satélite por semana o incluso más.

Los últimos satélites de reconocimiento lanzados por Estados Unidos pertenecen a la serie comúnmente denominada Big Bird. El primero fue puesto en órbita en 1971, iniciando así la cuarta generación de tales ingenios.

Los Big Bird van equipados con cámaras fotográficas y de televisión, así como de varias (tal vez cuatro o incluso más) cápsulas recuperables. Ello permite emplearlos en las dos misiones básicas: inspección de rutina por televisión y, llegado el caso, toma de vistas detalladas con envío de los negativos a tierra. No se conocen muchos detalles, pero parece ser que en buenas condiciones atmosféricas su poder de resolución puede alcanzar medio metro o incluso menos. Ello sería suficiente para diferenciar las ojivas nucleares convencionales de las ojivas múltiples (MIRV) que pueden equipar a ciertos proyectiles intercontinentales.

Muchos satélites de reconocimiento disponen también de cámaras sensibles al infrarrojo, para la toma de fotografías durante la noche. Sin embargo, al igual que ocurría con los satélites meteorológicos, su resolución no es tan buena como la de los sistemas ópticos, pero, aun así, es más que suficiente para las tareas que tienen asignadas.

También está en experimentación el empleo de satélites dotados de radar de visión lateral. Este es un dispositivo que permite la obtención de imágenes del terreno, no por medios ópticos convencionales, sino por el análisis de la reflexión de ondas de radar. La definición es comparable a la de las cámaras fotográficas normales y, además, presenta la gran ventaja de no ser afectado por la cobertura nubosa, por muy densa que fuere.

Hacia 1960 se iniciaron las pruebas de satélites, dotados de detectores infrarrojos capaces de captar la radiación térmica emitida por los escapes de un proyectil balístico enemigo. De este modo podría localizarse su presencia mucho antes de que apareciese sobre el horizonte y fuese detectado por las estaciones de radar.

El desarrollo de estos sensores tropezó inicialmente con serias dificultades, sobre todo a causa de las reflexiones parásitas del Sol en el océano, que eran interpretadas por el satélite como producidas por el chorro de gases de un ICBM. En la actualidad, el problema parece resuelto, aunque las estaciones fijas de radar en el Ártico continúan desempeñando un papel fundamental en las redes de defensa, tanto de Estados Unidos como de la Unión Soviética.

Otro tipo de satélites militares son los destinados a detectar pruebas nucleares llevadas a cabo clandestinamente, en contra de lo establecido en recientes acuerdos internacionales. Las explosiones, bien sean en la atmósfera, en el fondo del mar o en el espacio exterior (las subterráneas no están oficialmente prohibidas), pueden registrarse gracias a los diversos tipos de radiación que emiten.

Los satélites empleados en esta tarea van equipados con detectores de radiaciones X y gamma, así como de protones y partículas subatómicas liberadas en las reacciones nucleares violentas.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53 y 18

Conquista Espacial Historia de la Astronautica Sondas Espaciales

Conquísta Espacial: Historia de la Astronáutica Sondas Espaciales

El nacimiento de la astronáutica: Tras la II Guerra Mundial

Al finalizar la II Guerra Mundial los estadounidenses aprovecharon la experiencia de un buen plantel de técnicos ¿alemanes procedentes de Peenemunde, fu base del Báltico donde se construyeron las V-2, a los que proporcionaron los medios para trabajar en el desarrollo de nuevos cohetes. Inicialmente, los estudios se centraron sobre los planos y proyectiles capturados a los alemanes, pero pronto comenzaron a introducirse modificaciones que llevaron al diseño de nuevos tipos de cohetes.

cohete despegando de la TierraCien V-2 fueron llevadas a Nuevo México para ser ensayadas en el campo de pruebas de White Sands, en el que, en 1949, se lanzó el primer proyectil genuinamente estadounidense, el WAC Corporal, que acoplado a una V-2 y como parte del proyecto Bumper, alcanzó 400 kilómetros de altura.

Lanzamiento de un Aerobee. Mediante este cohete se obtuvieron en 1949 las primeras fotografías en color de la superficie terrestre desde 100 Km. de altura.

A pesar de este éxito era evidente que la V-2, concebida para fines exclusivamente bélicos, no satisfacía las necesidades requeridas. Ello indujo a los técnicos estadounidenses, y a los alemanes que con ellos trabajaban, a desarrollar otros proyectiles: el Viking y el Aerobee, que remplazó al WAC Corporal. cohete, bomba alemana V1

Este último era un cohete relativamente sencillo, de 5,75 metros de longitud, 38 centímetros de diámetro y 450 kilogramos de peso; se lanzaba por medio de una torre de 12 metros de altura, con ayuda de un cohete auxiliar de combustible sólido; en 1949 se obtuvieron mediante el Aerobee las primeras fotografías en color de la superficie terrestre desde una altura de 100 kilómetros.

El Viking, llamado en principio Neptuno, parecía un lápiz plateado de 13,70 metros de longitud, 81 centímetros de diámetro y 5 toneladas de peso. El 15 de diciembre de 1952, un Viking mejorado alcanzaba 217 kilómetros de altura, batiendo el récord que detentaba la V-2 en cohetes de una sola etapa, y desarrollaba una velocidad de 6.560 km/h.

Por su parte el ejército y las fuerzas aéreas construyeron otro cohete, el Hermes, basado también en la V-2.

Imagen derecha: Bomba Alemana V2 (bomba de la venganza)

Por su parte, la Unión Soviética, que ya en 1946 inició el lanzamiento de sondas destinadas al estudio de las capas superiores de la atmósfera, desarrollaba sus propios proyectos astronáuticos.

El desarrollo del cohete como elemento bélico fue muy rápido en los dos países. Los modelos iniciales fueron aumentando su alcance y potencia, y en 1957 los cohetes disponibles hacían ya posible la puesta en órbita de un satélite artificial. Estados Unidos habían hecho público su propósito de realizar un experimento de este tipo con ocasión del Año Geofísico Internacional. Fue, sin embargo, la Unión Soviética la que consiguió realizar con éxito esta operación, al poner en órbita, el 4 de octubre de 1957, el Sputnik 1, con el que se inició la era del espacio.

La rivalidad entre sus tres ejércitos costó a los estadounidenses el tener que resignarse a un segundo papel. Sin embargo, la creación de un organismo civil autónomo, la NASA (National Aeronautics and Space Administration = Administración Nacional de Aeronáutica y del Espacio), el 1 de octubre de 1958, terminaría con esta difícil situación, al pasar a depender del mismo todas las actividades espaciales.

Desde su cuartel general en Washington, la NASA ejerce su dirección sobre los distintos centros de investigación y ensayo, y determina cuáles deben ser los programas y proyectos. Bajo su responsabilidad están los vuelos tripulados, las ciencias espaciales, el seguimiento y adquisición de datos, etc.

La organización y coordinación de los proyectos espaciales soviéticos están parcialmente bajo la supervisión de la Academia de Ciencias de Moscú, aunque, al igual que ocurre en Estados Unidos, existen también programas de características puramente militares.

El nacimiento de la astronáutica:
Cooperación internacional para el estudio del espacio

Al iniciarse la década de los cincuenta, la astronáutica había dejado de ser una ciencia que sólo interesaba a minorías, aunque todavía no estaba englobada en el seno de los grandes organismos internacionales.

La necesidad de regular a escala internacional las relaciones entre los interesados de uno u otro modo por la astronáutica se hacía patente. El primer paso para ello se dio el 22 de junio de 1949, en una reunión de la Sociedad Astronáutica Alemana, una entidad de tipo privado que propuso por primera vez la creación de una Federación Internacional de Astronáutica (IAF), la cual agruparía todas las sociedades de los distintos países interesados en cuestiones espaciales, con el fin de permitir un intercambio de ideas.

En 1950 tuvo lugar en París la primera reunión de sociedades astronáuticas y el 4 de septiembre de 1951, en Londres, la Federación Internacional tomó carta de naturaleza.

Aunque a las reuniones de París y Londres se las llama I y II Congreso Internacional de Astronáutica, de hecho el primero tuvo lugar realmente en Stuttgart, en 1952, y después se han venido celebrando cada año en distintas capitales europeas o americanas.

Los objetivos de la Federación Internacional son: estudiar el desarrollo de la astronáutica con fines pacíficos, facilitando el intercambio de informaciones técnicas y científicas, e interesar al público en general en todos los asuntos relacionados con el espacio.

En agosto de 1960, y por iniciativa del profesor Theodore von Karman, se fundó, bajo los auspicios de la Federación, la Academia Internacional de Astronáutica, formada por científicos de gran valía y con la misión de complementar en sus tareas a la IAF. Incluye tres secciones: Ciencias fundamentales, Ciencias aplicadas y Ciencias relacionadas con la vida del hombre en el espacio.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Pioneros de la Investigacion Espacial Padres de la Aeronautica

Pioneros de la Investigación Espacial: Padres de la Aeronáutica

El nacimiento de la astronáutica: Los padres de la astronáutica

Con rara unanimidad se acepta que los padres de la astronáutica, o sea, los científicos gracias a los cuales estaOberth: Padres de la Aeronautica ciencia empezó a desarrollarse como tal, son cuatro: el soviético Ciolkovskij , el estadounidense Goddard, el francés Esnault-Pelterie y el rumano Oberth (imagen der.). Pero también con rara unanimidad suelen muchos escritores olvidarse del alemán Hermann Ganswindt; Oberth ha asegurado repetidamente que con el alemán se ha cometido una injusticia, insistiendo en que éste se había ocupado seriamente, mucho antes que todos ellos, de los mismos problemas.

Konstantin Eduardovié Ciolkovskij (imagen izq.) nació el 17 de septiembre de 1857 en la villa de Iáevsk, provincia de Riazán. De profesión maestro de escuela, fue un hombre sencillo, la antítesis del mito del científico que hoy es fácil imaginar. A los 16 años su padre decidió enviarlo a Moscú para que se familiarizase con la técnica, y asKonstantin Eduardovié Ciolkovskij: Padres de la Aeronauticaí inició su formación científica.

Sus estudios, empezados en la época zarista y perfeccionados cuando era un comunista convencido, tienen un valor comparable, o quizá superior, al de los éxitos que, desde el lanzamiento del Sputnik 1, se han venido cosechando en la Unión Soviética.

Su primer artículo sobre el motor-cohete apareció en 1903 en la Nauónoe Obozreme (Revista Científica) con el título La exploración del espacio cósmico con ayuda de aparatos propulsados a reacción. Exponía en el mismo la teoría del vuelo del cohete, demostrando la posibilidad de su utilización en travesías interplanetarias.

El ingenio propuesto por él era un aparato metálico de forma alargada parecido a un dirigible; sus propulsores eran hidrógeno y oxígeno líquidos, sirviendo el propio carburante para la refrigeración del motor, al igual que en los motores F-1 del Saturno V. En sucesivos trabajos, aparecidos en 1911, 1912 y 1926, fue perfeccionando la idea. Sin embargo, jamás vio elevarse un cohete propulsado con combustible líquido. Aunque conservó hasta los últimos años de su vida la esperanza de ver materializados sus “proyectos utópicos”, como los autocalificaba con ironía, murió, antes de que éstos se hicieran realidad, el 19 de septiembre de 1935.

Robert Hutchings Goddard nació en Worcester, Massachusetts, el 5 de octubre de 1882; se graduó en Worcester Polytechnic Institute en 1908 y en la Clark University en 1910. Inició sus investigaciones sobre los cohetes en 1899, utilizando una cámara de combustión, construida por el mismo, que le permitía medir la retropropulsión de los gases.

Más tarde, cuando estudiaba en el Instituto Politécnico, hizo experimentos con pequeños cohetes de combustible sólido; en 1912 concluyó los detalles de la teoría matemática de la propulsión de cohetes, demostrando la posibilidad de utilizar la fuerza engendrada por los gases emitidos por éstos para alcanzar grandes altitudes. En 1923 inició los ensayos en reposo de un motor propulsado por propergol líquido (oxígeno y gasolina), que consiguió hacer volar el 16 de marzo de 1926.

Entre los años 1934 y 1940 construyó, con resultados satisfactorios, algunos cohetes de gran tamaño, muchas de cuyas características coincidieron con las más tarde tristemente célebres V-2 alemanas; aunque es difícil demostrarlo, parece que muchos de los perfeccionamientos realizados por Alemania en este campo se debieron a los experimentos y patentes de Goddard. En 1935 sus ingenios lograron alcanzar una altura de 2.280 metros y una velocidad de 880 kilómetros por hora. En los círculos profesionales estadounidenses se reconocía al inventor como el técnico más destacado en esta especialidad.

Goddard murió ellO de agosto de 1945, antes del inicio de la era espacial, y sólo meses después de que las primeras V-2 alemanas cayeran sobre Inglaterra. Los estadounidenses no supieron explotar debidamente su genio, y poquísimas personas apreciaron el alcance que podían tener sus experimentos. Como en muchos otros casos, Goddard no fue profeta en su tierra.

Aunque colaboró con la Marina de su país en la puesta a punto de aparatos teledirigidos, fue un incomprendido incluso por el propio ejército, el cual en 1940, en plena Guerra Mundial, examinó las posibilidades que presentaban sus estudios:
“Todas sus experiencias son muy interesantes, profesor —le dijeron—, pero creemos que los cohetes no desempeñan ningún papel en la guerra”.

Años más tarde, la historia se repetiría con Von Braun, no escuchado a tiempo por los estadounidenses cuando, en 1954, fue rehusado el proyecto Orbiter, que hubiera permitido colocar en órbita un satélite artificial con los medios de que se disponía en aquel entonces.

El 8 de junio de 1927, un aviador y notable matemático debió causar un fuerte impacto en la Sociedad Astronómica de París. Robert Esnault-Pelterie disertaba sobre La exploración por cohetes de la alta atmósfera y la posibilidad de los viajes interplanetarios. Esta conferencia fue ampliada con un famoso libro, La astronáutica, en el que se exponen en forma muy completa y sin parangón en su época los fundamentos de la astronavegación.

La resonancia de la conferencia fue enorme: cuando la aviación acababa de nacer en su aspecto comercial, cuando el subir a un avión representaba todavía una temeridad o, por lo menos, requería una buena dosis de valentía, un científico acreditado se atrevía a hablar de viajes a los planetas ante el exigente auditorio de una de las entidades astronómicas de mayor categoría.

Esnault-Pelterie fue uno de los primeros en prever la aplicación de la energía nuclear para. la propulsión de cohetes interplanetarios. Nacido en París en 1881, murió en Niza en 1957, dos meses más tarde del vuelo del Sputnik 1, y pudo ver, por tanto, convertidas en realidad muchas de sus teorías.

Hermann Oberth nació el 25 de junio de 1894 en Hermannstadt, Rumania. Empezó la carrera de médico, pero la abandonó, y posteriormente estudió en Munich, Gotinga y Heidelberg.

El 5 de junio de 1927, casi en la misma fecha en que Esnault-Pelterie pronunciaba en París su célebre conferencia, había sido fundada en Breslau la famosa VER (Verein Für Raumschiffahrt), conocida en todo el mundo como Sociedad Alemana de Cohetes, y en el otoño de 1928, el director cinematográfico Eritz Lang anunciaba su intención de llevar a la pantalla la novela, original de su esposa, Una mujer en la Luna. Oberth fue requerido como asesor técnico de esta película, a la vez que se le encargaba la construcción de un proyectil-cohete de gran tamaño para ser lanzado el día del estreno.

La industria cinematográfica alemana se anticipaba así a la propia realidad en 15 años, al solicitar del precursor algo muy parecido, aunque no por sus fines, a la V-2. Hermann Oberth, en su libro El cohete hacia los espacios interplanetarios, aparecido en 1923, expuso con una clarividencia extraordinaria el futuro de la astronáutica, analizándolo detalladamente.

William H. Pickering
William H. PickeringWilliam H. Pickering es, desde 1954, director del Jet Propulsión Laboratory (JPL) del California Ins-titute of Technology, situado en Pasadena, en las cercanías de Los Angeles. Bajo su dirección se han realizado múltiples programas espaciales: el Explorer 1 (1958), primer satélite artifical de Estados Unidos; el Pioneer 4 (1959), primera misión espacial próxima a la Luna culminada con éxito; el vuelo de los Mariner 2 y 5 a Venus (1962 y 1967) y los Mariner 4 (1964) y 6 y 7 (1969) a Marte; las misiones fotográficas lunares realizadas por los Ranger (1962 a 1965); los alunizajes de los Surveyar (1966 a 1968); la misión del Mariner 11, lanzado en 1971, y las misiones multiplanetarias que se prevén para la década de los años setenta, destacando ya el envío de los Marz>zeraVenusyMercurio(1973).

El Dr. Pickering nació, en 1910, en Wellington (Nueva Zelanda), Tanto los estudios de licenciatura en Ingeniería eléctrica como los de doctorado en Física los realizó en el California Institute of Technology de Estados Unidos, siendo nombrado profesor de esa misma institución en 1946. Fue el primer presidente del American Institute of Aeronautics and Astronautics (nombrado en 1963) y presidente déla International Astronáutica Federation,en 1965. Asimismo, es miembro de la National Academy of Sciences, de la National Academy of Engineering y de la Royal Society de Nueva Zelanda, entre otras instituciones, consejero de las universidades de California, de Washington y de Connecticut, estando en posesión de numerosos premios y distinciones.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Objetivos de los Satelites Artificiales Cientificos e Investigacion

Objetivos de los Satélites Artificiales: Científicos e Investigación

El nacimiento de la astronáutica: Antecedentes históricos

El ansia de viajar hacia los astros es tan antigua como el hombre mismo. Cicerón (nacido el 106 a. C.), en su obra De Republica, habla del espíritu de un hombre que viajó por algunos planetas; y casi 300 años después Luciano de Samosata, en su Vera Historia, describe las guerras entre los imperios de la Luna y el Sol.

COPERNICO, astronomo edad modernaA lo largo de los siglos se han sucedido las referencias literarias a los viajes espaciales, pero es a partir del siglo XVI cuando, merced a los trabajos de Copérnico, Tycho Brahe, Galielo y Newton se inicia el camino que ha hecho posible viajar a la Luna y, en un futuro quizá no muy lejano, a los planetas.

La invención del cohete fue, en cierto modo, el primer paso serio dado por la astronáutica; su historia se remonta a la China de hace casi dos mil años, si bien no hizo su aparición en Europa hasta mediados del siglo XIII, en que es descrito en el Líber Ignium (Libro de fuego).

(imagen:Copérnico)

A comienzos del siglo XIX se despertó un gran interés por la posible aplicación de los cohetes a fines militares. Sir William Congreve, oficial del ejército británico. fue uno de los más destacados investigadores en este campo: durante las guerras napoleónicas, y en la de 1812 entre Estados Unidos y Gran Bretaña, se usaron cohetes de combustible sólido ideados por él, así como en el ataque a Copenhague en 1807.

Sin embargo, el cohete militar no convenció a los especialistas en cuestiones bélicas, por lo que pronto fue abandonado.

OBJETIVOS DE LOS SATÉLITES ARTIFICIALES

Los satélites destinados a investigaciones científicas constituyen la familia mas numerosa, si se exceptúa la de los utilizados con fines militares. Ello es así por varias razones: en primer lugar , el espacio que circunda la Tierra es poco conocido; desde muchos puntos de vista interesa conocer la distribución de las radiaciones que abarcan toda la gama del espectro, desde los rayos X a las ondas de radio, meteoritos, capas ionizadas, campos magnéticos de origen no sólo terrestre, sino también solar e interplanetario, etc.

Además, muchas de estas investigaciones se realizan en apoyo de determinadas aplicaciones prácticas. Tal es el caso del estudio de los factores que pueden afectar al hombre en el espacio, cuyo conocimiento es imprescindible para el establecimiento de estaciones orbitales tripuladas. Tampoco hay que olvidar que la denominación de científicas dada a muchas misiones es simplemente una cobertura de programas cuyos objetivos son en definitiva militares.

El conjunto de datos científicos aportados por los satélites dan una imagen de enorme complejidad en torno a nuestro planeta. Y se complica aún más si se tiene en cuenta que se trata de un cuadro dinámico, en continua evolución. Los niveles de radiación medidos hoy a 1.000 Km. de altura pueden ser completamente distintos de los que se obtengan la semana próxima si entre ambas fechas se ha producido, por ejemplo, una erupción solar.

Algunos satélites han sido diseñados para obtener información sobre diversos aspectos relacionados con nuestro planeta: las capas ionizadas que lo rodean, la densidad y composición de la alta atmósfera, la intensidad de la radiación térmica recibida por la Tierra y el porcentaje que vuelve al espacio al reflejarse en las nubes o en la superficie, la confección de un mapa del campo magnético en torno al planeta, la naturaleza y energía de las partículas que componen los cinturones de radiación, características de la ionosfera en cuanto a transparencia a diversas frecuencias de radio, etc.

Otros van dirigidos a investigaciones astronómicas, sobre todo en el campo de la radioastronomía. A este respecto, los satélites artificiales son muy útiles, ya que las radiaciones de determinadas longitudes de onda de procedencia interplanetaria son filtradas por la atmósfera y no pueden ser captadas por los radiotelescopios instalados en la superficie terrestre. Por tanto, la única manera de detectarlas es instalando equipos receptores por encima de la atmósfera.

Existen también satélites para el estudio del Sol: las tormentas que a veces se desencadenan en la fotosfera, la evolución de las manchas solares y el “viento solar” o chorro de partículas subatómicas que continuamente son emitidas por nuestra estrella. También los hay especializados en la fotografía estelar, no ya en la gama de la luz visible, sino en la del ultravioleta, gran parte de la cual es retenida por la atmósfera. En cambio, los observatorios en órbita terrestre nunca se emplean para fotografiar planetas; es mucho más provechoso recurrir a sondas interplanetarias que sobrevuelan el objetivo a poca distancia, obteniendo imágenes mucho más detalladas.

Registro de meteoritos: Desde los primeros años de la investigación espacial, uno de los puntos de estudio más importantes fue investigar acerca de la abundancia y distribución de micro-meteoritos en las proximidades de la Tierra. Estos son partículas que en general no superan el milímetro de diámetro y que, moviéndose a enormes velocidades, a veces entran en la atmósfera terrestre, donde la fricción del aire los desintegra.

Al principio se exageró mucho acerca del peligro que los meteoritos representarían de cara a futuros viajes espaciales tripulados. Hoy se sabe que las partículas de más de un milímetro de diámetro son muy raras, tanto que una nave podría permanecer en el espacio durante años sin encontrar ninguna en su camino. En cuanto a los granos de polvo cósmico, aunque más abundantes, tampoco ofrecen motivo de preocupación. Por lo general se volatizan al chocar contra las paredes del vehículo, por muy delgadas que éstas sean.

Una forma sencilla y económica de detectar los impactos de los meteoritos es la colocación de micrófonos en las paredes exteriores de la nave: el sonido del choque es transmitido a través del metal, y su intensidad da una idea del tamaño de la partícula que lo ha producido.

satelite artificial

Otras veces se suelen usar pequeñas cámaras metálicas llenas de gas a presión. Cuando un meteorito perfora sus paredes, el gas escapa al exterior y un manómetro adecuado permite registrar el impacto. La velocidad de salida del gas depende del diámetro del orificio y es un buen sistema para indicar el tamaño del meteorito. Además, las cámaras pueden fabricarse con aleaciones de diferentes características y espesores, a fin de que sólo puedan ser perforadas por partículas animadas de cierta energía.

En 1965 se lanzó el primero de los grandes satélites Pegasus, destinados exclusivamente al estudio de los meteoritos, listaban equipados con unas grandes “alas” constituidas por más de doscientos elementos sensores: dos láminas de cobre o aluminio separadas por una de material aislante, con lo que formaban otros tantos condensadores eléctricos, cargados a una tensión de 40 voltios. Cada vez que un meteorito atravesaba una de tales células, el calor desarrollado en el impacto vaporizaba parte del metal y el aislante, estableciendo un momentáneo corto circuito entre las dos láminas. A continuación, el condensador se descargaba y transmitía a In Tierra la correspondiente señal. Una vez disipado el vapor, el condensador volvía u cargarse y quedaba en disposición de registrar nuevos choques.

Durante su primer año de funcionamiento, y por metro cuadrado de superficie sensible, el Pegasus 1 detectó 57 partículas con energía suficiente para atravesar 37 milésimas de milímetro de aluminio; cinco en sus células de 2 décimas de milímetro y sólo dos en las de 4 décimas.

Medida de las radiaciones
Otro campo de investigación muy amplio es el estudio de las radiaciones. Sin embargo, para fijar ideas, convendría puntualizar el significado de esta palabra.

La radiación es una forma de energía que se encuentra en el espacio en múltiples formas. La luz corriente es radiación; las ondas de radio, los rayos X e incluso el calor emitido por un cuerpo a cualquier temperatura también lo son. Todas ellas se agrupan bajo la denominación común de “radiación electromagnética”; el único factor que permite diferenciarlas es su frecuencia o longitud de onda.

El espectro electromagnético es el conjunto de todas las radiaciones que existen, ordenadas según sus frecuencias respectivas. Se inicia por un extremo con las ondas más largas, que vibran a sólo algunos ciclos por segundo, y va progresando hacia frecuencias cada vez más altas, dando origen a las diversas formas de energía electromagnética.

La primera región que se encuentra es la de las ondas de radio, concretamente la correspondiente a las ondas largas; después, imperceptiblemente, se entra en la zona de ondas media (radiodifusión comercial) y corta, bandas de televisión en VHF y UHF, microondas y, por último, el radar.

SATELITES ARTIFICIALES

Aproximadamente al alcanzar la frecuencia de 10.000 megaciclos por segundo se inicia la región de los rayos infrarrojos o radiaciones caloríficas. Mucho más adelante, a los 430 millones de megaciclos (correspondiente a una longitud de onda de 0,7 micras) aparece la radiación de color rojo oscuro, primer eslabón de la banda visible, que va del rojo al violeta, pasando por todos los colores del arco iris y abarca una extensión de frecuencias .muy reducida.

Su límite máximo son 750 millones de megaciclos por segundo, a partir del cual se entra en la región de ultravioleta. Esta es otra banda muy amplia, que alcanza hasta las frecuencias de trillones de ciclos por segundo. Viene a continuación la de los rayos X y, por último, la de los rayos gamma, mucho más penetrantes, para los cuales no se conoce límite superior de frecuencias.

Todas estas radiaciones existen en el espacio libre, desplazándose por él a la velocidad de la luz (300.000 kilómetros por segundo). Sin embargo, gracias al filtro natural que forma nuestra atmósfera, sólo algunas consiguen llegar a la superficie de la Tierra. Así sucede con la luz visible, pequeñas porciones del infrarrojo y el ultravioleta, y algunas frecuencias específicas de las ondas de radio. El resto son absorbidas a diferentes alturas sobre el suelo.

Los rayos ultravioleta, X y gamma poseen una acción esterilizante; de hecho, la irradiación con rayos gamma es una técnica corriente en la asepsia de material quirúrgico. De ahí que la presencia de la atmósfera como escudo contra este tipo de radiaciones sea una circunstancia providencial, gracias a la cual la Tierra puede albergar las diversas formas de vida.

En cambio, desde el punto de vista astronómico, la atmósfera constituye un obstáculo impenetrable para el estudio de las radiaciones en el espacio libre. Hasta el advenimiento del satélite artificial, el único medio de obtener información acerca de ellas eran los globos estratosféricos y los cohetes de sondeo equipados con instrumentos registradores. Pero, evidentemente, desde 1957 los satélites vienen ofreciendo una serie de ventajas decisivas sobre los demás sistemas: mayor altura de vuelo y tiempo de( permanencia en órbita más prolongado. De ahí el interés que las técnicas astronáuticas revisten para el astrónomo y el astrofísico.

Otro tipo de radiación existente en el espacio es la corpuscular: partículas subatómicas (protones, electrones, átomos de metales ligeros fuertemente ionizados, etc.) emitidas por el Sol o resultantes del bombardeo de radiaciones de elevada energía sobre los gases de la alta atmósfera. Los chorros de partículas procedentes del Sol se desplazan a velocidades relativamente modestas (algunos centenares o miles de kilómetros por segundo) y constituyen lo que se denomina “viento solar”.

Al igual que ocurre con las radiaciones electromagnéticas, la radiación corpuscular sólo puede estudiarse adecuadamente en el espacio exterior, ya que al entrar en la atmósfera las partículas interaccionan con los átomos de oxígeno, nitrógeno y demás gases, y originan fenómenos secundarios muy complejos. Las auroras boreales, producidas al ser excitados los átomos de la alta atmósfera por partículas de elevada energía, son buen ejemplo de ello.

¿Cómo se detectan las radiaciones corpusculares en el espacio? Básicamente, mediante los mismos métodos que se emplean en la Tierra en tecnología nuclear. Los primeros Explorer americanos llevaban a bordo simples contadores Geiger apantallados con diferentes espesores de plomo de manera que sólo fuesen excitados por partículas de energía superior a cierto umbral. Más tarde se emplearon cámaras de ionización, contadores de centelleo, de efecto Cerenkov y muchos otros detectores, cada vez más especializados.

En cuanto a la medición de las radiaciones ultravioletas e infrarrojas, existen dispositivos fotoeléctricos sensibles a diferentes bandas de frecuencias, de modo que resulta muy fácil seleccionar la que se desea estudiar. Ciertos tipos de satélites disponen de mecanismos de orientación para mantener tales sensores continuamente dirigidos hacía la fuente de radiación, por lo general el Sol o la propia Tierra.

Estudio del magnetismo
Otro aspecto en el que los satélites artificiales encuentran aplicación es el estudio de los campos magnéticos en el espacio, una disciplina que puede decirse nació a la sombra de la astronáutica.El campo magnético que rodea nuestro planeta es el resultado de la superposición de varios campos de origen diverso: el propio campo magnético terrestre, el solar y el de origen galáctico, que en conjunto originan un cuadro de enorme complejidad, sujeto, además, a incesantes variaciones.

La magnetosfera, o zona en la que la influencia del campo terrestre predomina sobre las demás, tiene la forma de una gota de agua muy alargada; su extremo más achatado mira hacia el Sol, mientras que el otro se extiende hasta casi dos millones de kilómetros en el espacio, vibrando y agitándose como una bandera ondeando al viento. Esta estructura puede alterarse bruscamente a raíz de las tormentas y erupciones solares y de las variaciones locales del magnetismo terrestre.

El campo magnético que rodea la Tierra actúa como una jaula invisible capaz de atrapar las partículas subatómicas emitidas por el Sol y mantenerlas formando zonas anulares más o menos estables. Las primeras indicaciones acerca de la existencia de estas regiones fueron facilitadas por los detectores de radiación de los primeros satélites; el principal responsable de la interpretación de los resultados fue el Dr. James van Alien, de la Universidad de lowa, en cuyo honor fueron bautizadas esas zonas.

El Ártico y la Antártida son los dos únicos puntos por donde las partículas atrapadas pueden escapar y penetrar en la atmósfera originando las auroras boreales o australes, uno de los fenómenos más espectaculares de la Naturaleza.

Equipando un satélite con detectores adecuados, puede establecerse un mapa del campo magnético existente a las alturas que atraviesa. Se conocen detectores de muchos tipos llamados magnetómetros, por lo general adaptaciones de instrumentos empleados en laboratorios e industrias para efectuar mediciones sobre materiales magnéticos.

El magnetómetro más sencillo es el formado por una bobina metálica en la que, al variar el campo magnético que la atraviesa, aparecen corrientes inducidas proporcionales a dicha variación. Una bobina permite detectar la componente de las alteraciones magnéticas según una sola dirección (la perpendicular al plano de la bobina); si se agrupan tres bobinas de manera que sean mutuamente perpendiculares, se obtendrán datos sobre las tres componentes espaciales del campo, lo cual permitirá determinar su intensidad total no solamente en magnitud, sino también en dirección.

Por lo general, los magnetómetros de que van provistos los satélites artificiales son instrumentos tan sensibles que pueden ser  perturbados incluso por las corrientes eléctricas que circulan por los equipos de a bordo del satélite o por sus piezas metálicas. Por tanto, los dispositivos sensores se mielen situar en el extremo de largas pértigas que se despliegan automáticamente al entrar en órbita.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53 y 18