Astronomia Curso Basico

Biografia de Sebastian Munster Astronomo y Geografo

Biografía de Sebastian Munster Astrónomo y Geógrafo

SEBASTIAN MUNSTER (1498-1552)
Sebastián Münster, orientalista, astrónomo y geógrafo, es uno de los últimos representantes de las concepciones clásicas sobre la contextura y mecanismo del Universo.

Sebastian Munster Astrónomo
Sebastian Munster Astrónomo

Universitario, hombre de sólida formación, de espíritu inquieto—como lo demostró haciéndose luterano—se mantuvo aferrado a las teorías que leyó en la Geografía de Tolomeo, libro que editó en 1540, y que para él resumió cuanto de verdad podio saberse sobre la Tierra y los mundos siderales.

Y, sin embargo, en aquel mismo año de 1540, las prensas de Dantzig empezaban a imprimir la Narratio prima de un médico de Frauenburgo y, a la vez, comisario de la diócesis de Ermelandia, llamado Nicolás Copérnico.

En la Narratio prima se exponían las ideas a que había llegado el sabio polaco durante sus profundas investigaciones sobre el Cosmos: que la Tierra, y con ella los demás planetas, se movían alrededor del Sed.

Seguramente, de haber conocido el libro, Münster no habría rechazado esta teoría por disparatada, pues Tolomeo había afirmado que eran el Sol y los planetas los que giraban en torno a la Tierra, tal como parecía certificar su movimiento en la bóveda celeste.

Münster había nacido en 1498 en Nieder-Ingelheim, una apacible aldea de la Renania. Estudió teología en la universidad de Heidelberg; pero antes de terminar la carrera, en 1515, a los dieciséis años de edad, vistió el hábito de San Francisco.

Completó su formación, desde 1509, en el convento de Ruffach, donde tuve la fortuna de hallar un gran maestro en la persona de C. Pellikan, quien le orientó en el aprendizaje del griego y del hebreo, así como le inició en las matemáticas y la astronomía.

Siguió a su maestro a Basilea, en 1511, pero en 1514 pasó, solo, a Tubinga para completar su formación al lado de Juan Stotfler, famoso cartógrafo y cosmógrafo, cuyo influjo en Münster es indudable.

Sin embargo, en Tubinga, Münster se hizo destacar como orientalista, y este hecho explica que en 1537 se le concediera una cátedra de hebreo en Heidelberg, en cuya ciudad también predicó.

Es casi seguro que a causa de una entrevista con Lutero, quizá celebrada en la renana ciudad de Worms, Sebastián le siguiera por el camino de la Reforma, causa que abrazó públicamente en 1529.

Un año antes se había establecido en Basilea para explicar hebreo en esta universidad. Su figura atrajo gran número de estudiantes en sus aulas, muchos de los cuales colaboraron en su obra.

La actividad de Münster fue inmensa, pues entre 1534 y 1535, editó la primera biblia en hebreo en Alemania, en 1538 la edición de Pomponio Meló, en 1540 la de Tolomeo a la que nos hemos referido, y en 1544 la Cosmografía, destinada a ser la más célebre de sus obras, pues, en efecto, tuvo varias y rápidas ediciones.

La causa de este éxito fue, en primer lugar, la abundancia dé materiales recogidos; luego, la amplitud del tema, pues incluso comprendía un esbozo de la Geografía de América; y, por último, su carácter de divulgación, a cuyo objeto fue escrita en lengua vulgar (en alemán, titulada Beschreibung).

Münster murió en Basilea el 23 de mayo de 1552. Con él desaparecía parte de la ciencia bajomedieval, cuyo pabellón había mantenido enhiesto durante medio siglo.

La Luna Características Generales Información Científica

INFORMACIÓN GENERAL Y CIENTÍFICA DE LA LUNA, SATÉLITE TERRESTRE

De todos los cuerpos celestes, la Luna es posiblemente el más conocido. Fue objeto de muchas antiguas creencias y es aún llamada poéticamente Selene, el viejo nombre de la diosa Luna. La ciencia que la estudia se denomina selenografía, y a pesar de que este cuerpo celeste no ha revelado aún todos sus secretos, se conoce bastante sobre él, pues  el hombre ha alunizado en varias oportunidades y ha conseguido centenares de muestras de su superficie para futuras  investigaciones en la NASA.

MAPA DE LA LUNA CON NOMBRES DE SUS MARES Y CRÁTERES

satelite de la Tierra, Luna

(Para Ver Nombres de Cráteres y Mares)

LA LUNA EN NÚMEROS:

Edad: 4.600 millones de ños
Distancia máxima a la Tierra: 405.000 km
Distancia mínima a la Tierra: 363.000 km
Diámetro real de la Luna: 3.473 km
Circunferencia: 10.927 Km.
Superficie: 0,075 de la Terrestre
Volumen: 0,02 de la Terrestre
Peso: 0,012 de la Terrestre
Densidad: 0,6 de la Terrestre
Velocidad de Escape: 2,4 Km/s.
Revolución sobre su eje: 27 d. 7 hs. 43′
Distancia media a la Tierra: 384.403 km
Tiempo de su traslación: 27 d. 43′ 11″
Temperatura de su superficie: De 100°C a -184°C (noche lunar)
Altura máxima de sus montañas: 9.000 m.
Duración del día: 14 dias terrestres
Duración del la noche: 14 dias terrestres

Sobre su formación: Hace unos 5000 millones de años cuando el sistema solar se estaba formando, y definiendo su constitución actual, en nuestro planeta una capa de lava volcánica semiderretida burbujeaba por toda la superficie como un dulce hirviendo. No había tierra sólida, ni agua, ni vida. La Tierra, completamente inestable, giraba tan deprisa sobre su eje que cada día duraba sólo unas cuatro horas.

Ocurrió entonces fue algo inesperado. Los expertos creen que dos planetas jóvenes coincidieron en la misma órbita alrededor del Sol, aunque moviéndose a distintas velocidades. Uno era la Tierra; el otro, el planeta llamado Theia. Unos cincuenta millones de años más tarde, el Sol comenzó a brillar, y aquellos dos jóvenes planetas chocaron uno con otro. Con la sacudida, la Tierra giró sobre su costado, fuera de control.

Miles de volcanes entraron en erupción tras el impacto. Enormes cantidades de gas, antes atrapadas en el núcleo de la Tierra, salían ahora a borbotones a través de la superficie, y creaban así la primera atmósfera del planeta. Las capas más exteriores de Theia se vaporizaron en miles de millones de pequeñas partículas. Los restos volaron en todas direcciones y rodearon la Tierra con una gruesa capa de polvo, rocas y granito a elevada temperatura.

Atrapada por la gravedad terrestre, esta bruma de escombros se arremolinó en el cielo, y todo se oscureció. Durante meses ni siquiera el rayo más brillante de sol podía penetrar las capas de polvo que en un tiempo habían constituido el planeta Theia. Su núcleo de hierro fundido alcanzó el centro de la Tierra, y produjo la fusión de los dos núcleos en una única bola metálica, compacta, con una temperatura de miles de grados, que se hundió en el centro del globo, destrozado por la fuerza del impacto.

En la actualidad, no hay pruebas físicas en el planeta del impacto de la colisión con Theia, ya que tuvo tal fuerza que todo el material exterior se vaporizó y explotó en el espacio. Pero la evidencia no está muy lejos. El polvo y el granito que envolvieron la Tierra pronto se reagruparon, y se convirtieron en una enorme bola de polvo. Aproximadamente sólo un año después del impacto, la Tierra tenía una nueva compañera, nuestra grande, brillante y cristalina Luna.

Aldrin astronauta de la NASA tomando muestras

El astronauta estadounidense Neil Alden Armstrong, como comandante de la misión lunar Apolo 11, es la primera persona que pisa la Luna. Su compañero Edwin E. Aldrin es el segundo hombre en poner un pie en la Luna. Aquí lo vemos tomando muestras del suelo lunar. También participa en la misión el astronauta Michael Collins, que pilota el módulo de control

INFORMACIÓN GENERAL: La Luna da una vuelta completa alrededor de la Tierra en 27 días, 7 horas, 43 minutos, 7 segundos; pero a causa del movimiento de la Tierra alrededor del Sol, el mes lunar —o sea el período que va desde una nueva luna hasta la siguiente— es levemente mayor de 29,5 días.

El diámetro de la Luna es de 3.474km.; pero como la distancia que la separa de la Tierra varía, debido a que su trayectoria es elíptica, su tamaño parece cambiar levemente. La distancia mínima entre la Tierra y la Luna es de 364.300 km. y la máxima es de 408.000 km.

Sólo la mitad de su superficie está siempre iluminada por la luz del Sol. Durante la luna nueva, la cara iluminada está oculta para nosotros; pero a medida que va rodeando a nuestro planeta, vamos viendo cada vez más esta faz, hasta que se muestra totalmente en luna llena. Por varias razones, parece inclinarse levemente, de manera que podemos ver un 59 % de su superficie, en diferentes períodos de su trayectoria; pero no vemos jamás toda la cara posterior.

Cuando fue inventado el telescopio, en 1609, observó Galileo que la superficie lunar es muy rugosa, con picos y cadenas montañosas, con círculos como cráteres volcánicos y llanuras, que confundió con mares. Muy pronto se dibujaron mapas de la Luna y se están haciendo cada vez más perfectos, con ayuda de la fotografía. Un mapa simple de la Luna se muestra en la ilustración superior.

Galileo observando la Luna

1610: Galileo Galilei Observando los astros celestes

La palabra latina mare (mar) señala los desiertos; dos de ellos se muestran abajo, en escala mayor. A la izquierda está el llamado Mare Imbrium (Mar de las Lluvias), que es un vasto desierto, con algunas montañas y cráteres diseminados. Junto a éste, están los Apeninos (la mayoría de las cadenas montañosas de la Luna lleva el mismo nombre que algunas cordilleras terráqueas, mientras que los picos montañosos se conocen con el nombre de algún famoso sabio). En la lámina de la izquierda está el Mare Nubium (Mar de las Nubes), bordeado por una región de cráteres próxima al polo sur de la Luna.

Su peso es mucho menor que el de la Tierra y así también su fuerza de gravedad, de manera que nosotros pesaríamos allí sólo un sexto de nuestro peso en. la Tierra y nuestra fuerza muscular nos permitiría realizar saltos espectaculares.

En la Luna no hay atmósfera en la Luna, de modo que no puede escucharse sonido alguno en su superficie. La ausencia de aire debe hacer que el cielo se vea negro aun en plena luz del día, pero las estrellas se destacarán marcadamente. Desde un lado de la Luna la Tierra está siempre visible y aparece mucho más grande de lo que la Luna se ve desde la Tierra; además, visto desde la Luna, nuestro planeta nunca se oculta, pero sí se mueve de un lado al otro en el cielo. Desde la cara posterior de la Luna nunca sería posible ver la Tierra.

El día y la noche lunares son aproximadamente 14 veces más largos que los nuestros. No se han observado jamás señales de vida allí y sólo cambios muy leves y dudosos. Se han intentado muchas teorías para explicar la causa de su superficie rugosa; a pesar de sus nombres, los cráteres lunares no pueden haber sido producidos por volcanes, sino quizá por la caída de meteoritos, cuyos efectos habrían sido muy destructores, debido a la falta de atmósfera.

Comparar la Tierra con la Luna es como comparar un organismo viviente con uno muerto. Sabemos que en la Tierra se desarrolla una infinita variedad de seres vivos, que han alcanzado su presente estado de desenvolvimiento por un continuo proceso de evolución. Cambios han ocurrido y ocurren constantemente.

Contrariamente a lo que ocurre en nuestro planeta, palpitante de vida en todas sus formas, con climas que varían enormemente, desde el calor tropical al frío polar, y con sólo una parte comparativamente muy pequeña de su superficie total incapaz de mantener cualquier clase de ser viviente. En 2015 la NASA ha encontrado señales de presencia de agua en la Luna, pero hasta hoy es completamente inepta para toda forma de vida. Es un mundo absolutamente muerto.

Ningún otro cuerpo celeste está tan cerca de la Tierra como la Luna y ningún otro cuerpo puede ser observado, estudiado e investigado tan detalladamente: montañas y llanuras pueden verse con mucha claridad con un simple telescopio casero. Si existiera la vida, lo sería en alguna forma que escaparía a nuestra observación, y ésta parece ser una posibilidad bastante remota.

Un argumento de peso que sostiene la teoría de la imposibilidad de la existencia de vida en la Luna, parte del hecho de que no hay agua ni atmósfera en ésta. Todo ser vivo que visitara la Luna debería llevar consigo los medios para poder respirar, beber y comer. Todos los datos coinciden en afirmar que en la Luna no puede haber vida.

Si la Luna en algún estadio de su existencia poseyó atmósfera, no pudo haberla mantenido por mucho tiempo, pues como su tamaño no es lo suficientemente grande, su fuerza de atracción es insuficiente para impedir que los gases envolventes escapen al espacio. La ausencia de una atmósfera da como resultado temperaturas muy extremas en el día; desde 82° cuando brilla el Sol hasta muy por debajo del punto de congelación cuando aquél se ha ido. La superficie no está nunca, por supuesto, oscurecida por nubes.

Negro y blanco son los colores que hay en la Luna, con algunos toques de amarillo, que son aportados por la luz del Sol. Como no hay atmósfera que pueda captar la luz, el cielo lunar es profundamente oscuro. A pesar de que el Sol esté brillando, las estrellas permanecen siempre visibles.

También la ausencia de aire, según hemos dicho, hace que la Luna sea un lugar de absoluto silencio; aun el disparar de un cañón no produciría el menor sonido.

La Luna ejerce una gran influencia sobre la Tierra, aparte de reflejar la luz del Sol sobre nuestro planeta durante la noche. Océanos y mares están sometidos al movimiento regular de las mareas; éstas resultan de la atracción entre la Tierra y la Luna y el Sol. El Sol es infinitamente más grande que la Luna, pero está tan alejado de la Tierra, que su influencia sobre las mareas es menor.

Durante la luna nueva y el plenilunio, Tierra, Luna y Sol están en una misma línea recta y así la influencia de la Luna sobre las mareas está reforzada por la del Sol. De esta manera se producen pleamares y bajamares extremas.

Cuando la Luna está en cuarto creciente o menguante, la atracción lunar forma un ángulo recto con la del Sol; los efectos de la Luna y del Sol son opuestos entre sí y el resultado es la marea muerta, con movimientos muy excepcionales de subida y bajada. Las mareas están influidas por la posición de las masas continentales, y los mares cerrados, como el Mediterráneo, tienen rara vez mareas.

inclinación entre orbita lunar y la Tierra

El plano de la órbita de la Luna forma un ángulo de 5° con el terrestre. Desde la Tierra se descubre un ancho de 6° 30′ del suelo lunar más allá de cada polo: del Polo Norte si la Luna está en la parte sur de su órbita, y del sur cuando se halla en su parte norte. Este fenómeno recibe el nombre de libración en latitud. Las dos libraciones citadas y u na tercera llamada diurna, que solamente alcanza un grado, dan origen a que se reconozca el 59% de la superficie lunar en lugar de la mitad exacta que se vería si aquéllas no existiesen.

LA FASES DE LA LUNA:

FASES DE LA LUNA

Dijimos que la Luna como la Tierra carecen de luz propia y reflejan la que reciben del Sol. Por ello hay siempre en ellas una cara iluminada que en la Tierra denominamos día, y otra obscura, que llamamos noche. Combinados los movimientos lunar y terrestre se produce el ocultamiento permanente de una cara del satélite. Hasta octubre de 1959 ningún terrícola había podido ver la parte oculta. Pero en esa fecha fue fotografiada mediante un satélite artificial lanzado por la Unión Soviética.

Las variaciones que experimenta la Luna se denominan fases: en ocasiones vemos el disco lunar completo, en otras sólo una especie de hoz, y a veces nos resulta totalmente invisible. (Cuando se halla en conjunción con el Sol decimos que se halla en fase de Luna nueva. Al otro día surge por occidente cual un delgado creciente luminoso cuya convexidad está siempre del lado del Sol en el ocaso.

El ancho creciente va aumentando hasta que, transcurridos seis días, aparece en forma de semicírculo cuya parte luminosaterminaen una línea recta. En tal situación se dice que está en cuarto creciente. Se la observa con facilidad durante la tarde y en el anochecer. A medida que sigue su camino y se va alejando del Sol adquiere figura oval y su brillo va en aumento, hasta que al cabo de siete u ocho días se torna completamente circular.

Esta fase se llama de Luna llena, después de la cual la parte iluminada comienza a disminuir y las mismas fases se van repitiendo en sentido inverso. Es decir que, primeramente, toma la forma oval y después la de semicírculo en que llega al cuarto menguante, fácilmente observable al alba.

Por último, tras haber dado una vuelta completa al cielo, sale por la mañana un poco antes que el Sol, y ya cerca de éste, se pierde entre sus rayos y vuelve a la posición original de Luna nueva. Esta posición oculta se denomina conjunción, porque en ella se encuentra entre la Tierra y el Sol. De manera similar, las épocas de la Luna llena reciben el nombre de sicigias y las de los cuartos creciente y menguante, cuadraturas.

GRAN MAPA DE LA LUNA CON CRÁTERES Y MARES:

Ver También: Los Eclipses

Fuente Consultada:
Biblioteca Temática UTEHA Tomo 10 El Mundo Que Nos Rodea – La Luna, satélite terrestre-
Cielo y Tierra Nuestro Mundo en el Tiempo y el Espacio Globerama Edit. CODEX
Enciclopedia Electrónica ENCARTA Microsoft

Que es un Radiotelescopio? Función de la Radioastronomia

FUNCIÓN DE LA RADIOASTRONOMIA

La palabra «radioastronomía» data de mediados del siglo XX, por lo que podríamos decir que un rama de la astronomía, relativamente joven, pensemos que las primeras observaciones con telescopio fueron las de Galilei en el siglo XVI. La primera identificación de ondas de radio de origen extraterrestre tuvo lugar hace ochenta años; pero la colaboración sistemática con los observatorios ópticos sólo comenzó después de la segunda guerra mundial. Entretanto progresaron otras formas de escudriñamiento mediante cohetes o globos-sonda capaces de analizar las vibraciones que nuestra atmósfera intercepta o perturba, como por ejemplo los rayos X.

La radioastronomía depende por completo de los telescopios ópticos; sin ellos carecería de sentido y valor porque es incapaz de calcular la distancia de las fuentes emisoras. La comparación de los resultados de ambas disciplinas es interesante pues las ondas radioeléctricas más intensas suelen provenir de los objetos celestes menos visibles y aún, aparentemente, de ninguna materia identificable.

También los registros históricos son muy útiles. Gracias a los astrónomos chinos que en el año 1054 señalaron el súbito estallido de una estrella («supernova») podemos reconstruir la historia de la actual nebulosa del Cangrejo, que pertenece a nuestra galaxia, la vía Láctea . Otras supernovas, indicadas por Tycho Brahe en 1572 y Kepler en 1604, son ahora débiles radioestrellas.

Esta última categoría de astros, la más inesperada de la nueva ciencia, parece incluir los cuerpos más distantes que conoce la astronomía. Su conocimiento contribuyó notablemente a la dilucidación de uno de los problemas capitales de todos los tiempos: el del origen del universo.

Grupo de Radiotelescopios Trabajando en Paralelo

LA RADIOASTRONOMIA Y LOS RADIOTELESCOPIOS:

Las Ondas Electromagnéticas Que Emiten Las Estrellas: Cuando una estrella explota, formando una nova o supernova, irradia una enorme cantidad de energía luminosa. Los átomos componentes de la estrella reciben gran cantidad de energía, se calientan extraordinariamente y, como todos los cuerpos muy calientes, irradian la mayor parte de su energía en forma de luz.

La estrella se presenta mucho más brillante. Pero, además de la luz visible, la estrella emite otras clases de radiaciones: rayos infrarrojos invisibles, rayos ultravioletas y ondas de radio. Todas estas clases de radiaciones se hacen mucho más intensas en el momento de la formación de una supernova. La radioastronomía se ocupa de la última clase de radiación citada, o sea, de las ondas de radio.

La fuerza de la explosión acelera y ex-. pulsa de la estrella nubes de partículas cargadas eléctricamente. Asociada con ellas, hay una serie de campos magnéticos turbulentos que cambian rápidamente. Cuando las partículas cargadas se mueven por los campos magnéticos, ganan energía, irradiándola en forma de ondas electromagnéticas.

Una de las ondas corrientes emitidas por los átomos de hidrógeno cargados tiene una longitud de onda de 21 centímetros. Las ondas electromagnéticas de esta longitud de onda son ondas de radio. Se propagan, a partir de su origen, en todas direcciones, viajando con la velocidad de la luz.

Las ondas luminosas son también un tipo de radiación electromagnética, pero de longitud de onda mucho más pequeña. Todas las galaxias y muchas estrellas, incluso el Sol, emiten ondas de radio. El Sol no es una estrella que se caracterice especialmente por enviar ondas de radio; pero, durante los períodos de actividad de sus manchas, la emisión de ondas de radio aumenta.

Las fuentes que emiten ondas de radio con gran intensidad no coinciden necesariamente con los objetos que a nuestros ojos aparecen brillantes, como las estrellas. De hecho, las ondas de radio provienen de regiones oscuras del cielo, de oscuras nubes de polvo y de hidrógeno, en las que éste (según ciertas teorías) está concentrándose para formar nuevas estrellas; sus átomos irradian la energía que ganan al acelerarse en los campos magnéticos del espacio.

Las ondas de radio son invisibles y no pueden detectarse con los telescopios ópticos. Pero, de la misma forma que las emitidas por una estación de radio, pueden ser recogidas por una antena receptora. Estas ondas producen la circulación de débiles corrientes eléctricas en la antena.

Estas corrientes pueden amplificarse, seleccionarse y convertirse en sonidos audibles, tal como acontece con un receptor de radio corriente. Pero es más frecuente utilizar un receptor especialmente concebido, para recoger las ondas de radio del espacio. En él, las corrientes fluctuantes de la antena se registran automáticamente en una gráfica. Al mismo tiempo, se conducen directamente a un cerebro electrónico, para su análisis.

Gigate Radiotelescopio de Arecibo

Los radiotelescopios son grandes antenas diseñadas para interceptar toda la emisión de radio posible de una estrella o de una galaxia. Para ello, las ondas se recogen juntas y se concentran de forma que las corrientes fluctuantes que producen en la antena sean lo suficientemente grandes para ser detectadas.

Las ondas de radio se dispersan en todas direcciones a partir de su fuente. Sólo una pequeñísima fracción de la radiación total de una estrella es interceptada por la Tierra, y esta radiación ha recorrido distancias tan enormes que sus ondas son prácticamente paralelas unas a otras. El radiotelescopio intercepta los rayos paralelos en la mayor superficie posible y los concentra enfocándolos en la antena. Cuanto mayor sea la superficie, más sensible será el radiotelescopio, ya que recogerá más cantidad de radiación de la estrella lejana. Los mayores telescopios ópticos son gigantescos reflectores formados por espejos parabólicos.

Los rayos que llegan a la cuenca del espejo parabólico se reflejan en un pequeño espejo colocado en el foco, y son enviados a una pequeña película fotográfica. El enorme espejo parabólico recoge todos los rayos luminosos que llegan a susuperficie.

Algunos de los grande radiotelescopios son muy parecidos a ese dispositivo. El radiotelescopio es también un paraboloide que puede tener cientos de metros de diámetro.

El pequeño espejo colocado en el foco del telescopio óptico está reemplazado en el radiotelescopio por la antena, a la que se enfoca toda la radiación recibida. Hay un inconveniente importante en los radiotelescopios. Incluso si existen dos o tres fuentes de ondas de radio separadas en el campo de detección es imposible distinguirlas unas de otras.

Las corrientes fluctuantes son el resultado de todas las ondas de radio recibidas en el radiotelescopio. La placa fotográfica del telescopio óptico es un medio más eficiente para detectar la imagen, pues los rayos de luz que llegan al espejo con distintos ángulos se concentran en puntos ligeramente diferentes en el espejo pequeño, y se reflejan para ennegrecer puntos distintos en la placa sensible.

El radiotelescopio ideal debe ser lo más grande posible, para recoger el mayor número de rayos, pero también debe ser manuable, de forma que pueda dirigirse _ a cualquier parte del cielo. Cuando el diámetro sobrepasa los 80 metros, el telescopio no puede ser lo suficientemente rígido para resistir el viento sin doblarse y distorsionar la «imagen». Además, no es fácil manejarlo. Se está construyendo en Puerto Rico un radiotelescopio de más de 300 metros de diámetro, forrando con aluminio pulimentado las paredes de un cráter que presenta una forma conveniente. Pero este radiotelescopio no puede ser enfocado arbitrariamente, puesto que es fijo.

Los radiotelescopios reflectores simples son de construcción difícil y costosa. Sin embargo, puede fabricarse otra clase de radiotelescopio formado por varios reflectores pequeños y antenas, dirigidos hacia diferentes partes del cielo y que se mueven conjuntamente, cubriendo una distancia mucho mayor de la que puede abarcar un solo reflector. De esta forma, la «imagen» puede componerse a partir de fragmentos parciales. Para localizar de manera más precisa las fuentes de ondas intensas, se usan unas largas hileras de reflectores y antenas idénticas, colocados exactamente a la misma distancia unos de otros.

Estos dispositivos tienen un excelente poder de resolución y resultan mejores para separar dos fuentes de ondas próximas. A pesar de que los rayos procedentes de una fuente emisora puntual son paralelos, si llegan al radiotelescopio formando un ángulo, alcanzarán la antena de un extremo de la línea antes de llegar a la del otro extremo. Al llegar a las antenas en instantes diferentes, las ondas de cada extremo lo harán en distintas fases de su vibración.

Al sumar todas las corrientes de las antenas, las de un extremo pueden estar en una fase opuesta a las del otro, eliminándose parcialmente una a otra. El efecto producido es hacer más nítida la imagen de radio de la estrella. Este tipo de radiotelescopio se llama radiointerjerómetro, debido a que la eliminación de una serie de ondas por otra es una interferencia. Generalmente, el interferómetro se compone de dos líneas de antenas que forman ángulos rectos. La nitidez de la imagen o poder de resolución puede aumentarse de varias maneras, sumando o restando las señales de las distintas antenas.

Los radiotelescopios pueden penetrar mucho más profundamente en el universo que los telescopios ópticos. Las galaxias más lejanas que se conocen son también los transmisores de radio más potentes, y fueron descubiertas precisamente a causa de esta poderosa emisión de ondas de radio, que emiten probablemente por ser galaxias en colisión. El telescopio óptico de Monte Palomar investigó con mucho cuidado en esa dirección, y encontró la tenue nube de galaxias causantes de las ondas de radio.

La atmósfera terrestre es un inconveniente para la radioastronomía, dado que absorbe grandes cantidades de la radiación electromagnética que llega a la Tierra. Sólo un pequeño margen de ondas puede atravesar la atmósfera. Las ondas de radio de pequeña longitud son absorbidas por las moléculas de la atmósfera, y las de onda larga se distorsionan a causa de las capas cargadas eléctricamente de la ionosfera.

Una solución sería la de colocar un radiotelescopio en un satélite artificial, y una idea todavía más prometedora es la de construirlo en la Luna, donde no hay atmósfera que pueda interrumpir la radiación. En la Luna se podrían construir radiotelescopios mayores, ya que siendo menor la fuerza de la gravedad, la estructura de los aparatos podría manejarse con menor esfuerzo y una menor deformación del reflector.

ALGUNAS FUENTES INTENSAS DE ONDAS DE RADIO

Sol 8 minutos Desde algunos milímetros a varios metros, emitidas por la corona y la cromosfera
Júpiter 40 minutos Unos 15 metros
Gas hidrógeno en ios brazos espirales de una galaxia De 1.500 a 80.000 años
21,1 cm„ emitida por el gas hidrógeno ionizado
Nebulosa de la constelación de Cáncer (su pernova) 3.000 años De 1 cm. a 10 m. Ondas de electrones acelerados
Supernova de la constelación de Casiopea 10.000 años De un centímetro a 10 metros; proceden de hidrógeno ionizado, oxígeno y neón
Centro de nuestra galaxia 30.000 años
Nubes de Magallanes (las galaxias más próximas) 200.000 años 21,1 centímetros
Nebulosa de la constelación de Andrómeda (la galaxia espiral más próxima) 2 millones de años 21,1 cm. Es un emisor tan potente como nuestra propia galaxia
Galaxia elíptica de la constelación de Virgo (Virgo A), nebulosa del chorro azul 33 millones de años Ondas de electrones acelerados
Dos galaxias espirales en colisión de la constelación del Cisne (Cisne A) 50 millones de años
Nebulosa de radio lejana, de la constelación de Hércules 750 millones de años

Fuente Consultada:
Revista TECNIRAMA N°90 Enciclopedia de la Ciencia y La Tecnología – La Radioastronomia –

Foto Panorámica de la Luna con Nombres de Crateres y Mares

Foto Panorámica de la Luna con Nombres de Crateres y Mares
(Ideal Para Observar con el Telescopio)

ALGUNOS DATOS DE LA LUNA
A diferencia de la Tierra, la Luna no está achatada en los polos, y su forma es muy parecida a la de una esfera. El eje mayor difiere del menor en 1,5 Km. aproximadamente, y el eje más largo es el que está vuelto hacia la Tierra. De todas las lunas del sistema solar, la nuestra y Garante (de Plutón) son proporcionalmente las mayores respecto al planeta en torno al cual giran.

En términos absolutos, Io, Ganímedes y Calisto (de Júpiter), Titán (de Saturno) y Tritón (de Neptuno) tienen un diámetro mayor, pero todas orbitan alrededor de gigantes gaseosos mucho mayores que la Tierra. El centro de masas del sistema Tierra-Luna se encuentra en el interior de la Tierra, a 4.635 Km. del centro. Por tanto, sería más correcto en un mes lunar hablar de rotación de ambos cuerpos alrededor de un centro común.

Ver: Información General y Datos Científicos de la Luna

La Astronomia en la Exploracion Espacial Estudio del Universo

La Astronomía en la Exploración Espacial: Estudio del Universo

En la investigación astronómica, el descubrimiento de nuevos tipos de estrellas es análogo al descubrimiento de nuevos tipos de partículas en la física atómica.

La radioastronomía reveló la existencia de discretas fuentes de radio en el universo, y en 1960, en Estados Unidos, A.R. Sandage consiguió un importante adelanto al identificar una de estas fuentes con un objeto tenuemente visible mediante un telescopio óptico. Era el primero de los quásars fuentes pequeñas pero sumamente energéticas, caracterizadas por una peculiaridad en sus espectros que indica que se mueven a una velocidad cercana a la de la luz.

astronautaEn 1967, Anthony Hewish y Jocelyn Bell descubrieron el primer pulsar, otra fuente de ondas de radio que fluctúa periódicamente. Por un momento, pensaron que podían proceder de alguna forma distante de vida inteligente que trataba de comunicarse, pero esta posibilidad fue descartada cuando se descubrieron otros ejemplos del mismo fenómeno. La frecuencia de las ondas de radio de los púlsars  varía entre unas pocas centésimas de segundo y alrededor de cuatro segundos.

Al parecer, los púlsars son estrellas neutrónicas colapsadas, es decir, objetos originalmente masivos donde la materia ha llegado a concentrarse tanto que los electrones y los protones se han unido para formar neutrones. Probablemente, no tienen más de unos pocos kilómetros de diámetro, y la pulsación se debe aparentemente a su rápida rotación, del mismo modo que la cabeza giratoria de un faro produce un haz de luz a intervalos regulares en todas direcciones.

En 1962, el espectro astronómico se amplió aún más gracias a las originales investigaciones de B.B. Rossi sobre los rayos X procedentes del espacio. Más concretamente, Rossi identificó una fuente de rayos X en Escorpión X-l. Dos años más tarde, las ondas de radio proporcionaron más indicios sobre los mecanismos del universo.

Con una gigantesca antena diseñada para recibir las señales de los satélites, A.A. Penzias y R.W. Wilson, de la empresa Bell Telephone, en Estados Unidos, registraron una radiación de fondo en la región de las ondas de radio, procedente de todas direcciones, correspondiente a las emisiones de un cuerpo negro a una temperatura de 3,5 °K. En la Universidad de Princeton, R.H. Dicke y P.J. Peebles pudieron ofrecer una explicación teórica para este fenómeno.

Según la teoría del «big bang» sobre el origen del universo, la radiación liberada en la explosión inicial debe haberse distribuido y enfriado progresivamente. Los cálculos indicaban que la temperatura actual del universo debía ser de unos 5 °K, con cierto margen para una serie de incertidumbres. Era razonable suponer que la radiación observada por Penzias y Wilson era la radiación natural de fondo del universo enfriado. Los cosmólogos consideran este fenómeno como una de las pruebas más convincentes en favor de la teoría del «big bang».

Los experimentos de Rossi se efectuaron mediante sondas instaladas en cohetes, lo cual nos recuerda que para 1960 se habían logrado considerables progresos en el campo de los satélites de observación no tripulados. Sus posibilidades se habían presagiado con cierta confianza ya en 1955, cuando tanto la URSS como Estados Unidos los incluyeron provisionalmente entre sus contribuciones al Año Geofísico Internacional (AGÍ).

Sus ventajas sobre los cohetes-sonda, como los utilizados por Rossi, residían en su capacidad para registrar y transmitir informaciones durante largos periodos, no solamente durante unos pocos minutos. Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el AGÍ, pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.

Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958. Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960. A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

El hombre en el espacio: La era del vuelo espacial tripulado comenzó el 12 de abril de 1961, cuando el cosmonauta soviético Yuri Gagarin (1934-1968) fue lanzado a bordo del Vostok 1. Su nave completó una sola órbita a la Tierra en un vuelo que duró 90 m. Gagarin aterrizó con paracaídas, expulsado de su cápsula durante el descenso.

Estados Unidos se convirtió en el segundo país en poner en órbita a un hombre cuando John Glenn (1921-) fue lanzado en su cápsula Friendship 7 el 20 de febrero de 1962.

Como consecuencia del éxito del vuelo de Gagarin, el presidente Kennedy anunció que Estados Unidos trataría de poner a un hombre en la Luna hacia fines de la década. Había nacido el programa Apolo, que emplearía los potentes cohetes Saturno V. El proyecto llegó a su culminación el 20 de julio de 1969 cuando Neil Armstrong (1930- ) y Edwin Aldrin (1930- ) aterrizaron con su módulo lunar Eagle, del Apolo 11, en el mar de la Tranquilidad. El programa Apolo concluyó en 1972, después de que cinco misiones exitosas más hubieran llevado a otros diez hombres a caminar sobre la Luna.

Estaciones espaciales: Las estaciones espaciales se usan en primer lugar para investigaciones científicas, pero también para probar la capacidad de los humanos de soportar períodos largos de falta de gravedad como preparación para la navegación interplanetaria. La primera estación espacial fue la Salyut 1, de la Unión Soviética, lanzada el 19 de abril de 1971. Le siguieron seis estaciones más de la serie Salyut antes de que el 20 de febrero de 1986 se lanzara la estación mayor Mir. Dos cosmonautas pasaron un año a bordo de la Mir, desde el 21 de diciembre de 1987 hasta el 21 de diciembre de 1988.

La estación espacial Skylab, estadounidense, fue lanzada el 14 de mayo de 1973 y visitada por tres tripulaciones sucesivas, la última de las cuales permaneció en ella 84 días.

Lanzaderas espaciales: A diferencia de las primeras naves espaciales, las lanzaderas se pueden reutilizar. El vehículo principal tiene alas como un aeroplano, pero es lanzado mediante cohetes que luego se desechan. Posteriormente, la lanzadera puede aterrizar como un planeador común.

La lanzadera espacial estadounidense se estrenó el 12 de abril de 1981 al servicio del vehículo Columbia. El programa se interrumpió bruscamente, el 28 de enero de 1986, 73 segundos después del lanzamiento de la 25º lanzadera. Una fuga en uno de los cohetes portadores causó una explosión que destruyó el Challenger y mató a sus siete tripulantes. Las operaciones de lanzadera se reiniciaron el 29 de septiembre de 1988, cuando se lanzó el Discovery a la 26a misión.

La URSS desarrolló una nave espacial reutilizable, el VKK (Vosdushno Kosmicheski Korabl, «nave espacial aerotransportada»). El primer VKK lanzado fue el Buran, que completó dos órbitas de la Tierra el 15 de noviembre de 1988. Aunque destinado a llevar una tripulación, el primer vuelo de Buran no fue tripulado.
Sondas no tripuladas.

Gran parte de nuestro conocimiento del Sistema Solar procede de sondas no tripuladas. Nos han transmitido datos de todos los planetas conocidos, salvo Plutón. Han aterrizado naves en Venus y en Marte y hay previstas sondas que se sitúen en órbita alrededor de Júpiter y Saturno.

El futuro: El cohete ha sido el lanzador espacial del s. XX, pero el espacioplano será el lanzador del s. XXI. Los espacioplanos serán totalmente reutilizables y podrán despegar desde y aterrizar en pistas convencionales de cualquier aeródromo. En el Reino Unido, Estados Unidos (proyecto X-30), Japón y Alemania se encuentran en estudio tales espacioplanos.

Es probable que los primeros años del s. XXI vean un retorno a la Luna. No obstante, a diferencia de las misiones Apolo, la próxima vez que los hombres se encaminen a la Luna estarán equipados como para quedarse y establecer una base permanente allí. A continuación del retorno a la Luna, es probable que se emprenda un vuelo tripulado a Marte. El colapso de la economía soviética y la ruptura misma de la URSS (1991) han proyectado sombras y dudas sobre los planes futuros, aunque las misiones rusas no se han interrumpido del todo por la crisis.

Aplicacones de la Tecnología Espacial: Muchos satélites artificiales se usan para telecomunicaciones. Los comsat, como se los llama a veces, están situados a menudo en órbitas geoestacionartas, a 36.900 km por encima del ecuador. Los satélites en esa órbita se mueven a la misma velocidad a que gira la Tierra, por lo que parecen estar fijos en el cielo.

Los satélites meteorológicos funcionan bien en órbitas geoestacionarias o en órbitas polares. Una órbita polar lleva el satélite por los polos Norte y Sur, pasando cada vez sobre una franja de Tierra diferente. Estos satélites pueden cubrir todo el planeta cada 24 horas.

Los satélites de recursos terrestres, como los de la serie Landsat, se pueden usar para la prospección de recursos minerales, controlar ia expansión de plagas en los campos o medir la contaminación.

El espacio aporta un buen punto de vista para los astrónomos, cuyos instrumentos estudian con mucha mayor precisión el universo por encima de la distorsión de la atmósfera. Con esta importante finalidad se construyó el telescopio espacial Hubble.

El movimiento de una estación espacial anula el efecto de la gravedad, haciendo que los astronautas y sus aparatos carezcan de peso. Estas condiciones pueden usarse para elaborar materiales nuevos, tales como cristales muy perfeccionados.

Las fuerzas armadas también usan el espacio, tanto para la vigilancia como para el control de armamentos. Los satélites pueden detector detalles dei suelo de manera mucho más eficaz que los aviones, incluso los especializados. Los satélites espías pueden detectar objetos tan pequeños como un vehículo o una persona. En ese principio se basó la Iniciativa de defensa estratégica («guerra de las galaxias») propiciada por los Estados Unidos durante el gobierno de Ronald Reagan.

exploracion espacio cohetes

Astronomía Elemental Para principiantes

Curso Básico de Astronomía: Astronomía Elemental para Principiantes

  • ASTRONOMÍA Y OBSERVACIÓN
  • Introducción: Qué es la Astronomía.
  • La bóveda Celeste: definiciones.
  • Coordenadas astronómicas y medida del tiempo.
  • Nuestro Sistema Solar
  • EL UNIVERSO
  • Que son las estrellas. Evolución estelar: nacimiento, vida y muerte de las estrellas.
  • Nuestra galaxia: la Vía Láctea.
  • El Universo a gran escala:
  • Clasificación de Hubble de las galaxias.
  • Grupos de galaxias.
  • Cúmulos y supercúmulos de galaxias.
  • El Big Bang.

Ver: Sistema Solar Para Los Niños

INTRODUCCIÓN: ¿QUÉ ES LA ASTRONOMÍA?

La astronomía comprende el estudio científico de todo lo que no esta en la Tierra. Dicho así, parece muy vago, pero proporciona una idea de lo amplio de esta disciplina. Incluso algunos incluyen el estudio de la Tierra como un planeta, en comparación con otros cuerpos similares.

Por lo tanto, la Astronomía trata de estrellas, planetas, cometas, asteroides, nebulosas, cúmulos estelares, galaxias, etc. etc. etc.

astronomia, planetasSe suele confundir a veces con la Astrología, que es una creencia en que algunos cuerpos celestes, según su posición en el cielo vista desde la Tierra, influyen en las personas, en sus actos, e incluso en los animales o las cosas.

Aunque hace muchos siglos la astrología se confundía a veces con la astronomía, desde el nacimiento de la ciencia moderna su separación es total: los astrónomos estudian el Universo para conocerlo y poder explicarlo, mientras que los astrólogos solo usan tablas de posiciones, para relacionarlas con el carácter de las personas o las cosas, siguiendo recetas antiguas, que provienen de una época en que se creía que todo el cielo giraba alrededor de la Tierra.

Para ver de una forma sencilla que estudia la astronomía, que vamos a estudiar en este curso, nos podemos preguntar que cosas vemos en el cielo que estén (a nuestro modo de ver) relacionadas con el tema.

Por ejemplo, øqué cosas astronómicas vemos de día? Así, el Sol, la Luna, el lucero del alba, el lucero vespertino -que suelen ser Venus-, serán respuestas correctas. En cierto modo, las sombras son también fenómenos astronómicos, pues las provoca la luz del Sol. De igual modo, el color azul del cielo tiene que ver con el Sol. Podríamos incluso incluir al arco iris, y otros fenómenos atmosféricos formados por la luz del Sol…

®Y de noche? Tenemos la luna, los planetas, las estrellas, algunos conocerán quizá cometas, nebulosas, cúmulos o galaxias. También se ven satélites artificiales. Las estrellas fugaces, aunque se producen en nuestra atmósfera, a unos 200 Km. de altura, también tienen que ver con la astronomía, pues se trata de material extraterrestre que cae sobre la Tierra (al igual que los bólidos y los meteoritos).

Pero a simple vista podemos reducir nuestro campo a varios tipos de objetos: El Sol, la Luna, los planetas, y las estrellas.

El Sol solo se ve de día, de hecho es el quien marca la diferencia entre día y noche. A la Luna la vemos cambiando, a veces de día a veces de noche. Los planetas son cuerpos brillantes en el cielo, y en general Mercurio, Venus, Marte, Júpiter y Saturno son más brillantes que las estrellas. (Pero también tenemos Neptuno, Urano o Plutón, que solo se ven usando telescopio).

Frente a las estrellas, los planetas -además de ser más brillantes- no parpadean. Seguro que habréis visto en el cielo como las estrellas titilan: su brillo no es uniforme. Esto es debido a la presencia de la atmósfera terrestre, que desvía los rayos de luz que nos llegan de las estrellas. Este efecto es menos drástico cuando le ocurre a la luz proveniente de los planetas. Así que podemos distinguir un planeta de una estrella brillante si nos fijamos en cual no parpadea.

La razón de esto es que los planetas, aunque están muy lejos de nosotros, se ven como pequeños discos, y son muchos los rayos de su luz los que nos llegan al ojo. Aunque unos cuantos se desvíen, los demás no, por lo que el brillo aparentemente no cambia.

Las estrellas, sin embargo, están tan lejos que son solo un punto luminoso. Ese rayo que nos llega de ellas, si se desvía, no alcanza nuestro ojo, y no vemos su luz momentáneamente. Cuando la noche es poco clara, o muy turbulenta (con capas atmosféricas de diversa temperatura, como suele suceder en el verano) las estrellas parpadean más acusadamente.

DEFINICIONES EN LA BÓVEDA CELESTE

Círculo máximo: Cualquier circunferencia de la bóveda celeste con centro en el observador.

Polo Norte Celeste: Prolongación del Polo Norte Geográfico en la bóveda celeste.

Ecuador Celeste: Prolongación del ecuador terrestre en la bóveda celeste.

Meridiano Celeste: Cualquier círculo máximo perpendicular al ecuador celeste. Todos los meridianos pasan por los polos Norte y Sur Celeste.

Eclíptica: Círculo máximo descrito por el movimiento aparente del Sol a lo largo del año.

Punto Aries: Posición que ocupa el Sol en el Equinoccio de primavera. Es la intersección de la EclÍptica con el Ecuador en Piscis.

Punto Libra: Es la intersección de la Eclíptica con el Ecuador en la constelación de Virgo. El Sol se encuentra en el día del equinoccio de OtoÒo.

Horizonte del lugar: Proyección sobre la bóveda celeste del círculo del horizonte.

Cenit: Prolongación hacia arriba de la vertical del lugar sobre la bóveda celeste.

Nadir: Prolongación hacia abajo de la vertical del lugar sobre la bóveda celeste.

Meridiano del lugar: Círculo máximo que pasa por el polo Norte celeste y por el cenit.

Vertical de un astro: Círculo máximo que pasa por el Cenit y por el astro.

Ver Un Grafico de la Bóveda

COORDENADAS ASTRONÓMICAS

Coordenadas Horizontales

Los dos ángulos que fijan la dirección se llaman Acimut y altura.

El Acimut (A) se mide sobre el horizonte del lugar en horas, desde el Sur hasta el vertical del astro, positiva en la dirección S W-N-E.

La altura (a) se mide sobre el vertical del astro en grados, desde el horizonte del lugar. Es positiva en dirección al Cenit y negativa hacia el Nadir.

A veces es útil el uso de la distancia cenital (z) definida como la distancia angular del cenit al astro medida sobre el vertical del astro (z=90-a).

Estas coordenadas se utilizan para determinar las condiciones de observación de un astro, caso de ser visible. Por debajo de 30 de altitud, las condiciones de observación en el visible son muy malas debido a los efectos que, sobre la luz, ejerce la atmósfera terrestre.

Coordenadas Ecuatoriales.

La Ascensión Recta (alpha ) se mide sobre el ecuador celeste en horas, desde el Punto Aries hasta el meridiano del astro, positiva en la dirección S-E-N-W.

La Declinación (sigma) se mide sobre el meridiano del astro en grados, desde el ecuador celeste hasta el astro, positiva en la dirección del polo Norte. Se utilizan para fijar la posición de un astro en el cielo ya que no cambian con el movimiento diurno. Solo se ven afectadas por el movimiento de presesión, lo que hace que cada 50 años se cambie el sistema de referencia, variando por tanto las coordenadas ecuatoriales de cada astro.

LA MEDIDA DEL TIEMPO

Tiempo Solar

Llamamos Tiempo Local Verdadero a la hora que nos marca un reloj de Sol en el lugar en que nos encontramos. Los relojes de sol tienen su fundamento en la sombra proyectada por un «gnomon» sobre una es cala graduada y ajustada convenientemente. Por lo tanto son dispositivos que nos marcan la posición aparente del Sol en cada momento.

El movimiento aparente del Sol presenta ciertas irregularidades debidas a dos hechos principalmente: la excentricidad de la órbita terrestre y la inclinación del eje de rotación de la Tierra con respecto al plano de su órbita.

De acuerdo con las dos primeras leyes de Kepler, la Tierra recorre su órbita elíptica a mayor velocidad cuando se encuentra más cerca del Sol (en el perihelio), que cuando esta más lejos (en el afelio). Así, el desplaza miento aparente del Sol hacia el Este es más rápido en Enero que en Julio, lo que significa que en Enero el reloj de sol marca el mediodía más tarde que en Julio.

Por otro lado, el hecho de que el eje de rotación de la Tierra este inclinado respecto a la eclíptica (en 23.5 grados) hace que el desplazamiento hacia el Este varíe con la posición del Sol sobre la eclíptica respecto del ecuador. Así, en los solsticios, el movimiento tiene solamente componente Este (por ser la eclíptica paralela al ecuador en esos puntos) mientras que en los equinoccios, aparece una cierta componente hacia el Norte (en Primavera) o hacia el Sur (en OtoÑo). Esto altera la duración del tiempo transcurrido entre dos culminaciones consecutivas a lo largo del año.

Para evitar estas irregularidades en la duración del día, se define el Tiempo Local Medio como el que marcaría un reloj de sol, si este estuviera situado en el Ecuador y se moviera hacia el Este a velocidad constante a lo largo de todo el año. La diferencia entre el Tiempo Local Verdadero y el Tiempo Local Medio se conoce como Ecuación del Tiempo (E.T.= T.L.V. – T.L.M.). Esta diferencia nunca sobrepasa los 17 minutos.

Llamamos Tiempo Universal (T.U. o G.M.T.) al Tiempo Local Medio del Meridiano de Greenwich. Muchos de los fenómenos astronómicos estan dados en Tiempo Universal, por lo que hay que tener claro como se pasa a la hora que marca nuestro reloj.

Para mantener cierta homogeneidad en la medida del tiempo y que la hora de nuestro reloj se corresponda más o menos con la posición del Sol, en todos los países, se establecieron los husos horarios. Cada país fija la hora del reloj según el Tiempo Local Medio de un meridiano determinado. Para hacer la conversión de Tiempo Universal a Tiempo Local Medio, hay que tener en cuenta la longitud geográfica del meridiano que fija nuestra hora(en medidas de tiempo), para sumársela si esta al Oeste o restársela si esta al Este.

Finalmente, la hora que marca nuestro reloj es la Hora Civil, que en horario de invierno va adelantada una hora respecto del que le correspondería en su huso horario, y dos en horario de verano.

Para la determinación de la hora a la que ocurren algunos fenómenos (como por ejemplo la hora del Orto del Sol en un punto determinado) hay que tener en cuenta también la distancia angular del lugar, respecto del meridiano base del huso horario correspondiente.

Tiempo Sidéreo

Se define Tiempo Sidéreo como el ángulo horario del Punto Aries. Es un tiempo basado también en la rotación terrestre, pero no en la posición aparente del Sol. El día sidéreo es el intervalo que transcurre entre dos pasos consecutivos de un punto fijo (una estrella muy lejana, el Punto Aries, etc.) por el meridiano del lugar. El movimiento de la Tierra a lo largo de su órbita hace que el Sol se desplace hacia el Este casi 1 grado cada día por lo que el día en Tiempo Solar es más largo que en Tiempo Sidéreo. Así, la duración de un día sidéreo es de 23h 56m 4,091s de Tiempo Solar Medio. La conversión de un intervalo de Tiempo Solar Medio en Tiempo Sidéreo se realiza con la expresion: I(T.S.M.)= 0.99727 I(T.S.).

Otras medidas del Tiempo

El Tiempo Solar Medio corrige las irregularidades del movimiento aparente del Sol, pero no es un tiempo perfectamente uniforme debido a que esta basado en la rotación de la Tierra, y esta no es constante. Para eliminar las pequeñísimas irregularidades en este movimiento, se introduce el Tiempo de las Efemérides (T.E.), que representa una medida del tiempo absolutamente uniforme, y en el cual se basan las fórmulas de la Mecánica Celeste. La desviación entre el T.E. y el T.U. solo puede determinarse exactamente a posteriori, mediante observaciones astronómicas. La diferencia entre ambos no suele superar el minuto de tiempo.

Paralelamente existen definiciones basadas en fenómenos físicos para fijar la duración del segundo. En la XIII Conferencia de Pesos y Medidas (1967) se definió el segundo como la duración temporal de 9.192.631.770 oscilaciones del átomo de Cesio 133 en su estado fundamental. El tiempo basado en esta medida se llama Tiempo Atómico Internacional (T.A.I.). Esta es la definición más utilizada en la actualidad, habiendo sustituido al Tiempo de las Efemérides.

LAS ESTRELLAS

Enanas Blancas

Novas y SupernovasDe NeutronesAgujeros Negros

Vida de la Estrellas

La medida del brillo

El sistema actual para medir el brillo aparente de las estrellas tiene su origen en la Antigua Grecia. Hacia el aÒo 130 a.C. el astrónomo Hiparco ideo una forma de medir el brillo de los astros, clasificándolos en seis categorías o magnitudes: a las estrellas más brillantes las denomino de primera magnitud y a las que estaban en el limite de visibilidad del ojo humano, de sexta.

Debido a la gran difusión que ha tenido esta forma de medir el brillo a lo largo de toda la historia de la Astronomía, en la actualidad se ha intentado respetarlo en lo posible, pero dotándolo de una mayor precisión. La forma en la que el ojo humano responde a la radiación es logarítmica por lo que se adopto una logarítmica para la relación entre la magnitud de un astro y la energía que nos llega de él.

Si nos quedamos con un cierto rango del espectro total hablaremos de magnitud en ese rango. Los rangos más utilizados son: el que se corresponde con los limites de sensibilidad del ojo, que da lugar a la magnitud visual; el que se corresponde con los limites de sensibilidad de las placas fotográficas, que originan la magnitud fotográfica y el abarca todo el espectro y por lo tanto toda la radiación emitida por el cuerpo, que da lugar a la magnitud bolómetrica.

El brillo con que vemos un astro desde la Tierra depende principalmente de tres factores: la distancia del astro hasta nosotros, su brillo intrínseco y la cantidad de materia que hay entre nosotros y el astro. Suponiendo que las estrellas son fuentes puntuales, la energía que emiten se propaga en el espacio en frentes de onda esféricos por lo que la densidad superficial de energía disminuye con el cuadrado de la distancia.

Esto significa que de dos estrellas que emiten la misma cantidad de energía pero que estén situadas una a doble distancia que la otra, nos llega una energía tal que la de la más cercana es cuatro veces la de la más lejana, y la diferencia de brillo aparente será de 1.5 magnitudes.

Para evitar el efecto que sobre la radiación tiene la distancia a la que se encuentra un astro, se emplean las Magnitudes Absolutas, que son una medida del brillo intrínseco del mismo.

Al igual que con las magnitudes relativas, según sea el rango de longitudes de onda en que medimos la Luminosidad, obtendremos magnitudes absolutas visuales, fotográficas o bolométricas.

A menudo se suele dar un dato de las estrellas llamado Índice de Color. Se trata de un parámetro que sirve para indicarnos la temperatura a la que esta la superficie de la misma y mide la diferencia en magnitudes que presenta esa estrella en dos rangos distintos de longitudes de onda. El índice de color más utilizado es el B-V, donde B simboliza la magnitud del astro en el azul (en longitudes de onda centradas en el color azul del espectro) y V representa la magnitud visual.

El Sol emite la mayor cantidad de energía en una longitud de onda que esta centrada en el espectro visible. Las estrellas más calientes emiten su máximo en longitudes de onda más cortas (y por lo tanto más «hacia el azul») y las más frías en longitudes más largas («hacia el rojo»). De esta manera, midiendo la diferencia entre la energía que emite un astro en el azul y la que emite en todo el rango visual, tendremos una idea de si ese astro esta más caliente o más frío que el Sol.

Análisis de la radiación. Espectros

Si hacemos pasar la luz del Sol por un prisma, vemos que se descompone en los colores del arco iris. Lo mismo ocurre con la luz reflejada por una superficie sobre la que se han tallado lineas muy finas (red de difracción). En ambos casos se descompone la luz blanca en todas las longitudes de onda que la componen, obteniéndose un espectro de la misma.

Si medimos la cantidad de luz que llega a cada longitud de onda del espectro del Sol, se forma una curva muy parecida a la que aparece cuando se hace el mismo proceso sobre la radiación emitida por un cuerpo negro a 5800 K. La intensidad de la radiación emitida por un cuerpo negro es función de su temperatura y depende de la longitud de onda (o frecuencia) en la que la medimos.

En el espectro de una estrella se observa un continuo de energía que se asemeja mucho al de un cuerpo negro y, superpuesto sobre el, una serie de lineas oscuras correspondientes a longitudes de onda muy definidas (eventualmente se observan también líneas brillantes). Se define Temperatura Efectiva de una estrella, como la temperatura de un cuerpo negro que tuviera un espectro continuo con la misma energía que el observado en la estrella.

Definimos Temperatura de Brillo de una estrella como la temperatura de un cuerpo negro que emite su máxima energía en la misma longitud de onda que la estrella.

Las líneas oscuras observadas en los espectros estelares se deben a absorciones de los átomos de la atmósfera estelar en la luz proveniente del interior. La anchura teórica de estas líneas es muy pequeña, pero diversos fenómenos como el movimiento de rotación de la estrella, movimientos de turbulencia, de pulsación, etc. pueden ensanchar las. Además, la presencia de fuertes campos magnéticos pueden producir el desdoblamiento de las mismas. En definitiva, el análisis de un espectro estelar nos proporciona información sobre los elementos químicos que forman la estrella, y sobre las condiciones físicas que reinan en ella: Temperatura, presión, campos magnéticos, velocidad de rotación, etc. También nos sirve para medir la velocidad radial de la estrella respecto de nosotros mediante la aplicación del efecto Doppler-Fizeau.

Veamos por lo tanto, que analizando la radiación que nos llega de las estrellas, somos capaces de obtener mucha información sobre las mismas. Esto ayuda a catalogar las estrellas en grupos atendiendo al espectro observado y a la cantidad de energía que emiten. Representando ambas características en un diagrama (el llamado diagrama H-R), vemos que la mayor parte de las estrellas se sitúan en una franja denominada Secuencia Principal.

Esta región del diagrama H-R se corresponde con el estado evolutivo en el que las estrellas pasan la mayor parte de su vida. Un tercer parámetro que ayuda a fijar la clasificación de una estrella es la llamada Clase de Luminosidad, que nos informa, en alguna medida, de las condiciones físicas en que la estrella esta emitiendo su energía y su espectro observado.

Evolución estelar (ver en este sitio)

La posición de una estrella en el diagrama H-R es un indicativo de su estado evolutivo general. A lo largo de su vida, una estrella cambia su posición en el diagrama describiendo su traza evolutiva. Las estrellas se forman a partir de las grandes nubes de gas y polvo presentes en el espacio interestelar. La aparición de inestabilidades puede producir el inicio del proceso de contracción que origina el nacimiento de la protoestrella.

Para que se forme una protoestrella, es necesario que la energía gravitacional de la nube sea mayor que su energía térmica, de esta forma, la tendencia a juntar las partículas será más fuerte que la que tiende a dispersar las. Conforme la contracción hace disminuir el tamaño del sistema, su interior se va haciendo opaco a la radiación y, en consecuencia comienza a calentarse.

Cuando la temperatura del núcleo alcanza el millón de grados, se desencadenan las reacciones nucleares de fusión del Hidrogeno que contribuyen a aumentar la temperatura del interior. En este punto, la presión interna se hace suficientemente grande como para contrarrestar el colapso gravitatorio, deteniéndose la contracción. La protoestrella deja de serlo y se convierte en una estrella situada en la secuencia principal de diagrama H-R. La evolución futura de este cuerpo, queda determinada por la cantidad de masa que tiene en este momento.

Veamos como es la evolución de una estrella de tipo solar. La mayor parte de su vida transcurre en la secuencia principal, transformando Hidrogeno en Helio, en un estado de equilibrio hidrostático muy estable. El tiempo que la estrella permanece en este estado depende de la cantidad de combustible nuclear que tiene, pero sobre todo, de la rapidez con que lo consume. Así, las estrellas más grandes, a pesar de que tienen una cantidad mayor de Hidrogeno, lo consumen a una velocidad tan grande, que se les acaba antes que a las menos masivas. El intervalo de tiempo oscila entre algunos millones de años para las más masivas, hasta decenas de miles de millones de años para las más pequeñas.

Cuando en el núcleo de la estrella se ha consumido todo el Hidrogeno en Helio, disminuye la producción de energía en el núcleo lo que origina una contracción del mismo, con el consiguiente aumento de la temperatura. La temperatura que se alcanza en las regiones que rodean al núcleo es suficiente como para que comiencen las reacciones de fusión del Hidrogeno en ellas. En este momento, la estructura de la estrella se compone de un núcleo inerte de Helio, rodeado por una capa termonuclearmente activa y, más alejada una atmósfera estelar dilatada y fría.

El núcleo de Helio se va haciendo cada vez más grande (por el aporte de la capa externa en la que se sigue produciendo este material a partir del Hidrogeno), hasta que las condiciones de temperatura y presión activan la reacción de fusión del Helio en Carbono. Justo antes de que se produzca este hecho, tiene lugar un aumento rápido y breve de la luminosidad de la estrella, conocido como «Flash del Helio», que es el detonante de la nueva reacción de fusión nuclear.

En este punto, la estrella tiene dos fuentes de energía: en el núcleo la reacción «triple alpha» (3 He4 —> 1 C12 + E) y rodeándolo la transformación de Hidrogeno en Helio. La superficie alcanza un tamaño muy grande pero esta a una temperatura muy baja. La estrella se encuentra en la fase de Gigante Roja. Cuando el Sol alcance esta fase, su luminosidad será de unas 1000 veces la luminosidad actual y su atmósfera se extenderá hasta la órbita de Venus. La temperatura en la superficie de la Tierra será superior a la de fusión del plomo. Las estrellas Arturo o Betelgeuse se encuentran en esta etapa de su evolución.

Evolucionando lentamente en esta fase, la estrella comienza a desprenderse de las capas más externas, pasando por la fase de variable del tipo RR-Lyrae. Más tarde, las capas externas terminan por desligarse definitivamente de la estrella, originando una Nebulosa Planetaria. La vida estimada de estas nebulosas se estima en unos 50000 años, transcurridos los cuales, la materia que las forma termina por diluirse en el medio interestelar.

Mientras la superficie se expande y enfría, en el centro la reacción triple alpha va produciendo un núcleo cada vez más importante de Carbono. Cuando se agotan el Hidrogeno y el Helio, queda un núcleo compacto de Carbono del tamaño de un planeta COIIIO la Tierra, pero con una masa del orden de la del Sol.

Inicialmente, este núcleo se encuentra a una temperatura muy elevada constituyendo una Enana Blanca, pero dado que en su interior ya no tienen lugar nuevas reacciones nucleares, es un cuerpo térmicamente inerte que se enfría con el paso del tiempo, pasando de enana blanca a enana marrón y finalmente a enana negra.

La evolución de las estrellas muy másivas desemboca en fenómenos cataclísmicos. Tras permanecer en la secuencia principal transformando Hidrogeno en Helio en su núcleo, sobreviene la etapa de Supergigante Roja en la que, al igual que ocurría con las estrellas menos másivas, se han expandido las capas más externas mientras el núcleo se hacia más pequeÒo y caliente. La conversión de Hidrogeno en Helio se desplaza del centro a una capa periférica y en el centro comienza la reacción triple alpha que forma núcleos de Carbono.

Cuando se acaba el Helio en el centro de la estrella una nueva contracción eleva su temperatura activándose una nueva reacción termonuclear que fusiona los núcleos de Carbono para producir otros más pesados (Magnesio, Oxigeno,…).

De esta manera el núcleo de la estrella adquiere una estructura «de cebolla», con sucesivas capas en las que tiene lugar una reacción distinta. Esta situación continua hasta que aparece en el centro de la estrella el Fe56 (el isótopo más estable del núcleo de Hierro). Este núcleo tiene la propiedad de ser más estable que el de cualquier otro elemento pesado, por lo que no hay ninguna reacción nuclear que, aportando energía al medio (exotérmica), haga reaccionar al Fe56 para formar núcleos más pesados.

Cuando el núcleo de Hierro de la estrella adquiere un tamaño importante y la temperatura alcanza el valor de 5*109 K, el Fe56 se desintegra en 13 núcleos de Helio y 4 neutrones ¡absorbiendo energía!

En ese instante, el equilibrio hidrostático que ha mantenido la estrella durante toda su vida, se rompe definitivamente. En tiempos del orden de un segundo, todas las capas del núcleo se precipitan hacia el centro formándose un núcleo atómico gigante (compuesto por neutrones) de una dureza inimaginable, sobre el que colisionan las partes más externas del núcleo que salen eyectadas hacia el exterior a velocidades del orden de varios miles de kilómetros por segundo. Durante unos días, la estrella alcanza un brillo comparable al de toda una galaxia.

En una explosión de este tipo, conocida como Supernova (más concretamente Supernova del tipo II), se inyectan en el espacio interestelar una serie de núcleos pesados producidos en el interior de la estrella, y durante la explosión, que pasaran a formar parte de otras estrellas y sistemas planetarios, si eventualmente alcanzan una región en la que más tarde se formaran nuevas estrellas y planetas (como es el caso del Sistema Solar).

En lo que antes era el centro de la estrella, puede quedar un objeto compacto, que será una enana blanca si su masa es inferior a 1.4 veces la masa del Sol, una estrella de neutrones si su masa esta comprendida entre 1.4 y aproximadamente 2.5 masas solares, o un agujero negro si el objeto compacto es más masivo .

En una enana blanca el colapso gravitatorio es detenido por la presión ejercida por electrones relativistas; se trata de objetos constituidos por núcleos de Carbono, entre los que se encuentra una «sopa» de electrones degenerados que lo dotan de una elevada conductividad térmica. Por su parte, las estrellas de neutrones son auténticos núcleos atómicos pero con un tamaño de algunas decenas de Kilómetros de diámetro.

Su rápida rotación permite observarlos como emisores de pulsos de ondas de radio bajo la denominación de Púlsars. Si la masa del objeto colapsado es todavía mayor, ni siquiera la presión de los neutrones degenerados es capaz de contrarrestar el colapso gravitatorio, por lo que ninguna otra fuerza de la Naturaleza puede vencer a la gravitación. En estas condiciones, el objeto se colapsa indefinida mente y, cuando en su superficie la gravedad es tan intensa que ni siquiera la luz puede escapar de ella, se dice que se ha formado un agujero negro.

Podemos concluir que el resultado final de la evolución de una estrella, es un objeto compacto (enana blanca, estrella de neutrones o agujero negro) que se forma después de que la estrella se haya desprendido de algunos de los elementos que ha ido formando durante sus etapas anteriores, como estrella en la secuencia principal, gigante o supergigante, y en los momentos de la explosión de supernova (si esta llega a producirse).

La Sondas Espaciales Lunik Surveyor Envio de Sondas a la Luna

La Sondas Espaciales: Lunik Surveyor Envio de Sondas a la Luna

El nacimiento de la astronáutica: ¿Qué es una sonda?

En la terminología espacial se llama sonda a todo ingenio lanzado al espacio por medio de cohetes y provisto de los instrumentos de medición y radiocomunicación que le permiten la exploración automática del espacio. Algunas sondas disponen de aparatos fotográficos o de televisión para tomar vistas de las superficies de los astros que exploran; otras son dirigidas de forma que lleguen a posarse en la superficie del astro (como las enviadas a la Luna, Venus y Marte).

La técnica de navegación de las sondas es algo más que una simple extrapolación de la empleada en los satélites artificiales: las distancias de, a lo sumo, miles de kilómetros de éstos, se convierten en decenas de millones en el caso de una sonda destinada a Marte, por ejemplo, lo que complica extraordinariamente los sistemas de navegación y seguimiento.

Sin embargo, los problemas de la investigación por medio de sondas se centran en la dificultad de poder emitir imágenes lejanas suficientemente detalladas, ya que la energía disponible a bordo para su transmisión es muy limitada. Por otra parte, las sondas que se envían hasta la superficie de otros astros deben posarse en ellos con suavidad y quedar en una posición de reposo adecuada para su buen funcionamiento.

El empleo de sondas espaciales ha proporcionado importantes avances en el conocimiento científico de la superficie de la Luna, Venus y Marte, y muy recientemente de Mercurio y Júpiter, desbancando totalmente a los más modernos observatorios astronómicos terrestres en la investigación de los planetas y astros menores del Sistema Solar.

Sondas lunares: Los datos suministrados por las sondas enviadas a la Luna han sido fundamentales para realizar los programas tripulados y para el envío de sondas profundas destinadas a estudiar otros astros del Sistema Solar.

Pueden dividirse en cuatro grandes grupos o familias:

1) Sondas de vuelo abierto.

2) Sondas de alunizaje, divisibles a su vez en sondas de impacto y de alunizaje suave.

3) Sondas de alunizaje con órbita intermedia alrededor de la Luna.

4) Satélites artificiales lunares.

Entre las del primer grupo cabe destacar el Lunik 1, soviético, por el impacto que causó en la opinión pública, en tanto que el primer lanzamiento de un ingenio destinado a nuestro satélite, pasó a unos 7.400 kilómetros de éste y entró en órbita solar. Los tres Pioneer estadounidenses que lo habían precedido constituyeron un absoluto fracaso. El Lunik 3 (octubre de 1959) fue un importante éxito de la tecnología astronáutica soviética: circunvalé la Luna y transmitió por primera vez fotografías de su cara oculta.

La sondas espaciales Lunik Surveyor Envio de Sondas a la Luna

Sonda Lunik, destinada a la astronáutica soviética a la exploración de la Luna. Con el programa Lunik la U.S. demostró la posibilidad de explorar automáticamente el satélite, sin arriesgar vidas humanas.

En este grupo debe incluirse también la serie Zond soviética (1965 1970), en principio destinada a la investigación de los planetas cercanos y después cambiada radicalmente de objetivo: a partir del Zond 4 todos los vehículos de esta serie parecen haber sido modelos derivados de las cápsulas habitadas Sojuz, y dedicados exclusivamente a la investigación lunar.

El Zond 5 fue el primer vehículo recuperado tras un vuelo circunlunar, mientras que los Zond 6, 7 y 8 permitieron ensayar las técnicas de reentrada en la atmósfera con “rebote” sobre las capas intermedias de la misma. Todos ellos iban equipados, además, con equipos fotográficos automáticos e instrumentos registradores de diversos parámetros.

En el segundo grupo debe incluirse el Lunik 2 (septiembre de 1959), que fue el primer objeto fabricado por el hombre que estableció contacto con otro cuerpo en el espacio.

La contrapartida estadounidense la constituyó la serie Ranger, destinada a fotografiar la Luna de cerca, pero en los años 196162 los deseos superaban las propias posibilidades y los seis primeros Ranger fallaron total o parcialmente.

Sólo consiguieron su objetivo los tres últimos de la serie. Por esta razón, mientras preparaba el ambicioso programa Lunar Orbiter, Estados Unidos intentó ganar la partida a los soviéticos con la serie Surveyor, destinada a lograr alunizajes suaves.

Sin embargo, una vez más se adelantaron sus oponentes con el Lunik 9 (enero de 1966), gran éxito tras cinco fracasos parciales que lo precedieron en otras tantas misiones Lunik. Cuatro meses más tarde, en mayo de 1966, el Surveyor 1, primero de una serie afortunada, lograba alunizar y obtener fotografías de gran calidad del suelo lunar.

En el tercer grupo hay que incluir los Lunik de los números 16 al 21. Cabe destacar el Lunik 16 (septiembre de 1970), cuya cápsula de descenso, equipada con un brazo articulado, tomó muestras de la superficie lunar en el Mar de la Tranquilidad y regresó a la Tierra. Con esta misión y las posteriores los soviéticos demostraron la posibilidad de explorar la Luna por medio de aparatos automáticos, evitando así los riesgos y las costosas inversiones que tuvieron que afrontar los estadounidenses con el programa Apolo.

El Lunik 17 (noviembre de 1970) alunizó en el Mar de las Lluvias y de su interior salió un vehículo lunar teledirigido, el Lunojod 1, que disponía de varios equipos de televisión, un telescopio de rayos X, detectores de radiación, un analizador químico por dispersión de partículas y un penetrómetro. La mayor parte de estos dispositivos iban encerrados en un compartimiento estanco mantenido a la presión atmosférica y con temperatura regulada. Como fuente de energía durante los períodos de noche lunar se utilizaba un reactor isotópico. 

La vida útil del Lunojod 1 fue de nueve meses, durante los cuales recorrió un total de 10 kilómetros transmitiendo más de 180.000 imágenes de televisión. El Lunik 18 (septiembre de 1971) se estrelló en una región próxima al Mar de la Fertilidad. Mientras que el Lunik 19 estudió las irregularidades del campo gravitatorio lunar, el Lunik 20 (febrero de 1972) realizó una misión similar a la del 16, recogiendo muestras lunares y trayéndolas a la Tierra.

La serie de investigaciones lunares soviéticas finalizó con el Lunik 21, lanzado el 8 de enero de 1973, llevando a bordo el Lunojod 2, casi cien kilogramos más pesado que su antecesor (840 frente a 756), y que construyó, cómo éste, un gran éxito de la exploración automática.

Entre los satélites artificiales lunar destacan los Lunik 10, 11 y 12 y la serie Lunar Orbiter estadounidense, cuyas fotografías fueron imprescindibles para la preparación de las misiones Apolo.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Que es un satelite artificial? Uso y Funciones de los Satelites

¿Qué es un satélite artificial? Uso y Funciones de Satélites Artificiales

El nacimiento de la astronáutica: Satélites artificiales

Se entiende por satélite artificial todo cuerpo fabricado por el hombre y puesto por él en órbita terrestre, lunar o alrededor de otro astro del Sistema Solar. No debe confundirse con las sondas interplanetarias, de las que nos ocuparemos más adelante.

satelite artificial

En teoría, el principio fundamental en que se basa la comunicación vía satélite es bastante simple, pero resulta muy complejo de llevar a la práctica. Una vez situado en órbita, el satélite de telecomunicaciones es un punto fijo en el espacio que puede ser utilizado para reflejar o retransmitir una señal de radio de alta frecuencia.

La señal audio, vídeo o de datos que se transmite se envía al espacio y es recibida por el satélite, que la amplifica y la retransmite a la Tierra. Esto permite que la señal, que solamente puede viajar en línea recta, «rebote» a lo largo de miles de kilómetros hasta unas localidades situadas en todo el mundo.

Salvo raras excepciones, los satélites de telecomunicaciones son geoestacionarios o están colocados en una órbita especial, a casi 36.000 km. de altura sobre el ecuador, con una velocidad angular igual a la terrestre, por lo que se mantienen fijos respecto a un punto cualquiera de la superficie de la Tierra. Los satélites geoestacionarios ofrecen a las telecomunicaciones las ventajas siguientes:

tres satélites son suficientes para cubrir toda la superficie terrestre (excluidos los casquetes polares)
en conjunto, el sistema de telecomunicaciones (satélites y estaciones terrestres) tiene una configuración fija, lo que simplifica considerablemente el modo de operar y hace que las interferencias puedan controlarse mejor; todo ello permite la instalación en el espacio de una gran capacidad de comunicación.

Los satélites artificiales se mueven con arreglo a las mismas leyes que gobiernan el movimiento de los planetas alrededor del Sol.

Describen, por tanto, órbitas elípticas, generalmente de escasa excentricidad; los puntos de sus órbitas que están más cerca y más lejos de la Tierra se denominan, respectivamente, perigeo y apogeo (perigeo y apogeo cuando se trata de un astro cualquiera); el tiempo que emplean en dar una vuelta completa es el período, que, en la mayor parte de los satélites terrestres, oscila alrededor de una hora y media.

Su velocidad varía a lo largo de la órbita, alcanzando un valor máximo en el perigeo y mínimo en el apogeo.

La puesta en órbita de un satélite requiere básicamente dos operaciones: elevarlo hasta la altura prefijada y comunicarle una velocidad orbital adecuada para que se mantenga en ella. Por lo general, es conveniente que el perigeo sea lo más elevado posible, ya que la fricción con la atmósfera impone una seria limitación a la vida de los satélites; los hay que sólo han permanecido una pocas horas en órbita, mientras que otros tienen asegurada una permanencia de centenares de años, muchos más de los que puede durar el funcionamiento de los aparatos que contienen.

La forma, estructura y características mecánicas de un satélite artificial dependen de muchos factores. El más importante es el volumen de que se dispone cuando se proyecta, el cual está en función de los equipos que debe albergar, y muy especialmente de la potencia del lanzador en cuya ojiva ha de instalarse.

Un segundo factor condicionante viene dado por la aceleración que debe soportar, las vibraciones a que está sometido y la temperatura que debe resistir. Finalmente, los métodos de estabilización y alimentación de energía imponen una nueva limitación: la concepción de un satélite alimentado por medio de baterías eléctricas será muy distinta de la de otro que deba utilizar la energía solar por medio de paneles de células fotoeléctricas.

copernico, astronomo

La forma , estructura, y características mecánicas de un satélite dependen de su volumen y de su aceleración, las vibraciones y las temperaturas que debe resistir, como asi también del método de estabilización y de alimentación de energía. Vista del satélite ruso Protón, el de mayores dimensiones de los construidos por la Unión Soviética.

Actualmente, existen más miles satélites o restos de ellos en órbita alrededor de la Tierra, de los cuales un buen número no emiten ya ningún tipo de datos. otros funcionan sólo en parte y un centenar, aproximadamente, están en pleno rendimiento. Los fines a que han sido destinados cubren un amplio campo de aplicaciones, desde los satélites científicos o militares hasta los de comunicaciones, meteorológicos, de ayuda a la navegación, etcétera.

Su puesta en órbita ha representado un paso importante en el conocimiento del cosmos, y constituyen la solución casi perfecta para obtener información de lo que pasa alrededor de la Tierra, aunque, probablemente, será con los laboratorios espaciales tripulados, como el Skylab, con los que el hombre podrá llevar a cabo las más perfectas tomas de datos del espacio que nos rodea.

grafico de una órbita geoestacionaria

USO EN TELEFONÍA Y TELEVISIÓN: En una primera fase, los satélites nacionales estadounidenses se utilizaron principalmente para comunicaciones telefónicas de larga distancia; las transmisiones televisivas aparecían sólo esporádicamente. En 1975. un servicio estadounidense de televisión de pago, con menos de 60.000 abonados, anunció que utilizaría un satélite nacional para distribuir sus programas a las redes de TV vía cable de todo el país. El 30 de septiembre de 1975, Home Box Office Inc. (HBO) distribuyó a redes vía cable afiliadas, de Florida y Mtssissippi, la retransmisión en directo del encuentro de boxeo, válido para el campeonato mundial de los pesos pesados, entre Muhammad Alí y Joe Frazier.

Poco después, otros servicios se unieron a HBO a bordo del satélite Satcom e iniciaron el desarrollo de miles de redes vía cable en todo Estados Unidos. Mientras HBO organizaba su sistema de distribución vía satélite, la NASA se dedicaba a llevar su satélite experimental ATS-6 a una órbita temporal sobre el océano índico. Había prestado el ATS-6 a la India como parte del Satellite Instructional Televisión Experiment (SITE), para mostrar cómo la tecnología de los satélites podía servir para distribuir programas educativos directamente a terminales de comunicaciones distribuidos por zonas del Tercer Mundo.

USO EN METEREOLOGÍA: Aunque las imágenes del tiempo proporcionadas por el Meteosat aparecen todos los días en las televisiones europeas, la mayoría de nosotros no nos damos cuente de hasta qué punto dependemos de las previsiones meteorológicas precisas. Solamente en términos de ahorro de recursos, la contribución de la meteorología europea es considerable.

La importancia de la meteorología en muchos campos de la actividad humana hizo comprender rápidamente a Europa que, para las previsiones del tiempo, no era posible depender de otros países. Así, uno de los primeros empeños de la Agencia Espacial Europea fue precisamente lanzar satélites meteorológicos.

El primero de la serie fue puesto en órbita en noviembre de 1977. Se trataba del Meteosat-1, seguido del Meteosat-2 en junio de 1981. El Meteosat-3 fue llevado al espacio en junio de 1988; en marzo de 1989 le tocó el turno al Meteosat-4, llamado también MOP-1; en marzo de 1991 partió el Meteosat-5 o MOP-2 y, en noviembre de 1993, el Meteosat-6 o MOP-3. Actualmente, tres de ellos todavía están en activo: el MOP-1, el MOP-2 y el MOP-3, que giran alrededor de la Tierra a 36.000 km de altura en órbita geoestacionaria.

USOS CIENTÍFICOS: para estudio del universo y de los cuerpos celestes, para fotografías la superficie terrestre y analizar suelos, relieves, recursos naturales y cualquier tipo de otra información que sea complicado su acceso. (ampliar este uso desde aquí)

USO COMO G.P.S.: El Global Positioning System es una red de satélites que identifica con extrema precisión cualquier posición, y gracias a la cual es imposible perderse. Hasta no hace mucho, todo aquel que se aventuraba en pleno océano sólo disponía para calcular su posición de la observación de las estrellas o del uso de la brújula y el sextante. Ahora, gracias a la moderna tecnología de los satélites, es posible efectuar esta operación de un modo más sencillo.

Con la simple presión de un botón de un pequeño instrumento portátil, el Global Positioning System (Sistema de Posicionamiento Global), podemos determinar nuestra posición con un error de pocos metros. Esta tecnología va destinada a pilotos, marinos, alpinistas y a cualquier individuo que desee o deba conocer su propia posición con un margen de error muy pequeño.

El empleo de satélites para la navegación o la determinación de localizaciones no es nuevo. En 1959, la Marina militar norteamericana lanzó su primer satélite Transit para uso de los submarinos lanzamisiles Polaris y de los buques de combate de superficie; este sistema permitía determinar la posición con un error de 150 metros.

El Global Positioning System es todavía más preciso. Establecido y controlado por las fuerzas armadas estadounidenses, utiliza una red de 24 satélites Navstar, 21 de los cuales están en activo y tres son de reserva, colocados en seis planos orbitales que se cruzan a una altura de 20.000 km. El primero de estos satélites fue lanzado en 1978, pero el sistema no llegó a ser operativo hasta 1987, cuando hubo en órbita 12 satélites; en diciembre de 1993, la red quedó completada.

Fuente Consultada:
Los Viajes Espaciales Salvat Tomo 53
El Universo Enciclopedia de la Astronomía y El espacio Tomo IV

Propulsion de Satelites al Espacio Sistema Propulsor de Sondas

Propulsión de Satélites al Espacio: Sistema Propulsor de Sondas Espaciales

Lanzadores y satélites: La propulsión

En su obra Principios matemáticos de la filosofía de la Naturaleza (1687), Isaac Newton estableció las bases axiomáticas de la mecánica moderna, que, para nosotros, son de gran interés para asimilar el fenómeno de la propulsión.

Newton comprendió que la fuerza de la gravedad —es decir, la atracción mutua que ejercen unos cuerpos sobre otros, y que es la responsable, no sólo de la caída de los cuerpos sobre la superficie terrestre, sino también del movimiento de los astros— no cesa en ningún punto: su alcance es ilimitado, si bien disminuye progresivamente con la distancia.

A partir de las leyes enunciadas por Kepler sobre el movimiento de los planetas, Newton dedujo el valor de la acción del Sol sobre éstos, y estableció que el Sol atrae a cada planeta con una fuerza, dirigida del centro del segundo al del primero, cuya intensidad es directamente proporcional a la masa del Sol e inversamente proporcional al cuadrado de la distancia que separa a ambos.

Pero la fuerza con que el Sol atrae al planeta es igual y de sentido contrario a la fuerza con que el planeta atrae al Sol (principio de la acción y la reacción), por lo que la atracción Sol-planeta no depende tan sólo de la masa del Sol, sino también de la del planeta.

El principio de la acción y la reacción tiene una validez universal: a toda fuerza (acción) que un cuerpo ejerce sobre otro, éste ejerce sobre el primero otra fuerza (reacción) de igual intensidad, pero de sentido contrario.

El funcionamiento de los cohetes se basa precisamente en este principio. En este caso, la acción la constituye el chorro de gases (jet) que es expulsado por la tobera de escape, y que determina la aparición de una reacción de sentido opuesto al flujo del gas, la cual impulsa al cohete.

Sistemas propulsores

La retropropulsión o reacción es un método para producir movimiento mediante la eyección de una masa, generalmente en forma gaseosa, desde el interior del cuerpo propulsado. Los gases desprendidos proceden de una combustión y poseen elevada temperatura y gran velocidad.

Se llama cantidad de movimiento de un sistema al producto de su masa por su velocidad. En la retropropulsión la cantidad de movimiento de los gases expulsados determina un incremento igual de la misma en el cohete. Pero la masa del cohete es siempre muchísimo mayor que la de los gases que expulsa, razón por la cual éstos deben ser emitidos con gran velocidad.

Con objeto de corregir el enorme inconveniente que supone la masa del cohete, la mayoría de éstos se construyen en varias etapas o gases acopladas: en el momento del lanzamiento el cohete debe desarrollar una Titán III: nueva generación de lanzadores gran fuerza para contrarrestar la atracción de la Tierra, lo que supone el consumo de gran cantidad de combustible; al alcanzar tina determinada altura se desprende la tapa del cohete que ha servido para iniciar su elevación, y en este instante entran en funcionamiento los motores de la segunda etapa, favorecidos por la circunstancia de tener que impulsar una masa mucho menor y también por tener que vencer un valor más pequeño de la gravedad terrestre; muchos cohetes constan todavía de una tercera etapa para las operaciones de puesta en órbita o para dirigirse a otro astro.

Un motor-cohete consta esencialmente de los siguientes elementos: una cámara de combustión, un sistema que suministra el combustible y una tobera o conducto de eyección de los gases al exterior.

La reacción química de los agentes combustible y comburente (en la tecnología de los cohetes este conjunto recibe el nombre de propergol) situados en la cámara de combustión, produce gases que son expulsados a través de la tobera.

Imagen Izq: Titán III constituyó una nueva generación de
lanzadores en la que se destacan los dos boosters acoplados

El motor-cohete tiene su propio combustible y oxidante, de aquí que según la naturaleza de los propulsantes utilizados para producir el chorro de gases se distinga entre cohetes con propulsante sólido, líquido y mixto o híbrido, cuya importancia es cada vez mayor.

En los cohetes con propulsante sólido, el combustible y el comburente —a los que suele ir incorporada una sustancia afín a ambos con objeto de que su mezcla sea homogénea y bien repartida— están almacenados en la cámara de combustión. La combustión puede ser restringida o ilimitada.

La primera se realiza de manera análoga a la de un cigarrillo, o sea, a partir del extremo de la carga que se encuentra más próxima a la tobera y progresando hacia el extremo anterior de la misma.

La combustión ilimitada o sin restricciones se realiza simultáneamente en todos los puntos de las superficies interior y exterior de la carga.

Aunque los cohetes con propulsante sólido son, en general, de construcción relativamente sencilla, presentan el inconveniente de requerir una cámara de combustión grande y pesada, y de que. en ocasiones, la combustión no es correcta; generalmente, se emplean como auxiliares los de combustión restringida para ayudar al despegue de aviones, y los de combustión ilimitada en cohetes auxiliares que se desprenden una vez han sido utilizados (su nombre inglés, booster, ha sido universalmente aceptado). Tienen la ventaja de que su lanzamiento es más fácil y de que pueden ser almacenados sin dificultades; su uso es básicamente militar.

En los cohetes con propulsantes líquidos, combustible y comburente están almacenados en depósitos distintos y pueden ser inyectados en la cámara de combustión por medio de dos sistemas: el de alimentación a presión, para los pequeños, y por medio de bombas, en los grandes.

Presentan la ventaja de que, cerrando o abriendo a voluntad la alimentación, se puede regular el impulso; además, permiten el apagado y reencendido de los motores cada vez que ello es necesario, sin lo cual difícilmente se hubiesen conseguido las maniobras de cita y atraque en pleno cosmos, indispensables para los programas Gemini, Apolo, Sojuz, etc.

Aún actualmente, la manipulación de los líquidos (hidrógeno y oxígeno licuados, etcétera) constituye siempre un difícil problema, debido a que con frecuencia deben conservarse a temperaturas extraordinariamente bajas, o son muy inflamables.

La “anatomía” de los cohetes con propulsantes líquidos es muchísimo más complicada que la de los sólidos; respecto a ello se cuenta que el primer ingeniero estadounidense que vio el interior de una V-2 exclamó, ante la complicación de los dispositivos: “Esto es la locura de un fontanero!

La propulsión en el futuro: Aunque empleando hidrógeno como combustible se han obtenido importantes valores del impulso, la limitación de la energía extraída de reacciones químicas es evidente. Para poder llevar a cabo misiones espaciales a distancias extremas es necesario desarrollar nuevos sistemas propulsores, que permitan la total exploración del Sistema Solar e incluso ciertos viajes espaciales.

La propulsión nuclear se basa en una planta de energía que utiliza el enorme calor desarrollado en la fisión nuclear para calentar un “líquido operante”, que podría ser un gas licuado, el cual se canaliza a través de la tobera.

La construcción de un motor-cohete nuclear se ha demostrado factible merced al proyecto Kiwi (nombre de un pájaro de Nueva Zelanda que no vuela), al cual han seguido el Febo y otros, con el nombre genérico de NERVA (Nuclear Engine for Rocket Vehicle Application Ingenios nucleares para su aplicación en lanzadores).

La propulsión iónica, cuya idea es original de Ciolkovskij, consiste, a grandes rasgos, en la eyección de partículas elementales cargadas (protones, electrones, etcétera), las cuales adquirirían gran velocidad gracias a la acción de un campo electromagnético.

Con una diferencia de potencial de 1.000 voltios entre los electrodos se obtienen velocidades de eyección del orden de 40.000 metros por segundo, diez veces superiores a las obtenidas mediante propulsantes líquidos. El empuje producido por los motores iónicos es reducido, pero merced a su escaso consumo de combustible pueden mantenerlo durante períodos de tiempo más largos.

En el terreno de las técnicas futuristas, pero teóricamente posibles, cabe imaginar un motor-cohete impulsado por la presión ejercida por los fotones o partículas de luz (propulsión fotónica). Quedan aún otros procedimientos que, al igual que éste, son todavía materia de especulación: aceleradores de plasma, motores eléctricos e iónicos combinados, etc.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Satelites Militares Durante la Guerra Fria Usos y Características

Satélites Militares Durante la Guerra Fría: Usos y Características

GUERRA FRÍA: Luego de la segunda guerra mundial Nada quedó sin ser afectado: ni puentes, ni ferrocarriles, ni caminos, ni transportes.  La mano de obra se resintió y grandes extensiones de tierras se perdieron para el cultivo.

La actividad industrial se atrasó, faltaban materias primas, herramientas apropiadas, tecnología moderna y energía. 

Ante esta realidad, Europa perdió su papel decisivo en la política internacional, y surgió entonces, un nuevo orden mundial representado por la hegemonía de los Estados Unidos y de la Unión Soviética, alrededor de los cuales, y formando dos bloques enfrentados, el bloque occidental y el bloque oriental, se alinearon los restantes países del mundo. 

La tensión entre ellos, dio lugar a la llamada «Guerra fría» que dominó por completo las relaciones internacionales en la última mitad del siglo XX. 

satelite militar

Los Primeros Satélites Artificiales de Uso Militar:
Usos y Características

Aunque los datos existentes son muy escasos, se calcula que más de la mitad de los satélites situados en órbita hasta 1973 estaban destinados a aplicaciones militares o paramilitares. Por sus misiones se pueden agrupar en cinco clases :

1) de reconocimiento fotográfico;
2) de alarma contra proyectiles balísticos ;
3) de detección de pruebas nucleares;
4) de bombardeo orbital;
5) de apoyo táctico.

A pesar del secreto que rodea a estos experimentos, los satélites de reconocimiento constituyen la clase mejor conocida y también la más numerosa. En líneas generales, se trata de plataformas muy bien estabilizadas, sobre las que van instalados equipos tomavistas de gran precisión.

Las imágenes se envían a la Tierra por técnicas de televisión o en forma de negativo fotográfico, a bordo de cápsulas recuperables.

Los primeros ensayos de reconocimiento orbital se efectuaron en el marco del programa Discoverer y promovieron una oleada de protestas por parte de la Unión Soviética; pero meses después, también ésta disponía de sus propios satélites fotográficos. Desde entonces, entre las do; grandes potencias existe una especie di acuerdo tácito respecto a la legalidad del espionaje espacial recíproco.

No se conocen demasiadas características de estos primeros satélites, aunque se supone que la resolución de sus cámara, no alcanzaba más allá de los ocho o diez metros.

La primera serie de satélites estadounidenses de reconocimiento propiamente dichos entró en servicio en 1961, con el lanzamiento del Samas 2. Su principal no vedad era que en vez de ir provisto de cápsula sula recuperable, como los Discoverer, las imágenes eran transmitidas a la Tierra por radio.

Las características de este sistema de transmisión constituyeron un secreto militar durante varios años. Tan sólo hacia 1964 la USAF (United States Air Force) Fuerzas Aéreas de los Estados Unidos) accedió a facilitarlas a la NASA para que pudieran ser empleadas en tareas civiles Su primera aplicación se llevó a cabo a bordo de las naves Lunar Orbiter, para confeccionar un plano detallado de la superficie de nuestro satélite.

Pero entonces tales cámaras estaban consideradas como material anticuado y los satélites militares empleaban ya tomavistas de nuevo diseño, de definición muy superior.

Las cámaras de los Orbiter disponían de dos objetivos fotográficos: un gran angular y un tele. Ambos apuntaban en la misma dirección y se disparaban simultáneamente, impresionando cada uno un fragmento distinto de la misma película. En las misiones lunares (a unos 50 Km. sobre el suelo, aproximadamente) el gran angular cubría un cuadrado de 30 Km. de lado, mientras que el tele estaba enfocado hacia el centro de esa zona, sobre un campo de 16 por 4 Km. El resultado eran dos imágenes: una abarcaba una considerable extensión de terreno, escasamente detallada, en tanto que la otra presentaba un aspecto mucho más completo y minucioso de una pequeña parte de la misma región.

El Orbiter utilizaba película especial para fotografía aérea, de 70 milímetros de anchura y sin perforaciones laterales. La carga estándar de cada nave era de 90 metros de filme, suficientes para registrar unos doscientos pares de fotografías. El revelado se producía automáticamente a bordo, y los negativos ya tratados se recogían en una bobina de almacenamiento, en espera de que todo el carrete hubiese sido utilizado.

Una vez completada la toma de fotografías, se invertía el movimiento de avance de la película, que al deslizarse hacia atrás, pasaba ante el convertidor de imagen. Este dispositivo constaba de un foco luminoso muy concentrado que se desplazaba transversalmente sobre la película, explorándola por franjas de 2 milímetros de anchura. Al pasar a través de los diferentes grados de gris del negativo, la intensidad de luz variaba y esas oscilaciones eran recogidas por un foto multiplicador que las convertía en señales eléctricas.

Estas, convenientemente codificadas, eran enviadas a la Tierra. Más tarde, siguiendo un proceso inverso al descrito, podía reconstruirse la imagen con todo detalle. Aunque el sistema de transmisión era muy lento (para enviar una doble imagen requerían unos 40 minutos), tenía la ventaja de proporcionar una extraordinaria calidad de imagen. En muchas fotografías enviadas por los Orbiter se distinguen detalles de la superficie lunar de apenas un metro de diámetro.

La resolución obtenida por los satélites Samas equipados con estas mismas cámaras debió ser algo menor, pues éstos, forzosamente, tenían que estar a mayor altura que los Orbiter: 200 Km. como mínimo, en el perigeo; y también debido a la presencia de la atmósfera que con sus turbulencias y contaminantes en suspensión debió producir cierta degradación en la calidad de las fotos. Por tanto, teniendo en cuenta estos dos factores, cabe afirmar que, en la práctica, el poder de resolución de las cámaras de los Samas era por lo menos cinco veces inferior a la de los Orbiter, por lo que estos satélites «espías» sólo eran capaces de fotografiar detalles superficiales de cuatro a cinco metros de diámetro.

En 1963 apareció el primero de una nueva serie de satélites recuperables que venía a sustituir a los derivados del Discoverer.

Para lanzarlos se utilizaba un nuevo modelo de cohete, el Agena D, capaz de reencender su motor en pleno vuelo, lo que permitía al satélite ejecutar diversas maniobras, alterando las características de su órbita inicial. El equipo óptico se hallaba instalado en la sección media del vehículo, pues su enorme tamaño no permitía acomodarlo en el reducido espacio disponible en la cápsula de retorno.

La carga de película virgen también se encontraba en la sección media del satélite. A través de unas ranuras especiales, el filme penetraba en la cámara, donde era impresionado; a continuación, salía de nuevo al exterior y pasaba, a través de unos conductos a prueba de luz, al interior de la cápsula de reentrada, donde lo recogía una bobina de almacenamiento.

Al finalizar la misión, el motor del Agena D se encendía a contramarcha y el satélite empezaba a caer. Segundos más tarde se producía la separación de la cápsula, que efectuaba la maniobra de reentrada, mientras el resto del equipo, incluida la cámara fotográfica, se desintegraba al contacto con la atmósfera.

No se conocen muchos detalles acerca de la cámara usada en estos satélites; sin embargo, ésta pesaba más de doscientos kilogramos e iba equipada con un teleobjetivo en el que podían detectarse objetos de sólo un metro de diámetro, incluso desde alturas superiores a los 200 Km.

Hasta 1966, los satélites de reconocimiento estadounidense se habían utilizado para determinar de cuántos proyectiles se componía el arsenal balístico soviético y localizar las plataformas de disparo. El objetivo se había cumplido, pero las últimas fotografías transmitidas por los satélites demostraban que los técnicos militares soviéticos habían empezado a construir silos subterráneos; este descubrimiento iba a forzar una nueva estrategia en cuanto a reconocimiento aéreo. Un silo subterráneo es casi invulnerable a un ataque nuclear, a menos que reciba un impacto directo.

El objetivo de la tercera generación de satélites americanos de reconocimiento era levantar un mapa completo de la Unión Soviética, especificando la situación de cada rampa o silo de lanzamiento. Para ello hubo que diseñar tomavistas especiales, provistos de un sistema de estabilización que los mantenía enfocados hacia el suelo en perfecta vertical, a fin de reducir los errores por distorsión.

Para asegurar aún más la exactitud del trabajo, las nueve cámaras incorporadas a los satélites eran dobles: mientras un objetivo fotografiaba el terreno, el otro, enfocado en dirección opuesta, registraba una imagen de un fragmento de la bóveda celeste. Luego, en el laboratorio, los técnicos en cartografía analizaban la posición en que aparecían las estrellas y constelaciones en la segunda fotografía y determinaban, a partir de ellas, la posición en que se encontraba el satélite en ese momento y el lugar de la Unión Soviética que estaba sobrevolando.

Algunos de estos satélites de reconocimiento llevaban también a bordo un sistema de cámaras provistas de filtros y película especial, sensible a determinadas longitudes de onda. Estas se disparaban todas a la vez, produciendo cuatro o hasta seis negativos, cada uno correspondiente a una determinada zona del espectro.

Analizando cada juego de fotografías los especialistas podían deducir detalles increíbles. Por ejemplo, llegaban a diferenciar la vegetación viva de las ramas cortadas que se emplean para enmascarar objetivos militares, o identificar parcelas de cultivos afectados por plagas, o incluso descubrir en pleno océano la estela de agua ligeramente recalentada que expulsaban las turbinas de un submarino nuclear en inmersión.

Por su parte, los especialistas soviéticos construyeron también una doble familia de satélites de reconocimiento: los de cápsula recuperable y los de transmisión as fotografías por radio. Ambos suelen lanzarse bajo la denominación de Cosmos.

Los Cosmos de radiotransmisión suelen ser de tamaño bastante reducido. Muchos técnicos occidentales opinan que los primeros modelos de este tipo derivaban del Luna 3, el primer vehículo que fotografió el hemisferio oculto de la Luna.

A lo que parece, estos Cosmos cumplen dos tareas distintas. Algunos son puestos en órbita con perigeo muy bajo (incluso inferior a 200 Km.) y se dedican a fotografiar grandes extensiones de terreno de forma rutinaria. La resolución de sus cámaras es buena, aunque no permite precisar demasiados detalles. Cuando estas fotos revelan signos de actividad militar anormal en alguna zona determinada, su investigación en detalle se confía a otra serie de satélites, los Cosmos recuperables.

El otro tipo de Cosmos, de radiotransmisión, es de características idénticas al primero, excepto en lo que se refiere a la trayectoria que describen, que, por lo general, es bastante más elevada. Entre ellos es frecuente encontrar perigeos superiores a 300 Km.

A esta altura de vuelo las cámaras pierden mucho de su eficacia. La definición disminuye y sólo pueden detectarse objetivos bastante grandes, de quince a veinte metros de diámetro, como mínimo. Por tanto, lo más probable es que estos satélites tengan asignada una misión de vigilancia oceánica, en busca de las largas estelas que dejan tras sí los buques de superficie y, sobre todo, los submarinos Polaris.

Otros de estos mismos Cosmos desempeñan una tarea de apoyo meteorológico, enviando fotografías de las formaciones nubosas existentes sobre territorios que interesa fotografiar. Este dato es de gran importancia a la hora de programar los lanzamientos de satélites «espías», ya que, evidentemente, si los puntos a fotografiar se encuentran bajo las nubes, la misión estará condenada al fracaso.

Los Cosmos de radiotransmisión se lanzan con bastante regularidad, por lo menos a un ritmo de uno por mes. Al principio, su base de lanzamiento era Tyuratam, junto al Mar de Aral, pero desde 1969 casi todos ellos despegan desde Piesetsk, a 1.000 Km. al norte de Moscú.

La base de Plesetsk es ideal para efectuar disparos en dirección norte sin peligro deque el cohete portador caiga en zonas habitadas. De este modo es posible alcanzar trayectorias polares, desde las que, en el curso de sucesivas revoluciones, se puede explorar la totalidad del globo terrestre.

Los Cosmos recuperables son mayores que los de radiotransmisión. Parece ser que los primeros modelos se basaban en el aprovechamiento de cápsulas tipo Vostok, cuyo peso podía alcanzar fácilmente cuatro o cinco toneladas. El equipo fotográfico incluía una o varias cámaras de gran resolución, capaces de analizar en detalle los objetivos previamente localizados por los Cosmos de radiotransmisión.

Uno de los problemas más serios con que se enfrentaron los técnicos rusos al iniciar este programa fue la recuperación de las cápsulas. Por regla general, éstas I caen sobre territorio soviético, pero su excesivo peso impide «pescarlas» en el aire tal como lo hacían los norteamericanos con sus Discoverer. Los rusos han de recurrir a equipos de recuperación dotados di’ helicópteros y vehículos terrestres.

Durante 1964 se lanzaron doce Cosmos recuperables, lo que da un promedio de uno por mes, a pesar de que durante el invierno la actividad en este campo estuvo casi paralizada. En 1965 su número se elevó a 17, incluyendo un disparo en pleno enero, otro en noviembre y otro en diciembre, lo que demostraba que los especialistas rusos habían dominado ya las técnicas de recuperación y podían dirigir sus cápsulas hacia el lugar más favorable para el aterrizaje.

A partir de entonces, el número de Cosmos recuperables fue aumentando hasta alcanzar un ritmo normal de uno cada quince días; aunque en casos excepcionales han llegado a lanzar un satélite por semana o incluso más.

Los últimos satélites de reconocimiento lanzados por Estados Unidos pertenecen a la serie comúnmente denominada Big Bird. El primero fue puesto en órbita en 1971, iniciando así la cuarta generación de tales ingenios.

Los Big Bird van equipados con cámaras fotográficas y de televisión, así como de varias (tal vez cuatro o incluso más) cápsulas recuperables. Ello permite emplearlos en las dos misiones básicas: inspección de rutina por televisión y, llegado el caso, toma de vistas detalladas con envío de los negativos a tierra. No se conocen muchos detalles, pero parece ser que en buenas condiciones atmosféricas su poder de resolución puede alcanzar medio metro o incluso menos. Ello sería suficiente para diferenciar las ojivas nucleares convencionales de las ojivas múltiples (MIRV) que pueden equipar a ciertos proyectiles intercontinentales.

Muchos satélites de reconocimiento disponen también de cámaras sensibles al infrarrojo, para la toma de fotografías durante la noche. Sin embargo, al igual que ocurría con los satélites meteorológicos, su resolución no es tan buena como la de los sistemas ópticos, pero, aun así, es más que suficiente para las tareas que tienen asignadas.

También está en experimentación el empleo de satélites dotados de radar de visión lateral. Este es un dispositivo que permite la obtención de imágenes del terreno, no por medios ópticos convencionales, sino por el análisis de la reflexión de ondas de radar. La definición es comparable a la de las cámaras fotográficas normales y, además, presenta la gran ventaja de no ser afectado por la cobertura nubosa, por muy densa que fuere.

Hacia 1960 se iniciaron las pruebas de satélites, dotados de detectores infrarrojos capaces de captar la radiación térmica emitida por los escapes de un proyectil balístico enemigo. De este modo podría localizarse su presencia mucho antes de que apareciese sobre el horizonte y fuese detectado por las estaciones de radar.

El desarrollo de estos sensores tropezó inicialmente con serias dificultades, sobre todo a causa de las reflexiones parásitas del Sol en el océano, que eran interpretadas por el satélite como producidas por el chorro de gases de un ICBM. En la actualidad, el problema parece resuelto, aunque las estaciones fijas de radar en el Ártico continúan desempeñando un papel fundamental en las redes de defensa, tanto de Estados Unidos como de la Unión Soviética.

Otro tipo de satélites militares son los destinados a detectar pruebas nucleares llevadas a cabo clandestinamente, en contra de lo establecido en recientes acuerdos internacionales. Las explosiones, bien sean en la atmósfera, en el fondo del mar o en el espacio exterior (las subterráneas no están oficialmente prohibidas), pueden registrarse gracias a los diversos tipos de radiación que emiten.

Los satélites empleados en esta tarea van equipados con detectores de radiaciones X y gamma, así como de protones y partículas subatómicas liberadas en las reacciones nucleares violentas.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53 y 18

Conquista Espacial Historia de la Astronautica Sondas Espaciales

Conquísta Espacial: Historia de la Astronáutica Sondas Espaciales

El nacimiento de la astronáutica: Tras la II Guerra Mundial

Al finalizar la II Guerra Mundial los estadounidenses aprovecharon la experiencia de un buen plantel de técnicos ¿alemanes procedentes de Peenemunde, fu base del Báltico donde se construyeron las V-2, a los que proporcionaron los medios para trabajar en el desarrollo de nuevos cohetes.

Inicialmente, los estudios se centraron sobre los planos y proyectiles capturados a los alemanes, pero pronto comenzaron a introducirse modificaciones que llevaron al diseño de nuevos tipos de cohetes.

cohete despegando de la TierraCien V-2 fueron llevadas a Nuevo México para ser ensayadas en el campo de pruebas de White Sands, en el que, en 1949, se lanzó el primer proyectil genuinamente estadounidense, el WAC Corporal, que acoplado a una V-2 y como parte del proyecto Bumper, alcanzó 400 kilómetros de altura.

Lanzamiento de un Aerobee. Mediante este cohete se obtuvieron en 1949 las primeras fotografías en color de la superficie terrestre desde 100 Km. de altura.

A pesar de este éxito era evidente que la V-2, concebida para fines exclusivamente bélicos, no satisfacía las necesidades requeridas. Ello indujo a los técnicos estadounidenses, y a los alemanes que con ellos trabajaban, a desarrollar otros proyectiles: el Viking y el Aerobee, que remplazó al WAC Corporal. cohete, bomba alemana V1

Este último era un cohete relativamente sencillo, de 5,75 metros de longitud, 38 centímetros de diámetro y 450 kilogramos de peso; se lanzaba por medio de una torre de 12 metros de altura, con ayuda de un cohete auxiliar de combustible sólido; en 1949 se obtuvieron mediante el Aerobee las primeras fotografías en color de la superficie terrestre desde una altura de 100 kilómetros.

El Viking, llamado en principio Neptuno, parecía un lápiz plateado de 13,70 metros de longitud, 81 centímetros de diámetro y 5 toneladas de peso. El 15 de diciembre de 1952, un Viking mejorado alcanzaba 217 kilómetros de altura, batiendo el récord que detentaba la V-2 en cohetes de una sola etapa, y desarrollaba una velocidad de 6.560 km/h.

Por su parte el ejército y las fuerzas aéreas construyeron otro cohete, el Hermes, basado también en la V-2.

Imagen derecha: Bomba Alemana V2 (bomba de la venganza)

Por su parte, la Unión Soviética, que ya en 1946 inició el lanzamiento de sondas destinadas al estudio de las capas superiores de la atmósfera, desarrollaba sus propios proyectos astronáuticos.

El desarrollo del cohete como elemento bélico fue muy rápido en los dos países. Los modelos iniciales fueron aumentando su alcance y potencia, y en 1957 los cohetes disponibles hacían ya posible la puesta en órbita de un satélite artificial. Estados Unidos habían hecho público su propósito de realizar un experimento de este tipo con ocasión del Año Geofísico Internacional. Fue, sin embargo, la Unión Soviética la que consiguió realizar con éxito esta operación, al poner en órbita, el 4 de octubre de 1957, el Sputnik 1, con el que se inició la era del espacio.

La rivalidad entre sus tres ejércitos costó a los estadounidenses el tener que resignarse a un segundo papel. Sin embargo, la creación de un organismo civil autónomo, la NASA (National Aeronautics and Space Administration = Administración Nacional de Aeronáutica y del Espacio), el 1 de octubre de 1958, terminaría con esta difícil situación, al pasar a depender del mismo todas las actividades espaciales.

Desde su cuartel general en Washington, la NASA ejerce su dirección sobre los distintos centros de investigación y ensayo, y determina cuáles deben ser los programas y proyectos. Bajo su responsabilidad están los vuelos tripulados, las ciencias espaciales, el seguimiento y adquisición de datos, etc.

La organización y coordinación de los proyectos espaciales soviéticos están parcialmente bajo la supervisión de la Academia de Ciencias de Moscú, aunque, al igual que ocurre en Estados Unidos, existen también programas de características puramente militares.

El nacimiento de la astronáutica:
Cooperación internacional para el estudio del espacio

Al iniciarse la década de los cincuenta, la astronáutica había dejado de ser una ciencia que sólo interesaba a minorías, aunque todavía no estaba englobada en el seno de los grandes organismos internacionales.

La necesidad de regular a escala internacional las relaciones entre los interesados de uno u otro modo por la astronáutica se hacía patente. El primer paso para ello se dio el 22 de junio de 1949, en una reunión de la Sociedad Astronáutica Alemana, una entidad de tipo privado que propuso por primera vez la creación de una Federación Internacional de Astronáutica (IAF), la cual agruparía todas las sociedades de los distintos países interesados en cuestiones espaciales, con el fin de permitir un intercambio de ideas.

En 1950 tuvo lugar en París la primera reunión de sociedades astronáuticas y el 4 de septiembre de 1951, en Londres, la Federación Internacional tomó carta de naturaleza.

Aunque a las reuniones de París y Londres se las llama I y II Congreso Internacional de Astronáutica, de hecho el primero tuvo lugar realmente en Stuttgart, en 1952, y después se han venido celebrando cada año en distintas capitales europeas o americanas.

Los objetivos de la Federación Internacional son: estudiar el desarrollo de la astronáutica con fines pacíficos, facilitando el intercambio de informaciones técnicas y científicas, e interesar al público en general en todos los asuntos relacionados con el espacio.

En agosto de 1960, y por iniciativa del profesor Theodore von Karman, se fundó, bajo los auspicios de la Federación, la Academia Internacional de Astronáutica, formada por científicos de gran valía y con la misión de complementar en sus tareas a la IAF. Incluye tres secciones: Ciencias fundamentales, Ciencias aplicadas y Ciencias relacionadas con la vida del hombre en el espacio.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Pioneros de la Investigacion Espacial Padres de la Aeronautica

Pioneros de la Investigación Espacial: Padres de la Aeronáutica

Ver Tambien: Resumen Historia de la Aviación

El nacimiento de la astronáutica: Los padres de la astronáutica

Con rara unanimidad se acepta que los padres de la astronáutica, o sea, los científicos gracias a los cuales estaOberth: Padres de la Aeronautica ciencia empezó a desarrollarse como tal, son cuatro: el soviético Ciolkovskij , el estadounidense Goddard, el francés Esnault-Pelterie y el rumano Oberth (imagen der.).

Pero también con rara unanimidad suelen muchos escritores olvidarse del alemán Hermann Ganswindt; Oberth ha asegurado repetidamente que con el alemán se ha cometido una injusticia, insistiendo en que éste se había ocupado seriamente, mucho antes que todos ellos, de los mismos problemas.

Konstantin Eduardovié Ciolkovskij (imagen izq.) nació el 17 de septiembre de 1857 en la villa de Iáevsk, provincia de Riazán. De profesión maestro de escuela, fue un hombre sencillo, la antítesis del mito del científico que hoy es fácil imaginar.

A los 16 años su padre decidió enviarlo a Moscú para que se familiarizase con la técnica, y asKonstantin Eduardovié Ciolkovskij: Padres de la Aeronauticaí inició su formación científica.

Sus estudios, empezados en la época zarista y perfeccionados cuando era un comunista convencido, tienen un valor comparable, o quizá superior, al de los éxitos que, desde el lanzamiento del Sputnik 1, se han venido cosechando en la Unión Soviética.

Su primer artículo sobre el motor-cohete apareció en 1903 en la Nauónoe Obozreme (Revista Científica) con el título La exploración del espacio cósmico con ayuda de aparatos propulsados a reacción.

Exponía en el mismo la teoría del vuelo del cohete, demostrando la posibilidad de su utilización en travesías interplanetarias.

El ingenio propuesto por él era un aparato metálico de forma alargada parecido a un dirigible; sus propulsores eran hidrógeno y oxígeno líquidos, sirviendo el propio carburante para la refrigeración del motor, al igual que en los motores F-1 del Saturno V.

En sucesivos trabajos, aparecidos en 1911, 1912 y 1926, fue perfeccionando la idea. Sin embargo, jamás vio elevarse un cohete propulsado con combustible líquido. Aunque conservó hasta los últimos años de su vida la esperanza de ver materializados sus “proyectos utópicos”, como los autocalificaba con ironía, murió, antes de que éstos se hicieran realidad, el 19 de septiembre de 1935.

Robert Hutchings Goddard nació en Worcester, Massachusetts, el 5 de octubre de 1882; se graduó en Worcester Polytechnic Institute en 1908 y en la Clark University en 1910. Inició sus investigaciones sobre los cohetes en 1899, utilizando una cámara de combustión, construida por el mismo, que le permitía medir la retropropulsión de los gases.

Más tarde, cuando estudiaba en el Instituto Politécnico, hizo experimentos con pequeños cohetes de combustible sólido; en 1912 concluyó los detalles de la teoría matemática de la propulsión de cohetes, demostrando la posibilidad de utilizar la fuerza engendrada por los gases emitidos por éstos para alcanzar grandes altitudes.

En 1923 inició los ensayos en reposo de un motor propulsado por propergol líquido (oxígeno y gasolina), que consiguió hacer volar el 16 de marzo de 1926.

Entre los años 1934 y 1940 construyó, con resultados satisfactorios, algunos cohetes de gran tamaño, muchas de cuyas características coincidieron con las más tarde tristemente célebres V-2 alemanas; aunque es difícil demostrarlo, parece que muchos de los perfeccionamientos realizados por Alemania en este campo se debieron a los experimentos y patentes de Goddard.

En 1935 sus ingenios lograron alcanzar una altura de 2.280 metros y una velocidad de 880 kilómetros por hora. En los círculos profesionales estadounidenses se reconocía al inventor como el técnico más destacado en esta especialidad.

Goddard murió ellO de agosto de 1945, antes del inicio de la era espacial, y sólo meses después de que las primeras V-2 alemanas cayeran sobre Inglaterra. Los estadounidenses no supieron explotar debidamente su genio, y poquísimas personas apreciaron el alcance que podían tener sus experimentos. Como en muchos otros casos, Goddard no fue profeta en su tierra.

Aunque colaboró con la Marina de su país en la puesta a punto de aparatos teledirigidos, fue un incomprendido incluso por el propio ejército, el cual en 1940, en plena Guerra Mundial, examinó las posibilidades que presentaban sus estudios:
“Todas sus experiencias son muy interesantes, profesor —le dijeron—, pero creemos que los cohetes no desempeñan ningún papel en la guerra”.

Años más tarde, la historia se repetiría con Von Braun, no escuchado a tiempo por los estadounidenses cuando, en 1954, fue rehusado el proyecto Orbiter, que hubiera permitido colocar en órbita un satélite artificial con los medios de que se disponía en aquel entonces.

El 8 de junio de 1927, un aviador y notable matemático debió causar un fuerte impacto en la Sociedad Astronómica de París. Robert Esnault-Pelterie disertaba sobre La exploración por cohetes de la alta atmósfera y la posibilidad de los viajes interplanetarios. Esta conferencia fue ampliada con un famoso libro, La astronáutica, en el que se exponen en forma muy completa y sin parangón en su época los fundamentos de la astronavegación.

La resonancia de la conferencia fue enorme: cuando la aviación acababa de nacer en su aspecto comercial, cuando el subir a un avión representaba todavía una temeridad o, por lo menos, requería una buena dosis de valentía, un científico acreditado se atrevía a hablar de viajes a los planetas ante el exigente auditorio de una de las entidades astronómicas de mayor categoría.

Esnault-Pelterie fue uno de los primeros en prever la aplicación de la energía nuclear para. la propulsión de cohetes interplanetarios. Nacido en París en 1881, murió en Niza en 1957, dos meses más tarde del vuelo del Sputnik 1, y pudo ver, por tanto, convertidas en realidad muchas de sus teorías.

Hermann Oberth nació el 25 de junio de 1894 en Hermannstadt, Rumania. Empezó la carrera de médico, pero la abandonó, y posteriormente estudió en Munich, Gotinga y Heidelberg.

El 5 de junio de 1927, casi en la misma fecha en que Esnault-Pelterie pronunciaba en París su célebre conferencia, había sido fundada en Breslau la famosa VER (Verein Für Raumschiffahrt), conocida en todo el mundo como Sociedad Alemana de Cohetes, y en el otoño de 1928, el director cinematográfico Eritz Lang anunciaba su intención de llevar a la pantalla la novela, original de su esposa, Una mujer en la Luna. Oberth fue requerido como asesor técnico de esta película, a la vez que se le encargaba la construcción de un proyectil-cohete de gran tamaño para ser lanzado el día del estreno.

La industria cinematográfica alemana se anticipaba así a la propia realidad en 15 años, al solicitar del precursor algo muy parecido, aunque no por sus fines, a la V-2. Hermann Oberth, en su libro El cohete hacia los espacios interplanetarios, aparecido en 1923, expuso con una clarividencia extraordinaria el futuro de la astronáutica, analizándolo detalladamente.

William H. Pickering
William H. PickeringWilliam H. Pickering es, desde 1954, director del Jet Propulsión Laboratory (JPL) del California Ins-titute of Technology, situado en Pasadena, en las cercanías de Los Angeles.

Bajo su dirección se han realizado múltiples programas espaciales: el Explorer 1 (1958), primer satélite artifical de Estados Unidos; el Pioneer 4 (1959), primera misión espacial próxima a la Luna culminada con éxito; el vuelo de los Mariner 2 y 5 a Venus (1962 y 1967) y los Mariner 4 (1964) y 6 y 7 (1969) a Marte; las misiones fotográficas lunares realizadas por los Ranger (1962 a 1965); los alunizajes de los Surveyar (1966 a 1968); la misión del Mariner 11, lanzado en 1971, y las misiones multiplanetarias que se prevén para la década de los años setenta, destacando ya el envío de los Marz>zeraVenusyMercurio(1973).

El Dr. Pickering nació, en 1910, en Wellington (Nueva Zelanda), Tanto los estudios de licenciatura en Ingeniería eléctrica como los de doctorado en Física los realizó en el California Institute of Technology de Estados Unidos, siendo nombrado profesor de esa misma institución en 1946.

Fue el primer presidente del American Institute of Aeronautics and Astronautics (nombrado en 1963) y presidente déla International Astronáutica Federation,en 1965. Asimismo, es miembro de la National Academy of Sciences, de la National Academy of Engineering y de la Royal Society de Nueva Zelanda, entre otras instituciones, consejero de las universidades de California, de Washington y de Connecticut, estando en posesión de numerosos premios y distinciones.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Ver: La Industria Aeronaútica en los Estados Unidos

Objetivos de los Satelites Artificiales Cientificos e Investigacion

Objetivos de los Satélites Artificiales: Científicos e Investigación

El nacimiento de la astronáutica: Antecedentes históricos

El ansia de viajar hacia los astros es tan antigua como el hombre mismo. Cicerón (nacido el 106 a. C.), en su obra De Republica, habla del espíritu de un hombre que viajó por algunos planetas; y casi 300 años después Luciano de Samosata, en su Vera Historia, describe las guerras entre los imperios de la Luna y el Sol.

COPERNICO, astronomo edad modernaA lo largo de los siglos se han sucedido las referencias literarias a los viajes espaciales, pero es a partir del siglo XVI cuando, merced a los trabajos de Copérnico, Tycho Brahe, Galielo y Newton se inicia el camino que ha hecho posible viajar a la Luna y, en un futuro quizá no muy lejano, a los planetas.

La invención del cohete fue, en cierto modo, el primer paso serio dado por la astronáutica; su historia se remonta a la China de hace casi dos mil años, si bien no hizo su aparición en Europa hasta mediados del siglo XIII, en que es descrito en el Líber Ignium (Libro de fuego).

(imagen:Copérnico)

A comienzos del siglo XIX se despertó un gran interés por la posible aplicación de los cohetes a fines militares. Sir William Congreve, oficial del ejército británico. fue uno de los más destacados investigadores en este campo: durante las guerras napoleónicas, y en la de 1812 entre Estados Unidos y Gran Bretaña, se usaron cohetes de combustible sólido ideados por él, así como en el ataque a Copenhague en 1807.

Sin embargo, el cohete militar no convenció a los especialistas en cuestiones bélicas, por lo que pronto fue abandonado.

OBJETIVOS DE LOS SATÉLITES ARTIFICIALES

Los satélites destinados a investigaciones científicas constituyen la familia mas numerosa, si se exceptúa la de los utilizados con fines militares. Ello es así por varias razones: en primer lugar , el espacio que circunda la Tierra es poco conocido; desde muchos puntos de vista interesa conocer la distribución de las radiaciones que abarcan toda la gama del espectro, desde los rayos X a las ondas de radio, meteoritos, capas ionizadas, campos magnéticos de origen no sólo terrestre, sino también solar e interplanetario, etc.

Además, muchas de estas investigaciones se realizan en apoyo de determinadas aplicaciones prácticas. Tal es el caso del estudio de los factores que pueden afectar al hombre en el espacio, cuyo conocimiento es imprescindible para el establecimiento de estaciones orbitales tripuladas. Tampoco hay que olvidar que la denominación de científicas dada a muchas misiones es simplemente una cobertura de programas cuyos objetivos son en definitiva militares.

El conjunto de datos científicos aportados por los satélites dan una imagen de enorme complejidad en torno a nuestro planeta. Y se complica aún más si se tiene en cuenta que se trata de un cuadro dinámico, en continua evolución. Los niveles de radiación medidos hoy a 1.000 Km. de altura pueden ser completamente distintos de los que se obtengan la semana próxima si entre ambas fechas se ha producido, por ejemplo, una erupción solar.

Algunos satélites han sido diseñados para obtener información sobre diversos aspectos relacionados con nuestro planeta: las capas ionizadas que lo rodean, la densidad y composición de la alta atmósfera, la intensidad de la radiación térmica recibida por la Tierra y el porcentaje que vuelve al espacio al reflejarse en las nubes o en la superficie, la confección de un mapa del campo magnético en torno al planeta, la naturaleza y energía de las partículas que componen los cinturones de radiación, características de la ionosfera en cuanto a transparencia a diversas frecuencias de radio, etc.

Otros van dirigidos a investigaciones astronómicas, sobre todo en el campo de la radioastronomía. A este respecto, los satélites artificiales son muy útiles, ya que las radiaciones de determinadas longitudes de onda de procedencia interplanetaria son filtradas por la atmósfera y no pueden ser captadas por los radiotelescopios instalados en la superficie terrestre. Por tanto, la única manera de detectarlas es instalando equipos receptores por encima de la atmósfera.

Existen también satélites para el estudio del Sol: las tormentas que a veces se desencadenan en la fotosfera, la evolución de las manchas solares y el «viento solar» o chorro de partículas subatómicas que continuamente son emitidas por nuestra estrella. También los hay especializados en la fotografía estelar, no ya en la gama de la luz visible, sino en la del ultravioleta, gran parte de la cual es retenida por la atmósfera. En cambio, los observatorios en órbita terrestre nunca se emplean para fotografiar planetas; es mucho más provechoso recurrir a sondas interplanetarias que sobrevuelan el objetivo a poca distancia, obteniendo imágenes mucho más detalladas.

Registro de meteoritos: Desde los primeros años de la investigación espacial, uno de los puntos de estudio más importantes fue investigar acerca de la abundancia y distribución de micro-meteoritos en las proximidades de la Tierra. Estos son partículas que en general no superan el milímetro de diámetro y que, moviéndose a enormes velocidades, a veces entran en la atmósfera terrestre, donde la fricción del aire los desintegra.

Al principio se exageró mucho acerca del peligro que los meteoritos representarían de cara a futuros viajes espaciales tripulados. Hoy se sabe que las partículas de más de un milímetro de diámetro son muy raras, tanto que una nave podría permanecer en el espacio durante años sin encontrar ninguna en su camino. En cuanto a los granos de polvo cósmico, aunque más abundantes, tampoco ofrecen motivo de preocupación. Por lo general se volatizan al chocar contra las paredes del vehículo, por muy delgadas que éstas sean.

Una forma sencilla y económica de detectar los impactos de los meteoritos es la colocación de micrófonos en las paredes exteriores de la nave: el sonido del choque es transmitido a través del metal, y su intensidad da una idea del tamaño de la partícula que lo ha producido.

satelite artificial

Otras veces se suelen usar pequeñas cámaras metálicas llenas de gas a presión. Cuando un meteorito perfora sus paredes, el gas escapa al exterior y un manómetro adecuado permite registrar el impacto. La velocidad de salida del gas depende del diámetro del orificio y es un buen sistema para indicar el tamaño del meteorito. Además, las cámaras pueden fabricarse con aleaciones de diferentes características y espesores, a fin de que sólo puedan ser perforadas por partículas animadas de cierta energía.

En 1965 se lanzó el primero de los grandes satélites Pegasus, destinados exclusivamente al estudio de los meteoritos, listaban equipados con unas grandes «alas» constituidas por más de doscientos elementos sensores: dos láminas de cobre o aluminio separadas por una de material aislante, con lo que formaban otros tantos condensadores eléctricos, cargados a una tensión de 40 voltios. Cada vez que un meteorito atravesaba una de tales células, el calor desarrollado en el impacto vaporizaba parte del metal y el aislante, estableciendo un momentáneo corto circuito entre las dos láminas. A continuación, el condensador se descargaba y transmitía a In Tierra la correspondiente señal. Una vez disipado el vapor, el condensador volvía u cargarse y quedaba en disposición de registrar nuevos choques.

Durante su primer año de funcionamiento, y por metro cuadrado de superficie sensible, el Pegasus 1 detectó 57 partículas con energía suficiente para atravesar 37 milésimas de milímetro de aluminio; cinco en sus células de 2 décimas de milímetro y sólo dos en las de 4 décimas.

Medida de las radiaciones
Otro campo de investigación muy amplio es el estudio de las radiaciones. Sin embargo, para fijar ideas, convendría puntualizar el significado de esta palabra.

La radiación es una forma de energía que se encuentra en el espacio en múltiples formas. La luz corriente es radiación; las ondas de radio, los rayos X e incluso el calor emitido por un cuerpo a cualquier temperatura también lo son. Todas ellas se agrupan bajo la denominación común de «radiación electromagnética»; el único factor que permite diferenciarlas es su frecuencia o longitud de onda.

El espectro electromagnético es el conjunto de todas las radiaciones que existen, ordenadas según sus frecuencias respectivas. Se inicia por un extremo con las ondas más largas, que vibran a sólo algunos ciclos por segundo, y va progresando hacia frecuencias cada vez más altas, dando origen a las diversas formas de energía electromagnética.

La primera región que se encuentra es la de las ondas de radio, concretamente la correspondiente a las ondas largas; después, imperceptiblemente, se entra en la zona de ondas media (radiodifusión comercial) y corta, bandas de televisión en VHF y UHF, microondas y, por último, el radar.

SATELITES ARTIFICIALES

Aproximadamente al alcanzar la frecuencia de 10.000 megaciclos por segundo se inicia la región de los rayos infrarrojos o radiaciones caloríficas. Mucho más adelante, a los 430 millones de megaciclos (correspondiente a una longitud de onda de 0,7 micras) aparece la radiación de color rojo oscuro, primer eslabón de la banda visible, que va del rojo al violeta, pasando por todos los colores del arco iris y abarca una extensión de frecuencias .muy reducida.

Su límite máximo son 750 millones de megaciclos por segundo, a partir del cual se entra en la región de ultravioleta. Esta es otra banda muy amplia, que alcanza hasta las frecuencias de trillones de ciclos por segundo. Viene a continuación la de los rayos X y, por último, la de los rayos gamma, mucho más penetrantes, para los cuales no se conoce límite superior de frecuencias.

Todas estas radiaciones existen en el espacio libre, desplazándose por él a la velocidad de la luz (300.000 kilómetros por segundo). Sin embargo, gracias al filtro natural que forma nuestra atmósfera, sólo algunas consiguen llegar a la superficie de la Tierra. Así sucede con la luz visible, pequeñas porciones del infrarrojo y el ultravioleta, y algunas frecuencias específicas de las ondas de radio. El resto son absorbidas a diferentes alturas sobre el suelo.

Los rayos ultravioleta, X y gamma poseen una acción esterilizante; de hecho, la irradiación con rayos gamma es una técnica corriente en la asepsia de material quirúrgico. De ahí que la presencia de la atmósfera como escudo contra este tipo de radiaciones sea una circunstancia providencial, gracias a la cual la Tierra puede albergar las diversas formas de vida.

En cambio, desde el punto de vista astronómico, la atmósfera constituye un obstáculo impenetrable para el estudio de las radiaciones en el espacio libre. Hasta el advenimiento del satélite artificial, el único medio de obtener información acerca de ellas eran los globos estratosféricos y los cohetes de sondeo equipados con instrumentos registradores. Pero, evidentemente, desde 1957 los satélites vienen ofreciendo una serie de ventajas decisivas sobre los demás sistemas: mayor altura de vuelo y tiempo de( permanencia en órbita más prolongado. De ahí el interés que las técnicas astronáuticas revisten para el astrónomo y el astrofísico.

Otro tipo de radiación existente en el espacio es la corpuscular: partículas subatómicas (protones, electrones, átomos de metales ligeros fuertemente ionizados, etc.) emitidas por el Sol o resultantes del bombardeo de radiaciones de elevada energía sobre los gases de la alta atmósfera. Los chorros de partículas procedentes del Sol se desplazan a velocidades relativamente modestas (algunos centenares o miles de kilómetros por segundo) y constituyen lo que se denomina «viento solar».

Al igual que ocurre con las radiaciones electromagnéticas, la radiación corpuscular sólo puede estudiarse adecuadamente en el espacio exterior, ya que al entrar en la atmósfera las partículas interaccionan con los átomos de oxígeno, nitrógeno y demás gases, y originan fenómenos secundarios muy complejos. Las auroras boreales, producidas al ser excitados los átomos de la alta atmósfera por partículas de elevada energía, son buen ejemplo de ello.

¿Cómo se detectan las radiaciones corpusculares en el espacio? Básicamente, mediante los mismos métodos que se emplean en la Tierra en tecnología nuclear. Los primeros Explorer americanos llevaban a bordo simples contadores Geiger apantallados con diferentes espesores de plomo de manera que sólo fuesen excitados por partículas de energía superior a cierto umbral. Más tarde se emplearon cámaras de ionización, contadores de centelleo, de efecto Cerenkov y muchos otros detectores, cada vez más especializados.

En cuanto a la medición de las radiaciones ultravioletas e infrarrojas, existen dispositivos fotoeléctricos sensibles a diferentes bandas de frecuencias, de modo que resulta muy fácil seleccionar la que se desea estudiar. Ciertos tipos de satélites disponen de mecanismos de orientación para mantener tales sensores continuamente dirigidos hacía la fuente de radiación, por lo general el Sol o la propia Tierra.

Estudio del magnetismo
Otro aspecto en el que los satélites artificiales encuentran aplicación es el estudio de los campos magnéticos en el espacio, una disciplina que puede decirse nació a la sombra de la astronáutica.El campo magnético que rodea nuestro planeta es el resultado de la superposición de varios campos de origen diverso: el propio campo magnético terrestre, el solar y el de origen galáctico, que en conjunto originan un cuadro de enorme complejidad, sujeto, además, a incesantes variaciones.

La magnetosfera, o zona en la que la influencia del campo terrestre predomina sobre las demás, tiene la forma de una gota de agua muy alargada; su extremo más achatado mira hacia el Sol, mientras que el otro se extiende hasta casi dos millones de kilómetros en el espacio, vibrando y agitándose como una bandera ondeando al viento. Esta estructura puede alterarse bruscamente a raíz de las tormentas y erupciones solares y de las variaciones locales del magnetismo terrestre.

El campo magnético que rodea la Tierra actúa como una jaula invisible capaz de atrapar las partículas subatómicas emitidas por el Sol y mantenerlas formando zonas anulares más o menos estables. Las primeras indicaciones acerca de la existencia de estas regiones fueron facilitadas por los detectores de radiación de los primeros satélites; el principal responsable de la interpretación de los resultados fue el Dr. James van Alien, de la Universidad de lowa, en cuyo honor fueron bautizadas esas zonas.

El Ártico y la Antártida son los dos únicos puntos por donde las partículas atrapadas pueden escapar y penetrar en la atmósfera originando las auroras boreales o australes, uno de los fenómenos más espectaculares de la Naturaleza.

Equipando un satélite con detectores adecuados, puede establecerse un mapa del campo magnético existente a las alturas que atraviesa. Se conocen detectores de muchos tipos llamados magnetómetros, por lo general adaptaciones de instrumentos empleados en laboratorios e industrias para efectuar mediciones sobre materiales magnéticos.

El magnetómetro más sencillo es el formado por una bobina metálica en la que, al variar el campo magnético que la atraviesa, aparecen corrientes inducidas proporcionales a dicha variación. Una bobina permite detectar la componente de las alteraciones magnéticas según una sola dirección (la perpendicular al plano de la bobina); si se agrupan tres bobinas de manera que sean mutuamente perpendiculares, se obtendrán datos sobre las tres componentes espaciales del campo, lo cual permitirá determinar su intensidad total no solamente en magnitud, sino también en dirección.

Por lo general, los magnetómetros de que van provistos los satélites artificiales son instrumentos tan sensibles que pueden ser  perturbados incluso por las corrientes eléctricas que circulan por los equipos de a bordo del satélite o por sus piezas metálicas. Por tanto, los dispositivos sensores se mielen situar en el extremo de largas pértigas que se despliegan automáticamente al entrar en órbita.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53 y 18

Que son los asteroides? Su composicion y movimiento Choques De

¿Qué son los asteroides? Su Composición y Movimiento Choques 

En 1801, el abad Giuseppe Piazzi descubrió un astro situado entre Marte y Júpiter. Se le dio el nombre de Ceres. Un año después, ante la estupefacción general, H. Olbers encontró otro astro (Palas) en la zona de la misma órbita, cosa que, teóricamente, era imposible. Fuera absurdo o no, allí se encontraron otros cuerpos semejantes, a los que W. Hersch el llamó asteroides.

asteroidesLos planetas mantienen entre sí una distancia más o menos constante. Solamente Marte y Júpiter, contrariando esa regla, están separados por un intervalo mayor que el habitual. Este hecho hizo que muchos astrónomos sostuvieran la hipótesis, desde el siglo XVI, de la existencia de un planeta desconocido en ese vacío del espacio.

La teoría adquirió mayor consistencia cuando, en 1772, el astrónomo alemán Johann Tietz comprobó que las distancias entre los planetas y el Sol parecían obedecer a una ley bien definida: aumentaban progresivamente.

Para calcular esas distancias, Tietz y Bode propusieron atribuir a cada planeta un número correspondiente a su distancia en relación con el Sol, teniendo como patrón la distancia Sol-Tierra (unidad astronómica, igual a 150 millones de Km.).

De esta forma, Mercurio recibiría el número 0,4; Venus, 0,7; Tierra, 1,0; Marte, 1,6; Júpiter, 5,2; Saturno, 10,0, y Urano, 19,6; Entre Marte y Júpiter, pues, y según esta progresión numérica, debería haber algo que correspondiese al número 2,8: eran los asteroides.

Características principales

Llamados también planetoides, o pequeños planetas, los asteroides se designan por nombres precedidos por un número entre paréntesis, que corresponde al orden de su descubrimiento: (Yz Ceres; (433) Eros; (944) Hidalgo; (1566) Icaro, y así, siempre. Esta clasificación sólo se hace después de calcularse la órbita (que no puede coincidir exactamente con la de ningún otro asteroide conocido) y de la observación del astro en dos posiciones opuestas. Los asteroides son objetos de poca luz: el único visible a simple vista, y aun así sólo en condiciones favorables, es (4) Vesta.

Se cree, sin embargo, que todos los asteroides más brillantes (de 12a magnitud) han sido identificados. En ese aspecto, los nuevos descubrimientos estarían relacionados con objetos menos luminosos. Se calcula, actualmente, que deben existir, por lo menos, 100.000 asteroides visibles con los grandes telescopios.

Sólo los “Cuatro Grandes” —(1) Ceres, (2) Palas, (8) Juno y (4) Vesta— tienen dimensiones mensurables directamente por observación telescópica. Los demás son tan pequeños que sus dimensiones únicamente pueden evaluarse por vía indirecta, o sea por medio de su brillo aparente. Se sabe, así, que una docena de asteroides tienen diámetros comprendidos entre 160 y 240 kilómetros. Otros son todavía más pequeños. Igualmente, la masa de los asteroides es extremadamente reducida; ciertos astrónomos la calculan en 1/840, y otros en 1 /8.000 de la masa de la Tierra.

Los asteroides no son esféricos, sino bloques de forma irregular que, por eso, presentan variaciones periódicas de luminosidad. Juno e Iris, por ejemplo, varían respectivamente de brillo cada 7h 30m y 7h 7m. No hay ningún indicio de atmósfera alrededor de los asteroides. Según lo indican las medidas polarimétricas, parecen estar cubiertos por una capa de fino polvo.

La órbita de los asteroides
La ley de Tietz-Bode tuvo un error de sólo 1 décimo: la distancia media que mantienen los asteroides con relación al Sol es de 2,9 UA (unidad astronómica). En realidad, sin embargo, cada asteroide tiene una órbita particular, en general mucho mayor que la de los planetas. Mientras la mayoría de los asteroides se localiza entre Marte y Júpiter, y mantiene esas distancias entre 2,1 y 3,5 UA., algunos presentan órbitas alargadas que entrecruzan las de los planetas vecinos. La órbita de Eros, por ejemplo, uno de los asteroides más próximos a la Tierra, se cruza con la de Marte; las órbitas de Adonis, Apolo y Hermes, con la de Venus, y la de Icaro con la de Mercurio.

Además, los asteroides no están distribuidos uniformemente en el espacio. Según lo ha verificado el astrónomo Kirkwood, hay zonas de menor frecuencia, o aun de ausencia total de asteroides. Las principales “lagunas” corresponden a las órbitas en las que los períodos de revolución en años son 4,0; 4,7; 5,1 y 5,9. Estos períodos corresponden, respectivamente, a 1/8, 2/5, 3/7 y 1/2 del período de revolución de Júpiter (11,86 años) y equivalen —según la tercera ley de Kepler— a las distancias medias en relación al Sol de 2,50; 2,82; 2,96 y 8,28 UA. Por otra parte, existen regiones —exactamente las comprendidas entre 2, 1 y 2,5 UA— en donde la concentración de asteroides alcanza su punto máximo. La existencia de las lagunas y las concentraciones de asteroides aún no ha sido explicada satisfactoriamente.

movimiento de los asteroides

Griegos y troyanos:
Cerca de quince asteroides componen un grupo que presenta especial interés. Todos ellos tienen períodos de revolución más o menos iguales al de Júpiter; es decir, se mueven en proximidad de la órbita de éste. Diez de ellos —los troyanos— se desplazan aglomerados delante de Júpiter. Los cinco asteroides restantes —los griegos— siguen a Júpiter en su órbita. Tanto griegos como troyanos forman, con el Sol y Júpiter, dos grandes triángulos equiláteros.

Origen controvertido:

Después del descubrimiento del tercer asteroide, el astrónomo alemán Olbers formuló la hipótesis de que esos planetas” serían el resultado de la desintegración —explosión o ruptura— de un planeta originario, justamente aquel que desde hacía años se buscaba. Esa desintegración habría ocurrido en un pasado remoto, tal vez en la ¿poca de la formación del sistema solar. Algunos factores, como la forma irregular de los asteroides y la presencia constante de ciertas características (la excentricidad y la inclinación de la órbita, por ejemplo) reforzaban dicha teoría.

Sin embargo, la hipótesis se hace dudosa cuando se considera la masa total hipotética) del supuesto planeta originario. Sumando la masa de todos los asteroides conocidos hasta hoy se obtiene, para el hipotético planeta, una masa muy reducida en relación con los demás planetas del sistema.

En este sentido, sólo se puede sostener la hipótesis si consideramos que gran parte del planeta originario se dispersó por el espacio después de la explosión. Según la teoría que hoy se acepta, se habría producido, en la época de la formación del sistema solar, una perturbación en la materia situada entre Marte y Júpiter provocada por algún acontecimiento anormal. Así, al contrario de lo que ocurrió en el momento de la formación de los otros planetas, esta materia se habría distribuido en diferentes cuerpos muy pequeños.

ALGO MAS…
JUPITER GOBIERNA A LOS ASTEROIDES: La velocidad con que un objeto gira alrededor del Sol es determinada por su distancia del mismo: entre más lejos de él orbite un objeto, más lento viajará. Por ello, un asteroide cuya órbita esté más cerca del Sol que de Júpiter alcanzará regularmente al planeta gigante. Cada vez que un asteroide hace eso, su movimiento es perturbado por la poderosa atracción de la gravedad de Júpiter. En algunas órbitas esas perturbaciones se acumulan y acaban por mandar el asteroide a otra órbita.

Supongamos que un asteroide, obligado por un desequilibrio, entra en una órbita en la cual tarda cuatro años en dar la vuelta al Sol. La órbita de Júpiter toma 12 años, de modo que el asteroide rebasará al planeta cada seis años, periodo en el cual el asteroide completará una órbita y media, mientras Júpiter completa media órbita. Ambos pasarán por un punto que está a 180 grados de distancia de su encuentro anterior. Al cabo de otros seis años el asteroide alcanzará a Júpiter en la misma porción de su órbita en que estaba al principio.

El campo gravitatorio de Júpiter jalará repetidas veces de este asteroide en los mismos dos puntos de su órbita y lo lanzará a una nueva órbita, más lejos o más cerca del Sol. En efecto, no se encuentran asteroides en «la órbita de cuatro años» ni en ninguna otra de numerosas órbitas «prohibidas». Esas zonas prohibidas se llaman brechas de Kirkwood, en honor a Daniel Kirkwood, astrónomo estadounidense que predijo su existencia en 1857.        

Otro ejemplo de la influencia de la órbita de Júpiter se ve en los numerosos asteroides «capturados» por ese planeta gigantesco y que están obligados a compartir la órbita del mismo.

Estos asteroides «prisioneros» estan en dos grupos. Uno se concentra en un punto 60 grados adelante de Júpiter y el otro 60 grados detrás de él, pero elementos sueltos de los grupos deambulan lejos de esas posiciones. Esos elementos tienen nombres de los héroes de la guerra de Troya.

Órbita prohibida Un asteroide que tarde 4 años en dar ¡a vuelta al Sol alcanzará cada 6 años a Júpiter, que tarda 22 años. La gravedad de Júpiter hace imposible esa órbita de 4 años. Los asteroides «prisioneros » están atrapados en la órbita del propio Júpiter.

jupiter y los asteriodes

Fuente Consultada:
Wikipedia-Revista Conocer Nuestro Tiempo-Espasa Calpe
¿Sabía Ud. que…? Reader´s Degeast

El Sistema Heliocentrico: Aristarco de Samos, Ptolomeo e Hiparco

El Sistema Heliocéntrico: Aristarco de Samos, Ptolomeo e Hiparco

Aristarco de Samos: El más importante fue sin duda Aristarco de Samos (c. 310 230 a.C.).Ya entre los pitagóricos hubo filósofos que hablaron de un cierto movimiento de la Tierra y parece claro que Heráclides de Ponto (388-315 a.C.) afirmó el movimiento de rotación diurno de la Tierra. Pero el más osado fue Aristarco, que propuso un sistema heliocéntrico -helios en griego significa Sol- en  que el Sol estaba en e centro de la esfera estelar y de las órbitas de los planetas.

aristarco de samosLa Tierra, el tercero de esto; planetas desde el Sol, tenía a la Luna como planeta propio y giraba sobre sí misma cada veinticuatro horas. Tan sólo conocemos esta información escueta por un breve texto de Arquímedes y no nos ha llegado ningún detalle del modelo cosmológico de Aristarco.

Desde el punto de vista astronómico, era sin duda una sugerencia valiosa que podía explicar tanto el movimiento diario de todos los cuerpos celestes como el movimiento propio de los planetas.

El propio Ptolomeo afirmaría que, respecto a los fenómenos celestes, nada impide que concuerden con «la disposición más simple». Efectivamente, dado que lo observado es lo mismo en ambos casos, en abstracto parece más sencillo que un solo cuerpo, la Tierra, gire sobre sí misma en 24 horas, que el que todos los cuerpos celestes giren cada 24 horas alrededor de la Tierra. Pero, de hecho, el doble movimiento terrestre implicaba consecuencias prácticamente inaceptables tanto desde el punto de vista astronómico como, sobre todo, desde el punto de vista físico.

Las primeras teorías sobre el universo: En la antigüedad hubo muchas teorías sobre el universo, a veces fantasiosas. La forma general del universo fue imaginada primero como una campana, o una especie de cúpula, incluso, en una antiquísima leyenda china, como un paraguas. Más tarde, se consideró que la bóveda celeste era perfectamente esférica y que rodeaba por todos lados el globo terrestre. Encajadas en la bóveda celeste, todas las estrellas, consideradas también como esencias perfectas e incorruptibles, sedes naturales de los dioses y de toda sublime manifestación de armonía, participaban solemnemente en el movimiento (aparente) de rotación del cielo.

¿Cuáles eran, para los antiguos, las dimensiones y los límites del universo? Para Aristóteles, el universo era finito, esférico y perfecto. El estagirita creía que el universo estaba formado por un número finito de esferas, cincuenta y cinco exactamente. Para Anaxágoras, en cambio, era infinitamente extenso y estaba formado por infinitos elementos, llamados gérmenes universales u homeomerías. En Grecia, la concepción del universo estuvo siempre condicionada por exigencias y consideraciones de orden filosófico y religioso.

El mero hecho de pensar en el universo como en una enorme esfera planteaba inmediatamente una importantísima cuestión: ¿cuál era el centro de la gran esfera celeste, el punto real o imaginario en torno al cual giraba todo el universo?

Para todos los astrónomos, matemáticos y filósofos griegos y alejandrinos el problema no se planteaba siquiera. Como hemos visto, estos sabios imaginaban la Tierra como una esfera suspendida en el espacio. Además, observando el cielo, habían llegado a la conclusión de que todos los cuerpos celestes, el Sol, la Luna y las estrellas, giraban a su alrededor con regularidad.

Ello les condujo a la teoría según la cual la Tierra, inmóvil en el espacio, se encontraba en el centro del mundo. Una concepción similar lograba explicar de un modo simple y exaustivo todo el dinamismo celeste, salvando al mismo tiempo la unidad y la perfecta armonía del universo. Los círculos, las esferas y los movimientos circulares eran considerados como otros tantos símbolos de perfección. Por otra parte, a los griegos, por razones religiosas y filosóficas, les repugnaba la idea de que en el universo hubiese elementos inarmónicos, cosas imperfectas.

Pero esta teoría empezó a no satisfacer a algunos astrónomos de aquella época, que lamentaban que no explicase el movimiento anómalo (de retroceso) de los planetas. Entre éstos figuraba Heráclides Póntico, discípulo de Platón, quien, estudiando los movimientos de Mercurio y Venus, comprendió claramente que su centro de revolución debía ser el Sol. Pero también sostuvo que los demás planetas giraban alrededor de la Tierra. En la estela de este genial precursor, muchos trataron de demostrar que todos los planetas giraban en torno al astro del día.

hiparco de niceaEste sistema geocéntrico, basado en dos supuestos erróneos (que los planetas orbitan alrededor de la Tierra y que sus órbitas son circulares en lugar de elípticas), era ya por entonces absolutamente inservible.

En consecuencia, Hiparco (imagen izq. c. 190-120 a. C.) redujo el número de grandes esferas a siete (para el Sol, la Luna, Mercurio, Venus, Marte, Júpiter y Saturno) y agregó las esferas menores, llamadas epiciclos, que se separaban de la órbita principal formando lazos. Las esferas grandes, llamadas deferentes, giraban alrededor de un punto imaginario que giraba alrededor de la Tierra. Los pequeños epiciclos se inventaron para explicar los problemáticos retrocesos de los planetas.

En una palabra, el mecanismo geométrico inventado por Hiparco era una máquina de aspecto destartalado. Su propósito era «salvar las apariencias», hacer que la teoría y la realidad coincidieran, en lo que en parte tuvo éxito. Los astrónomos pudieron hacer predicciones razonables sobre las posiciones de los planetas utilizando este modelo, aunque fuese insoportablemente complicado e intrínsecamente erróneo. Pero, puesto que da la sensación de que las estrellas se mueven alrededor de la Tierra, el sistema de Hiparco mantuvo su predominio durante siglos.

astronomo ptolomeo

En el siglo II d. C. el universo con la Tierra por centro era un dogma. Este catecismo lo escribió entre el año 140 y el 149 Claudio Ptolomeo, del que se sabe tan poco que ni siquiera hay certeza sobre si era griego o egipcio. Su modelo del universo —tan parecido al de Hiparco que Ptolomeo (ó Tolomeo, imagen arriba) ha sido acusado de plagio— consistía en un artilugio inverosímil, oscilante y descentrado. Su obra en treinta y nueve volúmenes, que incluía un catálogo estelar y una sección de trigonometría, fue conocida como la Megale mathematike syntaxis (Composición matemática o Gran sintaxis) o bien como el Megiste (El más grande), en abreviatura. Su importancia es difícil de subestimar, pues paralizó la cosmología durante casi 1.400 años.

Aristarco y el sistema heliocéntrico: La primera verdadera formulación de la teoría heliocéntrica fue debida a Aristarco de Samos, astrónomo griego del siglo III a. C. Según esta teoría, todos los planetas, incluida la Tierra, giran alrededor del Sol. Aristarco situó la Tierra entre Venus y Marte; reconoció que la Tierra recorría una órbita completa en un período de un año y aseveró, por último, que el cielo de las estrellas fijas (la bóveda celeste) se encontraba a una distancia del Sol prácticamente infinita. De ahí sacó la conclusión de que en el centro del universo no se encontraba la Tierra sino el Sol, por lo que nuestro planeta no sólo giraba alrededor del astro sino también sobre su propio eje.

Significativas, aunque aproximadas, fueron las primeras investigaciones de este extraordinario científico de la antigüedad sobre las distancias entre los cuerpos celestes. Aristarco calculó que la distancia de la Tierra a la Luna estaba en una proporción de 1 a 19 con la distancia de la Tierra al Sol. La Luna tenía un diámetro igual a 0,36 veces el terrestre y el Sol uno igual a 6,75 veces el de nuestro planeta.

Por tanto, Aristarco ideó y describió con gran agudeza y exactitud lo que actualmente llamamos sistema solar. Su teoría, sin embargo, no convenció a los sabios de su tiempo y fue duramente combatida. Sólo muchos siglos después fue retomada y revalorizada por el científico Copérnico.

Las razones para rechazare heliocentrismo de Aristarco de Samos. En primer lugar, incluso los cálculos más discretos de la distancia de la Tierra al Sol realizados por los griegos implicaban que si fuera la Tierra la que girara en torno al Sol quieto, desde puntos opuestos de su órbita, las constelaciones estelares deberían variar su aspecto. Pero esto no sucede, de lo cual los griegos deducían coherentemente que la Tierra no gira en torno al Sol.

Dicho más técnicamente, si la Tierra orbitara en torno al Sol, a la considerable distancia en que lo hace -743 radios terrestres, según Aristarco, o 1.079 radios terrestres según Ptolomeo-, debería ser perceptible la paralaje estelar, pero esto no sucede así y por tanto hay que rechazar que la Tierra gire en torno al Sol. Sin embargo, la dificultad más seria contra el movimiento terrestre provenía del ámbito de la física.

Eratóstenes había calculado con gran precisión que la Tierra tenía una circunferencia de 39.690 kilómetros. Eso significaba que para completar una vuelta sobre sí misma tenía que rotar a una velocidad de unos 1.600 kilómetros/hora. Pero si en una experiencia tan familiar como correr o cabalgar a 30 kilómetros/hora o a 6o kilómetros/hora se siente un cierto efecto, una ligera brisa que levanta cabelleras y otras cosas, ¿qué efectos no había detener una velocidad tan increíble? Ningún objeto podría permanecer sobre la superficie de la Tierra, si es que ésta pudiera resistirían veloz rotación sin desintegrarse.

Así pues el movimiento de rotación terrestre resultaba increíble. Pero, además, a los efectos de la rotación habría que añadirle los producidos por el movimiento de la Tierra alrededor del Sol. Según los cálculos del propio Aristarco que acabamos de mencionar, de la distancia Tierra-Sol, es fácil deducir que la velocidad de la Tierra en su órbita habría de ser aún mayor que la de su rotación y, portante, los efectos resultantes habrían de ser totalmente catastróficos.

Pero la experiencia inmediata nos muestra que nosotros podemos permanecer sentados o caminar tranquilamente, que los pájaros revolotean y las nubes flotan sobre nuestras cabezas y no se produce ninguno de esos espantosos efectos que implicaba el doble movimiento terrestre. No es extraño, pues, que tras analizar la cuestión, Ptolomeo afirmase que «en última instancia todas estas consecuencias son ridiculas, incluso imaginarlas es ridículo» (Almagesto, l,7).

En definitiva, fue el respeto por los hechos y la argumentación racional lo que llevó a los griegos a rechazar la hipótesis del movimiento terrestre de Aristarco. En realidad, pues, lo que hay que explicar es por qué acabó abandonándose la cosmología geocentrista y geostática y finalmente se impuso la cosmología heliocéntrica. Pero antes de ver cómo empezó este proceso, debemos aludir a otro elemento central que lo afectó sustancialmente.

El sistema geocéntrico: En el bando no heliocéntrico, se intentó, científicamente, dar orden y armonía a la concepción global del universo. A esta tarea se dedicó principalmente la astronomía griega, apoyándose en las grandiosas conquistas realizadas en los campos geométrico y matemático. Platón pidió a su discípulo y hábil matemático Eudoxo de Cnido (h. 406-355 a. C.) que explicara los movimientos regulares de los planetas.

De ahí surgió una compleja teoría, llamada de las esferas homocéntricas, que logró explicar satisfactoriamente la cuestión. Por medio de esferas, cuyo centro coincidía con el de la Tierra, Eudoxo, llamado también «el divino», logró dar razón de los movimientos de a Luna, del Sol y de los planetas recurriendo exclusivamente a movimientos circulares. Así se salvaba el presupuesto fundamental, el geocentrismo (del griego ghe, tierra), concepción según la cual la Tierra ocupaba el centro del universo.

sistema geocentrico

Ver: Antigua Concepción del Mundo