La Estación Espacial

La Luna Características Generales Información Científica

INFORMACIÓN GENERAL Y CIENTÍFICA DE LA LUNA, SATÉLITE TERRESTRE

De todos los cuerpos celestes, la Luna es posiblemente el más conocido. Fue objeto de muchas antiguas creencias y es aún llamada poéticamente Selene, el viejo nombre de la diosa Luna. La ciencia que la estudia se denomina selenografía, y a pesar de que este cuerpo celeste no ha revelado aún todos sus secretos, se conoce bastante sobre él, pues  el hombre ha alunizado en varias oportunidades y ha conseguido centenares de muestras de su superficie para futuras  investigaciones en la NASA.

MAPA DE LA LUNA CON NOMBRES DE SUS MARES Y CRÁTERES

satelite de la Tierra, Luna

(Para Ver Nombres de Cráteres y Mares)

LA LUNA EN NÚMEROS:

Edad: 4.600 millones de ños
Distancia máxima a la Tierra: 405.000 km
Distancia mínima a la Tierra: 363.000 km
Diámetro real de la Luna: 3.473 km
Circunferencia: 10.927 Km.
Superficie: 0,075 de la Terrestre
Volumen: 0,02 de la Terrestre
Peso: 0,012 de la Terrestre
Densidad: 0,6 de la Terrestre
Velocidad de Escape: 2,4 Km/s.
Revolución sobre su eje: 27 d. 7 hs. 43′
Distancia media a la Tierra: 384.403 km
Tiempo de su traslación: 27 d. 43′ 11″
Temperatura de su superficie: De 100°C a -184°C (noche lunar)
Altura máxima de sus montañas: 9.000 m.
Duración del día: 14 dias terrestres
Duración del la noche: 14 dias terrestres

Sobre su formación: Hace unos 5000 millones de años cuando el sistema solar se estaba formando, y definiendo su constitución actual, en nuestro planeta una capa de lava volcánica semiderretida burbujeaba por toda la superficie como un dulce hirviendo. No había tierra sólida, ni agua, ni vida. La Tierra, completamente inestable, giraba tan deprisa sobre su eje que cada día duraba sólo unas cuatro horas.

Ocurrió entonces fue algo inesperado. Los expertos creen que dos planetas jóvenes coincidieron en la misma órbita alrededor del Sol, aunque moviéndose a distintas velocidades. Uno era la Tierra; el otro, el planeta llamado Theia. Unos cincuenta millones de años más tarde, el Sol comenzó a brillar, y aquellos dos jóvenes planetas chocaron uno con otro. Con la sacudida, la Tierra giró sobre su costado, fuera de control.

Miles de volcanes entraron en erupción tras el impacto. Enormes cantidades de gas, antes atrapadas en el núcleo de la Tierra, salían ahora a borbotones a través de la superficie, y creaban así la primera atmósfera del planeta. Las capas más exteriores de Theia se vaporizaron en miles de millones de pequeñas partículas. Los restos volaron en todas direcciones y rodearon la Tierra con una gruesa capa de polvo, rocas y granito a elevada temperatura.

Atrapada por la gravedad terrestre, esta bruma de escombros se arremolinó en el cielo, y todo se oscureció. Durante meses ni siquiera el rayo más brillante de sol podía penetrar las capas de polvo que en un tiempo habían constituido el planeta Theia. Su núcleo de hierro fundido alcanzó el centro de la Tierra, y produjo la fusión de los dos núcleos en una única bola metálica, compacta, con una temperatura de miles de grados, que se hundió en el centro del globo, destrozado por la fuerza del impacto.

En la actualidad, no hay pruebas físicas en el planeta del impacto de la colisión con Theia, ya que tuvo tal fuerza que todo el material exterior se vaporizó y explotó en el espacio. Pero la evidencia no está muy lejos. El polvo y el granito que envolvieron la Tierra pronto se reagruparon, y se convirtieron en una enorme bola de polvo. Aproximadamente sólo un año después del impacto, la Tierra tenía una nueva compañera, nuestra grande, brillante y cristalina Luna.

Aldrin astronauta de la NASA tomando muestras

El astronauta estadounidense Neil Alden Armstrong, como comandante de la misión lunar Apolo 11, es la primera persona que pisa la Luna. Su compañero Edwin E. Aldrin es el segundo hombre en poner un pie en la Luna. Aquí lo vemos tomando muestras del suelo lunar. También participa en la misión el astronauta Michael Collins, que pilota el módulo de control

INFORMACIÓN GENERAL: La Luna da una vuelta completa alrededor de la Tierra en 27 días, 7 horas, 43 minutos, 7 segundos; pero a causa del movimiento de la Tierra alrededor del Sol, el mes lunar —o sea el período que va desde una nueva luna hasta la siguiente— es levemente mayor de 29,5 días.

El diámetro de la Luna es de 3.474km.; pero como la distancia que la separa de la Tierra varía, debido a que su trayectoria es elíptica, su tamaño parece cambiar levemente. La distancia mínima entre la Tierra y la Luna es de 364.300 km. y la máxima es de 408.000 km.

Sólo la mitad de su superficie está siempre iluminada por la luz del Sol. Durante la luna nueva, la cara iluminada está oculta para nosotros; pero a medida que va rodeando a nuestro planeta, vamos viendo cada vez más esta faz, hasta que se muestra totalmente en luna llena. Por varias razones, parece inclinarse levemente, de manera que podemos ver un 59 % de su superficie, en diferentes períodos de su trayectoria; pero no vemos jamás toda la cara posterior.

Cuando fue inventado el telescopio, en 1609, observó Galileo que la superficie lunar es muy rugosa, con picos y cadenas montañosas, con círculos como cráteres volcánicos y llanuras, que confundió con mares. Muy pronto se dibujaron mapas de la Luna y se están haciendo cada vez más perfectos, con ayuda de la fotografía. Un mapa simple de la Luna se muestra en la ilustración superior.

Galileo observando la Luna

1610: Galileo Galilei Observando los astros celestes

La palabra latina mare (mar) señala los desiertos; dos de ellos se muestran abajo, en escala mayor. A la izquierda está el llamado Mare Imbrium (Mar de las Lluvias), que es un vasto desierto, con algunas montañas y cráteres diseminados. Junto a éste, están los Apeninos (la mayoría de las cadenas montañosas de la Luna lleva el mismo nombre que algunas cordilleras terráqueas, mientras que los picos montañosos se conocen con el nombre de algún famoso sabio). En la lámina de la izquierda está el Mare Nubium (Mar de las Nubes), bordeado por una región de cráteres próxima al polo sur de la Luna.

Su peso es mucho menor que el de la Tierra y así también su fuerza de gravedad, de manera que nosotros pesaríamos allí sólo un sexto de nuestro peso en. la Tierra y nuestra fuerza muscular nos permitiría realizar saltos espectaculares.

En la Luna no hay atmósfera en la Luna, de modo que no puede escucharse sonido alguno en su superficie. La ausencia de aire debe hacer que el cielo se vea negro aun en plena luz del día, pero las estrellas se destacarán marcadamente. Desde un lado de la Luna la Tierra está siempre visible y aparece mucho más grande de lo que la Luna se ve desde la Tierra; además, visto desde la Luna, nuestro planeta nunca se oculta, pero sí se mueve de un lado al otro en el cielo. Desde la cara posterior de la Luna nunca sería posible ver la Tierra.

El día y la noche lunares son aproximadamente 14 veces más largos que los nuestros. No se han observado jamás señales de vida allí y sólo cambios muy leves y dudosos. Se han intentado muchas teorías para explicar la causa de su superficie rugosa; a pesar de sus nombres, los cráteres lunares no pueden haber sido producidos por volcanes, sino quizá por la caída de meteoritos, cuyos efectos habrían sido muy destructores, debido a la falta de atmósfera.

Comparar la Tierra con la Luna es como comparar un organismo viviente con uno muerto. Sabemos que en la Tierra se desarrolla una infinita variedad de seres vivos, que han alcanzado su presente estado de desenvolvimiento por un continuo proceso de evolución. Cambios han ocurrido y ocurren constantemente.

Contrariamente a lo que ocurre en nuestro planeta, palpitante de vida en todas sus formas, con climas que varían enormemente, desde el calor tropical al frío polar, y con sólo una parte comparativamente muy pequeña de su superficie total incapaz de mantener cualquier clase de ser viviente. En 2015 la NASA ha encontrado señales de presencia de agua en la Luna, pero hasta hoy es completamente inepta para toda forma de vida. Es un mundo absolutamente muerto.

Ningún otro cuerpo celeste está tan cerca de la Tierra como la Luna y ningún otro cuerpo puede ser observado, estudiado e investigado tan detalladamente: montañas y llanuras pueden verse con mucha claridad con un simple telescopio casero. Si existiera la vida, lo sería en alguna forma que escaparía a nuestra observación, y ésta parece ser una posibilidad bastante remota.

Un argumento de peso que sostiene la teoría de la imposibilidad de la existencia de vida en la Luna, parte del hecho de que no hay agua ni atmósfera en ésta. Todo ser vivo que visitara la Luna debería llevar consigo los medios para poder respirar, beber y comer. Todos los datos coinciden en afirmar que en la Luna no puede haber vida.

Si la Luna en algún estadio de su existencia poseyó atmósfera, no pudo haberla mantenido por mucho tiempo, pues como su tamaño no es lo suficientemente grande, su fuerza de atracción es insuficiente para impedir que los gases envolventes escapen al espacio. La ausencia de una atmósfera da como resultado temperaturas muy extremas en el día; desde 82° cuando brilla el Sol hasta muy por debajo del punto de congelación cuando aquél se ha ido. La superficie no está nunca, por supuesto, oscurecida por nubes.

Negro y blanco son los colores que hay en la Luna, con algunos toques de amarillo, que son aportados por la luz del Sol. Como no hay atmósfera que pueda captar la luz, el cielo lunar es profundamente oscuro. A pesar de que el Sol esté brillando, las estrellas permanecen siempre visibles.

También la ausencia de aire, según hemos dicho, hace que la Luna sea un lugar de absoluto silencio; aun el disparar de un cañón no produciría el menor sonido.

La Luna ejerce una gran influencia sobre la Tierra, aparte de reflejar la luz del Sol sobre nuestro planeta durante la noche. Océanos y mares están sometidos al movimiento regular de las mareas; éstas resultan de la atracción entre la Tierra y la Luna y el Sol. El Sol es infinitamente más grande que la Luna, pero está tan alejado de la Tierra, que su influencia sobre las mareas es menor.

Durante la luna nueva y el plenilunio, Tierra, Luna y Sol están en una misma línea recta y así la influencia de la Luna sobre las mareas está reforzada por la del Sol. De esta manera se producen pleamares y bajamares extremas.

Cuando la Luna está en cuarto creciente o menguante, la atracción lunar forma un ángulo recto con la del Sol; los efectos de la Luna y del Sol son opuestos entre sí y el resultado es la marea muerta, con movimientos muy excepcionales de subida y bajada. Las mareas están influidas por la posición de las masas continentales, y los mares cerrados, como el Mediterráneo, tienen rara vez mareas.

inclinación entre orbita lunar y la Tierra

El plano de la órbita de la Luna forma un ángulo de 5° con el terrestre. Desde la Tierra se descubre un ancho de 6° 30′ del suelo lunar más allá de cada polo: del Polo Norte si la Luna está en la parte sur de su órbita, y del sur cuando se halla en su parte norte. Este fenómeno recibe el nombre de libración en latitud. Las dos libraciones citadas y u na tercera llamada diurna, que solamente alcanza un grado, dan origen a que se reconozca el 59% de la superficie lunar en lugar de la mitad exacta que se vería si aquéllas no existiesen.

LA FASES DE LA LUNA:

FASES DE LA LUNA

Dijimos que la Luna como la Tierra carecen de luz propia y reflejan la que reciben del Sol. Por ello hay siempre en ellas una cara iluminada que en la Tierra denominamos día, y otra obscura, que llamamos noche. Combinados los movimientos lunar y terrestre se produce el ocultamiento permanente de una cara del satélite. Hasta octubre de 1959 ningún terrícola había podido ver la parte oculta. Pero en esa fecha fue fotografiada mediante un satélite artificial lanzado por la Unión Soviética.

Las variaciones que experimenta la Luna se denominan fases: en ocasiones vemos el disco lunar completo, en otras sólo una especie de hoz, y a veces nos resulta totalmente invisible. (Cuando se halla en conjunción con el Sol decimos que se halla en fase de Luna nueva. Al otro día surge por occidente cual un delgado creciente luminoso cuya convexidad está siempre del lado del Sol en el ocaso.

El ancho creciente va aumentando hasta que, transcurridos seis días, aparece en forma de semicírculo cuya parte luminosaterminaen una línea recta. En tal situación se dice que está en cuarto creciente. Se la observa con facilidad durante la tarde y en el anochecer. A medida que sigue su camino y se va alejando del Sol adquiere figura oval y su brillo va en aumento, hasta que al cabo de siete u ocho días se torna completamente circular.

Esta fase se llama de Luna llena, después de la cual la parte iluminada comienza a disminuir y las mismas fases se van repitiendo en sentido inverso. Es decir que, primeramente, toma la forma oval y después la de semicírculo en que llega al cuarto menguante, fácilmente observable al alba.

Por último, tras haber dado una vuelta completa al cielo, sale por la mañana un poco antes que el Sol, y ya cerca de éste, se pierde entre sus rayos y vuelve a la posición original de Luna nueva. Esta posición oculta se denomina conjunción, porque en ella se encuentra entre la Tierra y el Sol. De manera similar, las épocas de la Luna llena reciben el nombre de sicigias y las de los cuartos creciente y menguante, cuadraturas.

GRAN MAPA DE LA LUNA CON CRÁTERES Y MARES:

Ver También: Los Eclipses

Fuente Consultada:
Biblioteca Temática UTEHA Tomo 10 El Mundo Que Nos Rodea – La Luna, satélite terrestre-
Cielo y Tierra Nuestro Mundo en el Tiempo y el Espacio Globerama Edit. CODEX
Enciclopedia Electrónica ENCARTA Microsoft

Que es un Radiotelescopio? Función de la Radioastronomia

LA RADIOASTRONOMIA

La palabra “radioastronomía” data de mediados del siglo XX, por lo que podríamos decir que un rama de la astronomía, relativamente joven, pensemos que las primeras observaciones con telescopio fueron las de Galilei en el siglo XVI. La primera identificación de ondas de radio de origen extraterrestre tuvo lugar hace ochenta años; pero la colaboración sistemática con los observatorios ópticos sólo comenzó después de la segunda guerra mundial. Entretanto progresaron otras formas de escudriñamiento mediante cohetes o globos-sonda capaces de analizar las vibraciones que nuestra atmósfera intercepta o perturba, como por ejemplo los rayos X.

La radioastronomía depende por completo de los telescopios ópticos; sin ellos carecería de sentido y valor porque es incapaz de calcular la distancia de las fuentes emisoras. La comparación de los resultados de ambas disciplinas es interesante pues las ondas radioeléctricas más intensas suelen provenir de los objetos celestes menos visibles y aún, aparentemente, de ninguna materia identificable.

También los registros históricos son muy útiles. Gracias a los astrónomos chinos que en el año 1054 señalaron el súbito estallido de una estrella (“supernova”) podemos reconstruir la historia de la actual nebulosa del Cangrejo, que pertenece a nuestra galaxia, la vía Láctea . Otras supernovas, indicadas por Tycho Brahe en 1572 y Kepler en 1604, son ahora débiles radioestrellas.

Esta última categoría de astros, la más inesperada de la nueva ciencia, parece incluir los cuerpos más distantes que conoce la astronomía. Su conocimiento contribuyó notablemente a la dilucidación de uno de los problemas capitales de todos los tiempos: el del origen del universo.

Grupo de Radiotelescopios Trabajando en Paralelo

LA RADIOASTRONOMIA Y LOS RADIOTELESCOPIOS:

Las Ondas Electromagnéticas Que Emiten Las Estrellas: Cuando una estrella explota, formando una nova o supernova, irradia una enorme cantidad de energía luminosa. Los átomos componentes de la estrella reciben gran cantidad de energía, se calientan extraordinariamente y, como todos los cuerpos muy calientes, irradian la mayor parte de su energía en forma de luz.

La estrella se presenta mucho más brillante. Pero, además de la luz visible, la estrella emite otras clases de radiaciones: rayos infrarrojos invisibles, rayos ultravioletas y ondas de radio. Todas estas clases de radiaciones se hacen mucho más intensas en el momento de la formación de una supernova. La radioastronomía se ocupa de la última clase de radiación citada, o sea, de las ondas de radio.

La fuerza de la explosión acelera y ex-. pulsa de la estrella nubes de partículas cargadas eléctricamente. Asociada con ellas, hay una serie de campos magnéticos turbulentos que cambian rápidamente. Cuando las partículas cargadas se mueven por los campos magnéticos, ganan energía, irradiándola en forma de ondas electromagnéticas.

Una de las ondas corrientes emitidas por los átomos de hidrógeno cargados tiene una longitud de onda de 21 centímetros. Las ondas electromagnéticas de esta longitud de onda son ondas de radio. Se propagan, a partir de su origen, en todas direcciones, viajando con la velocidad de la luz.

Las ondas luminosas son también un tipo de radiación electromagnética, pero de longitud de onda mucho más pequeña. Todas las galaxias y muchas estrellas, incluso el Sol, emiten ondas de radio. El Sol no es una estrella que se caracterice especialmente por enviar ondas de radio; pero, durante los períodos de actividad de sus manchas, la emisión de ondas de radio aumenta.

Las fuentes que emiten ondas de radio con gran intensidad no coinciden necesariamente con los objetos que a nuestros ojos aparecen brillantes, como las estrellas. De hecho, las ondas de radio provienen de regiones oscuras del cielo, de oscuras nubes de polvo y de hidrógeno, en las que éste (según ciertas teorías) está concentrándose para formar nuevas estrellas; sus átomos irradian la energía que ganan al acelerarse en los campos magnéticos del espacio.

Las ondas de radio son invisibles y no pueden detectarse con los telescopios ópticos. Pero, de la misma forma que las emitidas por una estación de radio, pueden ser recogidas por una antena receptora. Estas ondas producen la circulación de débiles corrientes eléctricas en la antena.

Estas corrientes pueden amplificarse, seleccionarse y convertirse en sonidos audibles, tal como acontece con un receptor de radio corriente. Pero es más frecuente utilizar un receptor especialmente concebido, para recoger las ondas de radio del espacio. En él, las corrientes fluctuantes de la antena se registran automáticamente en una gráfica. Al mismo tiempo, se conducen directamente a un cerebro electrónico, para su análisis.

Gigate Radiotelescopio de Arecibo

Los radiotelescopios son grandes antenas diseñadas para interceptar toda la emisión de radio posible de una estrella o de una galaxia. Para ello, las ondas se recogen juntas y se concentran de forma que las corrientes fluctuantes que producen en la antena sean lo suficientemente grandes para ser detectadas.

Las ondas de radio se dispersan en todas direcciones a partir de su fuente. Sólo una pequeñísima fracción de la radiación total de una estrella es interceptada por la Tierra, y esta radiación ha recorrido distancias tan enormes que sus ondas son prácticamente paralelas unas a otras. El radiotelescopio intercepta los rayos paralelos en la mayor superficie posible y los concentra enfocándolos en la antena. Cuanto mayor sea la superficie, más sensible será el radiotelescopio, ya que recogerá más cantidad de radiación de la estrella lejana. Los mayores telescopios ópticos son gigantescos reflectores formados por espejos parabólicos.

Los rayos que llegan a la cuenca del espejo parabólico se reflejan en un pequeño espejo colocado en el foco, y son enviados a una pequeña película fotográfica. El enorme espejo parabólico recoge todos los rayos luminosos que llegan a susuperficie.

Algunos de los grande radiotelescopios son muy parecidos a ese dispositivo. El radiotelescopio es también un paraboloide que puede tener cientos de metros de diámetro.

El pequeño espejo colocado en el foco del telescopio óptico está reemplazado en el radiotelescopio por la antena, a la que se enfoca toda la radiación recibida. Hay un inconveniente importante en los radiotelescopios. Incluso si existen dos o tres fuentes de ondas de radio separadas en el campo de detección es imposible distinguirlas unas de otras.

Las corrientes fluctuantes son el resultado de todas las ondas de radio recibidas en el radiotelescopio. La placa fotográfica del telescopio óptico es un medio más eficiente para detectar la imagen, pues los rayos de luz que llegan al espejo con distintos ángulos se concentran en puntos ligeramente diferentes en el espejo pequeño, y se reflejan para ennegrecer puntos distintos en la placa sensible.

El radiotelescopio ideal debe ser lo más grande posible, para recoger el mayor número de rayos, pero también debe ser manuable, de forma que pueda dirigirse _ a cualquier parte del cielo. Cuando el diámetro sobrepasa los 80 metros, el telescopio no puede ser lo suficientemente rígido para resistir el viento sin doblarse y distorsionar la “imagen”. Además, no es fácil manejarlo. Se está construyendo en Puerto Rico un radiotelescopio de más de 300 metros de diámetro, forrando con aluminio pulimentado las paredes de un cráter que presenta una forma conveniente. Pero este radiotelescopio no puede ser enfocado arbitrariamente, puesto que es fijo.

Los radiotelescopios reflectores simples son de construcción difícil y costosa. Sin embargo, puede fabricarse otra clase de radiotelescopio formado por varios reflectores pequeños y antenas, dirigidos hacia diferentes partes del cielo y que se mueven conjuntamente, cubriendo una distancia mucho mayor de la que puede abarcar un solo reflector. De esta forma, la “imagen” puede componerse a partir de fragmentos parciales. Para localizar de manera más precisa las fuentes de ondas intensas, se usan unas largas hileras de reflectores y antenas idénticas, colocados exactamente a la misma distancia unos de otros.

Estos dispositivos tienen un excelente poder de resolución y resultan mejores para separar dos fuentes de ondas próximas. A pesar de que los rayos procedentes de una fuente emisora puntual son paralelos, si llegan al radiotelescopio formando un ángulo, alcanzarán la antena de un extremo de la línea antes de llegar a la del otro extremo. Al llegar a las antenas en instantes diferentes, las ondas de cada extremo lo harán en distintas fases de su vibración.

Al sumar todas las corrientes de las antenas, las de un extremo pueden estar en una fase opuesta a las del otro, eliminándose parcialmente una a otra. El efecto producido es hacer más nítida la imagen de radio de la estrella. Este tipo de radiotelescopio se llama radiointerjerómetro, debido a que la eliminación de una serie de ondas por otra es una interferencia. Generalmente, el interferómetro se compone de dos líneas de antenas que forman ángulos rectos. La nitidez de la imagen o poder de resolución puede aumentarse de varias maneras, sumando o restando las señales de las distintas antenas.

Los radiotelescopios pueden penetrar mucho más profundamente en el universo que los telescopios ópticos. Las galaxias más lejanas que se conocen son también los transmisores de radio más potentes, y fueron descubiertas precisamente a causa de esta poderosa emisión de ondas de radio, que emiten probablemente por ser galaxias en colisión. El telescopio óptico de Monte Palomar investigó con mucho cuidado en esa dirección, y encontró la tenue nube de galaxias causantes de las ondas de radio.

La atmósfera terrestre es un inconveniente para la radioastronomía, dado que absorbe grandes cantidades de la radiación electromagnética que llega a la Tierra. Sólo un pequeño margen de ondas puede atravesar la atmósfera. Las ondas de radio de pequeña longitud son absorbidas por las moléculas de la atmósfera, y las de onda larga se distorsionan a causa de las capas cargadas eléctricamente de la ionosfera.

Una solución sería la de colocar un radiotelescopio en un satélite artificial, y una idea todavía más prometedora es la de construirlo en la Luna, donde no hay atmósfera que pueda interrumpir la radiación. En la Luna se podrían construir radiotelescopios mayores, ya que siendo menor la fuerza de la gravedad, la estructura de los aparatos podría manejarse con menor esfuerzo y una menor deformación del reflector.

ALGUNAS FUENTES INTENSAS DE ONDAS DE RADIO

Sol 8 minutos Desde algunos milímetros a varios metros, emitidas por la corona y la cromosfera
Júpiter 40 minutos Unos 15 metros
Gas hidrógeno en ios brazos espirales de una galaxia De 1.500 a 80.000 años
21,1 cm„ emitida por el gas hidrógeno ionizado
Nebulosa de la constelación de Cáncer (su pernova) 3.000 años De 1 cm. a 10 m. Ondas de electrones acelerados
Supernova de la constelación de Casiopea 10.000 años De un centímetro a 10 metros; proceden de hidrógeno ionizado, oxígeno y neón
Centro de nuestra galaxia 30.000 años
Nubes de Magallanes (las galaxias más próximas) 200.000 años 21,1 centímetros
Nebulosa de la constelación de Andrómeda (la galaxia espiral más próxima) 2 millones de años 21,1 cm. Es un emisor tan potente como nuestra propia galaxia
Galaxia elíptica de la constelación de Virgo (Virgo A), nebulosa del chorro azul 33 millones de años Ondas de electrones acelerados
Dos galaxias espirales en colisión de la constelación del Cisne (Cisne A) 50 millones de años
Nebulosa de radio lejana, de la constelación de Hércules 750 millones de años

Fuente Consultada:
Revista TECNIRAMA N°90 Enciclopedia de la Ciencia y La Tecnología – La Radioastronomia –

Telescopio Espacial Hubble La Gran Ciencia Observacion del Universo

Observación del Universo – El Telescopio Espacial Hubble

Los astrónomos saben desde hace décadas que desde fuera de la atmósfera podrían obtener una visión del universo mucho más clara que desde la Tierra. El centelleo de las estrellas en el cielo nocturno está provocado por perturbaciones atmosféricas que deforman las ondas de luz que llegan hasta nosotros. Mirar las estrellas desde el suelo es como observar el vuelo de las aves desde el fondo de una piscina.

En 1962, la Academia Nacional de Ciencias de los EE.UU. recomendó la construcción de un gran telescopio espacial, y en 1965 y 1969 otros organismos similares se adhirieron a la propuesta. La puesta en órbita de satélites de observación del espacio en 1968 y 1972 acrecentó el interés por el proyecto, pero hasta que no se inventó el transbordador espacial no se dispuso de un medio para poner en órbita un telescopio verdaderamente grande.

La Agencia Espacial Europea se incorporó al proyecto en 1975, en 1977 se obtuvieron los fondos necesarios, y en 1985 el telescopio estaba ya listo.

El proyecto del telescopio espacial fue diseñado para proporcionar las imágenes más claras y de mayor alcance que los astrónomos han visto nunca. Flotando por encima de los efectos enmascaradores de la atmósfera, puede observar los cielos utilizando rayos infrarrojos y ultravioletas, además del espectro visible de la luz. Puede captar objetos demasiado lejanos o demasiado imprecisos para verlos desde la Tierra, tan distantes que la luz que emiten tarda miles de millones de años en llegar hasta nosotros.

El telescopio espacial Hubble puede explorar el pasado, contemplar acontecimientos que sucedieron hace 14.000 millones de años, cuando el universo era joven. Podría distinguir objetos con una precisión 25 veces mayor que la que se disfruta desde la Tierra, y explorar el universo captando diez veces más detalles que los advertidos hasta ahora.

Sin embargo, este ambicioso proyecto, debido a un defecto en el espejo principal, se ha visto obligado por el momento a renunciar a sus objetivos cosmológicos más importantes, si bien está realizando una gran labor en el campo astrofísico. Esta situación, en cualquier caso, se considera momentánea, ya que se prepara para febrero de 1994 una reparación en órbita del aparato, a cargo de una tripulación del transbordador de la NASA. (Fuente: Atlas de lo Extraordinario – Construcciones Fabulosas Tomo II)

Estamos, por definición, en el mismo centro de la región observable. Conocemos casi íntimamente nuestro vecindario inmediato. Al aumentar la distancia, nuestros conocimientos se debilitan, lo hacen rápidamente. Por último llegamos a la oscura frontera: el límite máximo de nuestros telescopios. Allí medimos sombras y buscamos, entre los fantasmales errores de medida, mojones que apenas son más sustanciales. Edwin P Hubble.

La idea era simple. El astrofísico Lyman Spitzer, de Princeton, lo había pensado ya en 1947: pongamos un telescopio encima de la atmósfera y la visión del cosmos será muchísimo más clara. Esto se ha hecho de manera limitada en las décadas de 1970 y 1980, con observatorios como el satélite Explorador Internacional de Ultravioletas (IUE), el Observatorio de Rayos X Einstein y el Satélite de Astronomía de Infrarrojos. Ocurrió a lo grande el 24 de abril de 1990, cuando el Telescopio Espacial Hubble (TEH), preparado a lo largo de tres décadas a un coste de 1.500 millones de dólares, despegó del Centro Espacial Kennedy a bordo de la lanzadera Discovery.

Se esperaba del telescopio, que da una vuelta alrededor de la Tierra cada noventa y cinco minutos, que detectara objetos demasiado poco luminosos para verse desde la Tierra, hiciera observaciones con luz ultravioleta (que absorbe la atmósfera y por lo tanto no es posible observar desde tierra) y, en conjunto, proporcionara imágenes diez veces mejores que las obtenibles mediante telescopios instalados en tierra.

Las esperanzas quedaron defraudadas cuando resultó que el espejo principal de 94,5 pulgadas, descrito en un artículo publicado poco después del lanzamiento como el «reflector astronómico más perfecto que se ha hecho nunca», tenía graves e innecesarios defectos. También los giróscopos eran defectuosos, lo mismo que los paneles solares, que temblaban un poco cuando el telescopio atravesaba la frontera entre el día y la noche.

Se ha polemizado sobre si el problema de los paneles solares es peor que el problema del espejo en forma de «donut», pero el espejo ha merecido mayor atención por un sencillo motivo: el defecto ha sido fácil de percibir.

El problema es la aberración esférica, lo que significa que el espejo es incapaz de enfocar los rayos de luz hacia un único punto porque está demasiado ahuecado, en algo así como 1/50 de un cabello humano; un error lo bastante grande, si se compara con la longitud de onda de la luz, como para proyectar el 85 por 100 de la luz de una estrella en forma de halo borroso, con lo que sólo resta el 15 por 100 para la imagen central.

El defecto incapacita seriamente a dos de los instrumentos del telescopio: la Cámara Planetaria y de Campo Amplio (WF/PC) y la Cámara para Objetos Débiles. Lo peor de todo es que, de haberse prestado atención a las comprobaciones de los espejos primarios y secundarios, se habría detectado la discrepancia.

¡Ay!, el telescopio se lanzó en condiciones defectuosas, con la consecuencia de que su visión ha quedado seriamente comprometida y las imágenes eran borrosas y decepcionantes. Sin embargo, incluso antes de diciembre de 1993, cuando los astronautas salieron al espacio e hicieron una serie de importantes arreglos para corregir la miopía del telescopio, los técnicos informáticos y otros científicos pudieron ajustar los datos teniendo en cuenta la gran aberración. De este modo, al incorrecto y muy difamado Telescopio Espacial Hubble se debe un impresionante número de progresos, entre los que se cuentan:

* la resolución de Plutón y Caronte en objetos separados. La existencia de la luna de Plutón se había deducido, pero verdaderamente nunca se había visto como objeto celeste diferenciado;

* el descubrimiento de chorros, ondas, un frente de choque y una estructura desconocida, que tiene el aspecto de una escala, dentro de la nebulosa que rodea la masiva estrella Eta Carinae, que era la más luminosa del firmamento en 1843;

* el descubrimiento de un anillo elíptico en expansión, compuesto de detritos resplandecientes, alrededor de la supernova 1987A;

* el descubrimiento de una X de polvo más allá del núcleo de la M51, la galaxia del Torbellino. Se cree que indica la localización de un agujero negro cuya masa equivale a millones de soles. El TEH ha descubierto asimismo pruebas de la existencia de agujeros negros en los centros de otras dos galaxias, M32 y M87;

* el descubrimiento, totalmente inesperado, de un cúmulo globular joven en la curiosa galaxia NGC 1275 de Perseus, una sorpresa porque se creía que todos los cúmulos globulares eran viejos;

* imágenes de una distante galaxia que emite ondas de radio, tan joven que la mayor parte de sus estrellas sólo tienen 500 millones de años, alrededor de un 1/10 de la edad del Sol;

* el descubrimiento de una de las estrellas más calientes que se han encontrado nunca, una enana blanca con 200.0000 C, en el corazón de la nebulosa NGC 2440 de la Vía Láctea;

* el descubrimiento en la peculiar galaxia Arp 220 de seis núcleos increíblemente grandes y luminosos donde se forman de estrellas que se cree que son el resultado de la colisión de dos galaxias espirales;

* una detallada fotografía de la Lente Gravitatoria G2237 + 0305. Las lentes gravitatorias fueron anunciadas en primer lugar por Einstein, quien predijo que a grandes distancias las estrellas podrían actuar como lentes, curvando y enfocando la luz de estrellas más lejanas. Si las circunstancias eran las debidas, pensaba Einstein, la luz podría formar un anillo perfecto. Fritz Zwicky dijo que esto no era probable que ocurriera con estrellas, pero que era posible con galaxias. Zwicky tenía razón, pero esta concreta lente gravitatoria es conocida, sin embargo, como la Cruz de Einstein. La fotografía de la página 297 muestra una galaxia situada a 400 millones de años luz de distancia envuelta por las cuatro imágenes de un cuásar más lejano;

* finalmente, el TEH ha permitido a los astrónomos partir de cero en la búsqueda de una nueva y mejorada constante de Hubble al apuntar a un concreto tipo de supernova como la candela estándar. Estas explosiones de las supernovas, que ocurren al estallar una de las estrellas de las parejas de enanas blancas, alcanzan todas el mismo brillo máximo. Además, son visibles a distancias literalmente 1.000 veces mayores de lo que es posible detectar las variables cefeidas. Como indicador distante pueden ser sumamemente útiles; pero sólo si al menos es posible determinar con precisión su brillo absoluto.

La mejor manera de hacerlo sería descubrir variables cefeidas en la misma galaxia donde se han detectado esta clase de supernovas. Las variables cefeidas tienen una utilidad insuperable, puesto que, una vez determinado su ritmo de pulsión, se conoce su brillo absoluto. Entonces, comparando el brillo absoluto con el brillo aparente, los científicos pueden calcular su distancia.

De modo que el TEH se apuntó hacia IC 4182, una poco luminosa galaxia espiral situada a 16 millones de años luz que en 1937 era el emplazamiento de ese preciso tipo de supernova. Y por supuesto se detectaron cefeidas, lo que permitió a los científicos determinar la distancia, y por lo tanto la luminosidad absoluta de la explosión.

En esta lente gravitatoria, que a veces se conoce por la Cruz de Einstein, la luz procedente de un cuásar situado a 8.000 millones de años luz de distancia ha sido curvada por la gravedad de una galaxia mucho más próxima. La luz del cuásar, repetida cuatro veces, rodea la luz de la galaxia como los pétalos de una flor. (imagen a la izquierda: Cruz de Einstein)

Utilizando esta información, un grupo de científicos, entre los que estaban Abhijit Saha, Allan Sandage y Gustav Tammann, anunciaron que la nueva constante mejorada de Hubble se sitúa entre 30 y 60 km/sec/mpc, siendo la cifra más probable la situada en el centro: 45, lo que hace que el universo tenga unos 15.000 millones de años.

Innecesario es decir que la cifra no ha sido unánimemente aceptada. Algunos científicos señalan que la cifra podría inducir a error, pues la IC 4182 puede estar repleta de polvo, lo que haría que sus cefeidas parecieran más oscuras, y por lo tanto más alejadas de lo que en realidad están. El consenso no se ha alcanzado y la edad del universo sigue sin saberse.

Algunos datos màs… (Fuente Consultada: Autonomía Educativa)

El Telescopio espacial Hubble está situado en los bordes exteriores de la atmósfera, en órbita circular alrededor alrededor de la Tierra a 593 kilómetros sobre el nivel del mar, que tarda en recorrer entre 96 y 97 minutos. Fue puesto en órbita el 24 de abril de 1990 como un proyecto conjunto de la NASA y de la ESA. El telescopio puede obtener resoluciones ópticas mayores de 0,1 segundo de arco. Tiene un peso en torno a 11.000 kilos, es de forma cilíndrica y tiene una longitud de 13,2 m y un diámetro máximo de 4,2 metros.

El telescopio es reflector y dispone de dos espejos, teniendo el principal 2,4 metros de diámetro. Para la exploración del cielo incorpora varios espectrómetros y tres cámaras, una de campo estrecho para fotografiar zonas pequeñas del espacio (de brillo débil por su lejanía), otra de campo ancho para obtener imágenes de planetas y una tercera infrarroja. Mediante dos paneles solares genera electricidad que alimenta las cámaras, los cuatro motores empleados para orientar y estabilizar el telescopio y el equipos de refrigeración de la cámara infrarroja y el espectrómetro que trabajan a -180 ºC.

Desde su lanzamiento, el telescopio ha recibido varias visitas de los astronautas para corregir diversos errores de funcionamiento e instalar equipo adicional. Debido al rozamiento con la atmósfera (muy tenue a esa altura), el telescopio va perdiendo peso muy lentamente, ganando velocidad, de modo que cada vez que es visitado, el transbordador espacial ha de empujarlo a una órbita ligeramente más alta.

La ventaja de disponer de un telescopio más allá de la atmósfera radica principalmente en que ésta absorbe ciertas longitudes de onda de la radiación electromagnética que incide sobre la Tierra, especialmente en el infrarrojo lo que oscurece las imágenes obtenidas, disminuyendo su calidad y limitando el alcance, o resolución, de los telescopios terrestres. Además, éstos se ven afectados también por factores meteorológicos (presencia de nubes) y la contaminación lumínica ocasionada por los grandes asentamientos urbanos, lo que reduce las posibilidades de ubicación de telescopios terrestres.

Desde que fue puesto en órbita en 1990 para eludir la distorsión de la atmósfera – históricamente, el problema de todos los telescopios terrestres -, el Hubble ha permitido a los científicos ver el Universo con una claridad jamás lograda. Con sus observaciones, los astrónomos confirmaron la existencia de los agujeros negros, aclararon ideas sobre el nacimiento del Universo en una gran explosión, el Big Bang, ocurrida hace unos 13.700 millones de años, y revelaron nuevas galaxias y sistemas en los rincones más recónditos del cosmos. El Hubble también ayudó a los científicos a establecer que el sistema solar es mucho más joven que el Universo.

En principio se pensó traer el telescopio de vuelta a la Tierra cada cinco años para darle mantenimiento, y que además habría una misión de mantenimiento en el espacio en cada periodo. Posteriormente, viendo las complicaciones y riesgos que involucraba hecer regresar el instrumento a la Tierra y volver a lanzarlo, se decidió que habría una misión de mantenimiento en el espacio cada tres años, quedando la primera de ellas programada para diciembre de 1993. Cuando al poco tiempo de haber sido lanzado, se descubrió que el Hubble padecía de una aberración óptica debida a un error de construcción, los responsables empezaron a contar los días para esta primera misión de mantenimiento, con la esperanza de que pudiera corregirse el error en la óptica.

A partir de que en esa primera misión de mantenimiento se instaló un sistema para corregir la óptica del telescopio, sacrificando para ello un instrumento (el fotómetro rápido), el Hubble ha demostrado ser un instrumento sin igual, capaz de realizar observaciones que repercuten continuamente en nuestras ideas acerca del Universo.

El Hubble ha proporcionado imágenes dramáticas de la colisión del cometa Shoemaker-Levy 9 con el planeta Júpiter en 1994, así como la evidencia de la existencia de planetas orbitando otras estrellas. Algunas de las observaciones que han llevado al modelo actual del universo en expansión se obtuvieron con este telescopio. La teoría de que la mayoría de las galaxias alojan un agujero negro en su núcleo ha sido parcialmente confirmada por numerosas observaciones.

En diciembre de 1995, el telescopio fotografió el campo profundo del Hubble, una región del tamaño de una treinta millonésima parte del área del cielo que contiene varios miles de galaxias. Una imagen similar del hemisferio sur fue tomada en 1998 apreciándose notables similitudes entre ambas, lo que ha reforzado el principio que postula que la estructura del Universo es independiente de la dirección en la cual se mira.

Fuente Consultada: El Universo Para Curiosos Nancy Hathway

La Roca de las Edades: El Hubble -según la NASA-puede fotografiar desde Nueva York una luciérnaga posada en una flor en Sidney, Australia. .Pero el mayor desafío del súper telescopio es llegar a rozar el borde del Universo (tiene un  límite?}, y avanzar hasta el principio de los tiempos.

Hoy los observatorios convencionales levan alhombre unos 2,000 millones de años-luz: es decir, hasta un objeto ubicado a una distancia igual a la recorrida por la luz en 2.000 millones de años (velocidad de la luz: 300,000 kilómetros por segundo). Pero el Hubble puede multiplicar por seis o siete ese alcance: unos 14.000 millones de años luz.

Una especie de túnel del tiempo capaz de llevar al hombre hasta el instante del origen del Universo, sucedido unos 10.000 o 15.000 millones de años. Captada esa explosión fundacional el hombre podrá acercarse al al mas grande y acaso aterrador de los misterios: la Creación.

Un defecto de pulido en el espejo mayor desveló a los astrónomos durante tos tres primeros años de actividad del Hubble, Por fin, una misión de astronautas especializados en óptica distorsión de las imágenes.

La Comida de los Astronautas Misión Apolo Comida en el Espacio

La Comida de los Astronautas – Misión Apolo

Los exploradores de todos los tiempos han tenido siempre el problema de llevar suficiente comida para su viaje. Siempre tuvieron que limitar el tamaño de su carga y también encontrar métodos para evitar que  la comida se echara a perder. La cuestión fue especialmente importante durante los días de las largas travesías por mar.

No solo era necesario que los víveres se mantuvieran en buenas condiciones durante el- viaje sino que conservaran su valor nutritivo. Lo mismo ocurre cuando el hombre se aventura al espacio exterior. Solo que además debe llevar consigo hasta él aire que respira y el agua que bebe: Por eso la cápsula Apolo es un mundo -en miniatura, Y este articulo nos explica cómo se alimenta un astronauta.

Una larga experiencia ganada durante las misiones Mercury y Géminis, permitió desarrollar la técnica de preparación, manipuleo y consumo de la comida en el espacio para el proyecto Apolo. Los alimentos que lleva la Apolo 11 en esta histórica misión son similares a los productos “rehidratables” y del tamaño de un “bocado” utilizados durante el programa Géminis, con algunos agregados para dar a los astronautas una mayor variedad en la preparación de sus menúes.

comida de los astronautasPara aumentar el gusto de lo que se come, la espacionave Apolo está equipada para proveer tanto agua caliente como fría para reconstituir las comidas o bebidas deshidratadas. El agua potable de los tanques puede ser calentada a gran temperatura (casi 70 grados) en un recipiente de un par de litros de capacidad, cada media hora, para utilizarla es la preparación de comidas calientes.

El agua helada se obtiene de un congelador que enfría un litro y medio de líquido cada 24 minutos. A una temperatura de menos de 10 grados, el agua se carga en un “dispensador” de mano con capacidad para un cuarto litro, que permite “inyectarla” en las raciones y preparar comidas o bebidas frías.

El menú que acompaña esta nota es un ejemplo de la selección hecha para dos ellas por un astronauta, de la misión Apolo. Pero los expertos de la NASA han analizado cada uno de los componentes de estas comidas para establecer su exacto valor calórico y nutritivo, empleando la información obtenida en la elaboración de un menú balanceado.

Esta información también proporciona una base para calcular la absorción nutritiva de cada hombre, diariamente y a lo largo de una misión completa. Se estableció que, por  ella, un hombre en el espacio debe recibir aproximadamente 2.800 calorías. El do nutritivo se balancea para que suministre 20 por ciento de proteínas, 62 de hidratos de carbono y 18 de grasas. La distribución calórica es del 17 por ciento de las proteínas, 51 de los hidratos de carbono y 32  por ciento de las grasas.

Todos los envases de alimento y de bebida para, una comida de un solo hombre están envueltos en una sobrecubierta especial de aluminio. Estos paquetes llevan una identificación de color para identificar las comidas seleccionadas por cada astronauta. De esa manera se evitan confusiones y cada cual puede dedicarse a sus manjares predilectos sin búsquedas engorrosas.

Además, los miembros de la tripulación van provistos de los tradicionales elementos de higiene personal, que Incluyen goma de mascar (para después de las comidas), cepillo de dientes, paños secos y mojados y toallas.

Todo esto —tanto la comida como los elementos de higiene— es conservado en. gabinetes a prueba de Incendios dentro de la cápsula Apolo.

Los estudios de- nutrición, llevados, a cabo por los laboratorios de Investigación Médica Aeroespacial de la:•base de Wright-Patterson, para la NASA, han demostrado que la comida que lavan los astronautas de la Apolo U ‘es en todo equivalente a los alimentos frescos que se consumen en la Tierra. Cada ración ha sido probada largo tiempo, hasta que no quedaron dudas de sus cualidades.

El mismo gusto de la comida fue objeto de especiales cuidados, para lograr que los sabores atrayentes y variados proporcionándoles el atractivo que la presentación de los alimentos les niega. El hacer de los momentos dedicados a la alimentación en el espacio una “pequeña fiesta gastronomita”, según el decir de uno de los expertos, ha costado también años de esfuerzos.

Otro dietista de laboratorios de Wright-Pattersoh lo definió así: “Queremos que cuando uno de nuestros muchachos regrese de una excursión por el espacio a la cápsula que es su hogar, encuentre en la comida apetitosa y caliente el, mismo sabor al  que se acostumbró en la -Tierra”.

Ejemplo del menú seleccionado por uno de los astronautas de la Apolo XI para los dos primeros días de la misión.
(R):reidratable y (B):bocado – de 6 a 8 por ración –

La Ciencia en la Edad Moderna Teorias Cientificas del Universo

La Ciencia en la Edad Moderna: Teorías Científicas del Universo

biografias de grandes astronomos

Biografía
Copérnico
Biografía
Johanes Kepler
Biografía
Tycho Brahe
Biografía
Galileo Galilei

LOS AVANCES DE LA CIENCIA: A partir del siglo XV comenzaron a producirse transformaciones significativas en la vida económica, política, social y cultural de Europa occidental, que fueron modelando lo que se conoce como Modernidad. Sin embargo, al abordar este período es importante advertir que no hubo un corte tajante con la Edad Media. Por el contrario, persistieron algunos aspectos de la Baja Edad Media, que marcaron una continuidad con el pasado.

En el plano cultural, el pensamiento de los humanistas –con su interés por el pasado-. las traducciones de los sabios de la Antigüedad y la nueva forma de concebir al hombre desplazaron el saber escolástico medieval. Se revalorizó la experiencia como fuente de conocimiento, en desmedro de la tradición que primaba durante la mayor parte de la Edad Media. La imprenta permitió difundir ampliamente no sólo el conocimiento de la Antigüedad sino también las obras de los eruditos medievales y la de los hombres del Renacimiento. En el arte surgieron nuevas formas de representación.

El desarrollo de la ciencia y de la técnica trajo consigo nuevas formas de concebir el universo que modificaron la imagen de los mundos conocidos. La evolución de los medios de transporte favoreció la expansión del comercio marítimo y los viajes de exploración. Con el descubrimiento de América y la profundización del conocimiento de África se amplió el horizonte geográfico de los hombres europeos.

Los adelantos científicos
Durante los tiempos del Humanismo y el Renacimiento, los estudios científicos cobraron gran importancia. Surgió un gran interés por las investigaciones en matemática, botánica, zoología, astronomía, medicina, historia, física, y demás ramas científicas.

La ciencia no era autónoma, sino que debió construir paulatinamente su independencia. Tuvo que despegarse del ámbito religioso, que frenaba los adelantos que se opusieran eran al dogma. Cada ciencia se preocupó por el problema del conocimiento: ¿Es posible conocer? ¿Cómo puede adelantar el conocimiento en cada rama científica?

A partir del siglo XV, aproximadamente, se operó un cambio radical en la concepción del mundo, que culminaría en los siglos XVI y XVII con una revolución científica. El logro más importante de la generación que estableció las bases de la nueva ciencia fue darle una mayor importancia al lenguaje matemático, comprender que era el empuje científico por excelencia. En adelante no se buscaría la comprensión de la naturaleza por la reservación inmediata sino por las estructuras matemáticas y mecánicas. Comprendieron que el universo no se movía por “carácter divino”, como se pensaba en e Medievo.

En física, astronomía y matemática se realizaron descubrimientos trascendentales. Entre ellos Nicolás Copérnico (1473-1543) demostró que la Tierra gira sobre su eje y que los planetas se mueven alrededor del Sol (teoría heliocéntrica). Sus ideas, combatidas por la iglesia de la época, fueron confirmadas años después por el alemán Kepler (1571-1630), quien perfeccionó el telescopio, y finalmente por Galileo Galilei (1564-1642).

En medicina también hubo importantes adelantos: investigaciones sobre anatomía humana (Andrés Vesalio, 1514-1564), estudios sobre infección (Jerónimo Francastori, quien recibió el nombre de “padre de la patología moderna”), y descubrimientos sobre la circulación de la sangre (Miguel Servet, 1511-1553, y Guillermo Harvey, 1578-1658).

También a partir del siglo XV, mediante sucesivas expediciones marítimas se descubrieron nuevas tierras y abrieron nuevas rutas. En poco más de dos siglos, civilizaciones hasta entonces desconocidas, y otras con las que solamente se habían establecido contactos a través de comerciantes y caravaneros, quedaron sólidamente unidas a Europa por mar.

La demanda de objetos de lujo -seda, marfil, joyas- y de costosas especias, así como de metales preciosos necesarios para la creciente actividad mercantil, se acentuó con la recuperación económica de mediados del siglo XV. Pero estos productos llegaban de Oriente a Europa a través de multitud de intermediarios que los encarecían, sin contar con que el flujo se vio bloqueado por el dominio turco en el Mediterráneo oriental a partir de la toma de Constantinopla (1453).

Fue la necesidad de buscar nuevas rutas para conseguirlos, junto a los avances en navegación y en la elaboración de los mapas, los que se combinaron para hacer posible la sucesión imparable de descubrimientos y conquistas.

Portugal y España lideraron esta búsqueda, cuyos éxitos más notorios fueron conseguidos por Vasco de Gama, al alcanzar la India a través del mar, y por Cristóbal Colón, en pos del mismo objetivo, al encontrar por error un continente desconocido en Europa. Las ansias de riqueza de reyes, mercaderes y aventureros, más los deseos evangelizadores de la Iglesia, inauguraron un nuevo escenario mundial en el que Europa colonizaría vastas zonas del mundo. (ver revolución científica siglo xv)

Avances Técnicos:
Los mayores avances técnicos durante el Renacimiento se legraron en el campo de las. industrias prácticas -como la textil o la imprenta- y en aquellas que permitían alcanzar riqueza o pode: -como la minería, la metalurgia o la navegación-. Muchos de los progresos técnicos alcanzados durante este período fueron posibles gracias a la importancia otorgada al estudio de la química ; de la física y a la aplicación de sus propiedades.

• Distintas innovaciones aceleraron el desarrollo de la actividad textil: el perfeccionamiento de los telares permitió que aumentara el número de tejidos producidos y, a partir del siglo xv. se generalizó el cardado de lana -operación que desenreda la fibra formando hilos-. También se difundieron nuevas telas, más baratas, más livianas y con mayores variaciones de color.

• La imprenta, introducida en Europa a mediados del siglo xv, trajo consigo el desarrollo de la industria del papel. Mediante la palabra escrita y las ilustraciones, la industria editorial contribuyó a la divulgación de la cartografía y de los tratados técnicos, como los de agricultura, de metalurgia y de arte militar.

• Las necesidades de los estados y de los comerciantes de contar con una mayor cantidad de metales preciosos -oro y plata-aceleraban los avances en el campo de la metalurgia. A mediados del siglo xv, se descubrió el método de amalgama, que permitía separar la plata del mineral en bruto extraído del yacimiento. Se impulsó también la metalurgia del hierro.

• Las guerras frecuentes entre los estados llevaron a aplicar los avances en la manipulación de los metales también en la mejora del armamento: se perfeccionó, por ejemplo, el uso del cañón, de la balística y del granizado de pólvora. Frente a la utilización de las armas de fuego, como el arcabuz, las tradicionales armaduras se volvieron inútiles, si bien los nobles continuaron utilizándolas en los torneos y los combates. La aplicación de las nuevas técnicas en la guerra obligó a la construcción de nuevas fortificaciones para aumentar las posibilidades de defensa de las ciudades y proteger a los civiles. El mayor uso de la artillería hizo necesario realizar muros de menor altura pero de mayor grosor. También se modificó la forma de estas fortificaciones para mejorar la capacidad de tiro.

• Con respecto a la navegación, uno de los logros más importantes fue el empleo de la brújula a partir del siglo xrv. Junto al antiguo astrolabio, necesario para medir la latitud, la brújula facilitó la orientación en la tierra y en el mar. También se llevaron a cabo importantes mejoras en las embarcaciones.

• Con respecto a los transportes terrestres, se introdujo el eje delantero móvil que, además de mejorar el diseño de los carruajes, permitió disminuir el riesgo de accidentes.

Los progresos técnicos desarrollados desde fines de la Edad Media permitieron a los comerciantes incrementar sus actividades, sobre todo a partir del auge alcanzado por el comercio marítimo. Para aumentar sus ganancias y realizar un mejor control de sus empresas, los comerciantes debieron perfeccionar el sistema económico. Entre los avances relacionados con la técnica de los negocios, la contabilidad fue muy importante porque permitió ordenar las operaciones contables. Al mismo tiempo, para efectuar transacciones en distintas ciudades y evitar el manejo de dinero al contado, se generalizó el uso de dos documentos: el cheque y la letra de cambio. También aparecieron los seguros comerciales como una forma de cubrir los riesgos, ante las posibles pérdidas de mercaderías y de barcos.

Avances en navegación
Con los aportes de los árabes, la ciencia náutica se había enriquecido de forma considerable. El Almagesto, manual cosmográfico debido al alejandrino Ptolomeo, las obras de Aristóteles sobre el espacio celeste y las del cardenal francés Fierre d’Ailly -que hablaban de la posibilidad de dar la vuelta al mundo por mar, y que eran conocidas por Colón- alumbraban nuevas teorías en numerosos campos de la ciencia.

Desde finales del siglo XV, los portugueses realizaron sus navegaciones fijando su posición marítima por medio de la Estrella Polar y, más tarde, por la altura del Sol a mediodía. Desde 1508, el rey Fernando el Católico hizo que sus capitanes se adiestrasen en el manejo del cuadrante y del astro-labio en la Casa de Contratación de Sevilla. Las tablas astronómicas, desde la Edad Media hasta bien entrado el siglo XVIII, fueron fundamentales para orientarse en el mar. La brújula, necesaria para la navegación, era conocida en China desde finales del siglo XI y usada desde mediados del siglo XIII.

Las cartas marítimas o portulanos trazados por los cartógrafos desde 1300 registran en un principio únicamente el Mediterráneo o el Báltico, pero estos mapas fueron perfeccionados bien pronto. El Atlas de los Mediéis, de 1351, señalaba ya la costa occidental de la India. Faltaba todavía un conocimiento exacto de África, pero era ya conocida como un continente rodeado de mares. Hacia 1300, españoles e italianos situaban en sus mapas universales países e islas ya conocidos o sospechados.

ALGUNOS AVANCES: 1543-1727: A finales del siglo XV y durante el XVI se produce una auténtica revolución en la ciencia y la filosofía. Nicolás Copérnico (1473-1543) rechaza la visión tradicional del Universo. Tycho Brahe (1546-1601) y Johannes Kepler (1571-1630) continúan su trabajo. Kepler aplica las observaciones de Brahe a la formulación de sus tres leyes del movimiento planetario.

Galileo Galilei (1564-1642) lleva más lejos todavía las teorías de Copérnico en Diálogo sobre los dos sistemas del mundo (1632). Sus trabajos principales están relacionados con el estudio del movimiento y la inercia.

Isaac Newton (1642-1727) publica sus leyes sobre la gravitación universal y ensayos sobre óptica. Asimismo desarrolla un cálculo diferencial e integral al que llega también Gottfried Leibniz(1646-1716). Jean Napier (1550-1617) inventa los logaritmos (1614). Rene Descartes (1596-1650) define la geometría analítica y Blaise Pascal formula una teoría de la probabilidad y una ley de la presión sobre fluidos, e inventa una máquina sumadora (1642) y una prensa hidráulica. Miguel Servet (h.1511-1553) descubre la circulación pulmonar y su papel en la circulación de la sangre. Willian Harvey( 1578-1657) describe la circulación de la sangre y la función del corazón (De motu coráis, 1628).

La invención del microscopio permite a Antón von Leeuwenhoek (1632-1723) estudiar los microorganismos. Christian Huygens (1629-95) formula una teoría ondulatoria de la luz, describe los anillos de Saturno e inventa el reloj de péndulo. Robert Boyle (1627-91) establece las propiedades físicas de los gases. William Gilbert (1540-1603) estudia el magnetismo (De magnete).

Robert Hooke (1635-1703) establece una ley de la elasticidad de los cuerpos. Francis Bacon(1561-1626)y Rene Descartes proveen de bases filosóficas a las nuevas ciencias. El Novum organum de Bacon se publica en 1620 y en 1637 el Discurso del método de Descartes. Otros filósofos importantes son Leibniz, Spinoza, Hobbes y John Locke, que aplica los nuevos adelantos a la psicología humana. Hugo Grocio (1583-1645) aboga por un sistema de derecho internacional (De jure
belli acpacis, 1625). Se funda en Toscana la primera academia científica (1657), a la que pronto siguen otras similares en Inglaterra (1662), Francia (1666) y Berlín (1670).

Biografia de Astronomos del Renacimiento Kepler Copernico Galileo

Biografía de Astrónomos del Renacimiento Kepler Copérnico Galileo

biografia de grandes astronomos antiguos

Biografía
Copérnico
Biografía
Johanes Kepler
Biografía
Tycho Brahe
Biografía
Galileo Galilei

Los mayores logros en la Revolución Científica de los siglos XVI y XVII tuvieron lugar en los campos más dominados por las ideas de los griegos: la astronomía, la mecánica y la medicina. Las concepciones cosmológicas, a finales de la Edad Media, se habían formado sobre una síntesis de las ideas de Aristóteles, Claudio Ptolomeo (el mas grande astrónomo de la antigüedad, quien vivió en el siglo II de C.) y la teología cristiana.

En la concepción ptolomeica o geocéntrica resultante, el universo se veía como una serie de esferas concéntricas con una Tierra fija o inmóvil en su centro. Compuesta de las sustancias materiales de tierra, aire, fuego y agua, la Tierra era imperfecta y se hallaba en cambio constante. Las esferas que la rodeaban estaban hechas de una sustancia cristalina y transparente, y se movían en órbitas circulares alrededor de ella.

El movimiento circular, de acuerdo con Aristóteles, era la clase de movimiento más “perfecta” y, por ende, apropiada para los “perfectos” cuerpos celestes que  creía estaban compuestos de una “quinta esencia” inmaterial e incorruptible. Estos cuerpos celestes, orbes puros de luz estaban incrustados en las esferas móviles y concéntricas, y en 1500 eran diez. Partiendo de la Tierra, las ocho esferas contenían la Luna, Mercurio, Venus, el Sol, Marte, Júpiter, Saturno y las estrellas fijas.

La novena esfera impartía su movimiento a la octava esfera de las estrellas fijas, mientras que a la décima esfera se le describía frecuentemente como  impulsora primaria, que se movía a sí misma e impartía movimiento a las otras esferas. Más allá de la décima esfera estaba el Empíreo o Cielo: el lugar de Dios y de todas las almas salvadas. Así, este universo ptolomeico cristianizado era finito.

Tenía un fin fijo en armonía con el pensamiento y las expectativas cristianos. Dios y las almas salvas estaban en un extremo del universo, mientras que los humanos estaban en el centro; a éstos se les había dado poder sobre la Tierra, pero su propósito real era alcanzar la salvación.

Sin embargo, esta visión no satisfacía a los astrónomos profesionales, que querían determinar las trayectorias precisas de los cuerpos celestes a través del cielo. Al encontrar que sus observaciones no siempre correspondían al esquema aceptado, los astrónomos trataban de “cubrir las apariencias” elaborando un detallado sistema de dispositivos.

Proponían, por ejemplo, que los cuerpos planetarios viajaban en epiciclos, esferas concéntricas dentro de esferas, que permitían a las trayectorias de los planetas corresponder más precisamente a las observaciones, a la vez que se adherían a las ideas de Aristóteles del movimiento circular planetario.

CopernicoCopérnico
Nicolás Copérnico (1473-1543) había estudiado tanto matemáticas como astronomía primero en Cracovia, en su nativa Polonia, y después en las universidades italianas de Bolonia y Padua. Antes de salir de Italia, en 1506, había tenido conocimiento de antiguos puntos de vista que contradecían la visión ptolomeica geocéntrica del universo. Entre 1506 y 1530 terminó el manuscrito de su famosa obra Sobre las revoluciones de las órbitas celestes, pero su propia timidez y temor al ridículo ante sus colegas astrónomos lo contuvieron de publicarla hasta mayo de 1543, poco antes de su muerte. (seguir leyendo…)

Tycho Brahe  Tycho (o Tyge)Tycho Brahe Brahe nació el 14 de diciembre de 1546 en Knudstrup, Escania; hoy Suecia pero entonces perteneciente a Dinamarca. Hijo del gobernador del castillo de Helsingborg, fue apadrinado por su tío Joergen.  El tío Joergen era un gran terrateniente y vicealmirante que había pedido a su hermano que cuando tuviera un hijo quería apadrinarlo y adoptarlo hasta el punto de considerarlo como hijo suyo. El gobernador le prometió a su hermano que así sería pero un incidente vino a postergar la promesa. (seguir leyendo…)

Johannes Kepler: El teólogo, profesor de matemáticas. Los estudios de Kepler, que siempJohannes Keplerre realizó con becas gracias a su precoz inteligencia, se encaminaban a la teología. También amaba las matemáticas, según él mismo nos dice y en la Universidad de Tubinga, su profesor Michael Maestlin, le ayudó a descubrir lo que sería el objetivo de su vida. Maestlin era un competente astrónomo. En las clases no podía enseñar el sistema copernicano, considerado en la Facultad de Teología contrario a las Escrituras, pero en privado iniciaba a unos pocos alumnos escogidos en la cosmología de Copérnico. El joven Kepler se entusiasmó desde el primer momento y, más osado, proclamaba públicamente su copernicanismo. (seguir leyendo…)

Galileo GalGalileo Galileiilei: Profesor de matemáticas, pero también de mecánica, astronomía y arquitectura militar, Galileo atrajo a numerosos estudiantes, especialmente a los cursos de astrología que dictaba. Aprovechando el descubrimiento que probablemente había hecho un desconocido óptico holandés de Middelburg, de nombre Hans Lippershey, Galileo construyó el primer telescopio. En Venecia, desde lo alto del campanil de San Marcos, el científico se volcó a sus primeras observaciones de los cuerpos celestes, comenzando por la Luna. El 7 de enero de 1610 remitió el resultado de sus largas vigilias nocturnas al gran duque de Toscana, Ferdinando de Medicis.  (seguir leyendo…)

Galaxia Via Lactea-Sistema Solar-Planeta Tierra-Astronomia Elemental

Galaxia Vía Láctea – Sistema Solar – Planeta Tierra Astronomía Elemental

Estructura

astronomia, planetas del sistema solarEl Sol, y el Sistema Solar con el, se encuentra en la galaxia llamada Vía Láctea. Se trata de una galaxia espiral catalogada como SII consistente en una agrupación de estrellas y gas y polvo interestelar con una mása de cien mil millones de veces la del Sol (lO(ll) Mo).

Una gran parte de esta materia (en torno al 90%) solo puede detectarse a través de los efectos gravitacionales que produce, no por la luz que emite; se trata por tanto de “materia oscura” que puede estar constituida por enanas blancas que ya se han enfriado (enanas negras), planetas gigantes (del tipo de Júpiter) que no tienen la mása suficiente como para brillar con luz propia, micro-agujeros negros (como los que postula Hawking que pudieron formarse en las primeras fases del Big Bang) o en forma de otros tipos de materia a la que no estamos acostumbrados en nuestro Sistema Solar (estrellas Q, …).

La estructura de la Galaxia consta de dos partes bien diferenciadas: el disco y el halo. Ambas presentan diferente simetría y composición estelar.

El halo galáctico esta formado por estrellas viejas, con unos 10 mil millones de años, llamadas “de la población II” agrupadas en cúmulos globulares. Se trata de estrellas con una baja proporción de elementos pesados, entendiendo por elementos pesados (o metales) todos aquellos que sean más masivos que el Helio (peso atómico superior a 4). La composición química de estas estrellas es prácticamente la misma que la que tenia el Universo primordial después del Big Bang (80% de Hidrogeno y 20% de Helio).

El material del que estan formadas no ha sido procesado anteriormente por otras estrellas y por eso mantienen la proporción de elementos químicos primordial. La distribución de cúmulos globulares presenta simetría esférica respecto al centro de la Galaxia, con una mayor densidad en la zona central (en la dirección de Sagitario). Estos cúmulos tienen órbitas muy elípticas cuyo periodo es de varios cientos de millones de años. La simetría esférica es un indicativo de que el halo se formo antes de que la materia que los constituye participara del proceso de “achatamiento” que origino más tarde el disco galáctico. La edad de estos cúmulos se puede obtener trazando el diagrama H-R de sus estrellas; en el vemos como las únicas estrellas que permanecen en la Secuencia Principal se corresponden con las menos masivas, que son las que más tiempo necesitan para abandonarla.

Por su parte, el disco galáctico se halla distribuido en un plano más o menos definido en el que se pueden distinguir dos partes: El bulbo central o núcleo y los brazos espirales. El diámetro del disco se estima actualmente en unos 25 Kpc con una anchura de 1 Kpc. Las estrellas muy jóvenes y las regiones de polvo interestelar se sitúan en la parte central de este disco en una zona de anchura no superior a 100 pc.

En el se encuentran las estrellas de la población I así como gas y polvo interestelar. Las estrellas de la población I son más jóvenes que las de la población II. Su contenido en elementos pesados es no despreciable, debido a que se han formado a partir de materia que ha sido reciclada por estrellas anteriores que ya evolucionaron, y que en los últimos estadios de su vida, liberaron los resultados de la nucleosíntesis al espacio interestelar.

En el núcleo, el disco galáctico se hace más abultado y puede considerarse una región más o menos esférica con un diámetro de unos 5 Kpc. Las estrellas que pueblan esta región son también de la población II, aunque la gran concentración de materia allí existente, no les ha permitido evolucionar de la misma manera que a las del halo.

La zona más externa del disco galáctico esta dominada por la presencia de los brazos espirales. Se trata de regiones en las que se agrupa la materia: estrellas, gas y polvo interestelar. En los brazos espirales es donde se encuentran los núcleos más activos de formación de estrellas. Perturbaciones de diferentes tipos hacen colapsar inmensas nubes de gas y polvo que, después de fragmentarse en otras más pequeñas, dan lugar al nacimiento de estrellas en grupos o cúmulos (estos cúmulos se conocen con el nombre de cúmulos abiertos o galácticos). El más famoso de estos cúmulos abiertos son las Pleiades en Tauro.

A la Galaxia se le conocen cuatro brazos espirales: el de Sagitario-Carina (el brazo Mayor), el de Escudo-Cruz (brazo Intermedio), el de Norma (brazo Interno) y el de Perseo (brazo Externo). El Sol se encuentra en una región intermedia entre el brazo de Sagitario Carina y el de Perseo, a unos 10 Kpc de distancia del centro galáctico, cerca por tanto, del borde de la Galaxia. La extinción que provoca la materia interestelar es la causante de que no veamos una luminosidad mayor en la dirección del centro (podemos decir que, en el visible, nuestro campo de visión hacia el centro es similar al que tenemos hacia el exterior), no obstante, la distribución espacial de los cúmulos globulares y, sobre todo, las observaciones radioastronómicas en la linea de 21 cm y las infrarrojas, nos indican claramente la posición del centro de la Vía Láctea.

El núcleo galáctico

Mención aparte merece el estudio del centro galáctico debido a los violentos sucesos que se supone que ocurren allí. La absorción interestelar lo hace inobservable en el visible (produce una disminución del brillo en unas 30 magnitudes) pero la luz emitida en el infrarrojo y en el dominio radio nos llega hasta aquí, permitiéndonos su estudio.

A partir de estas observaciones encontramos que en una región de 1 pc de diámetro se encuentra concentrada una cantidad de mása equivalente a entre uno y cuatro millones de veces la del Sol, en forma de un cúmulo estelar superconcentrado o de un agujero negro súper masivo. Sea cual sea el objeto allí existente, lo que parece claro es la existencia de un viento de gas y polvo hacia afuera a una velocidad de 750 km/seg.

Este viento ha formado una región con forma de anillo que rodea el centro galáctico, con un diámetro interno de 3.4 pc. Este anillo esta rotando a una velocidad de unos 90 km/seg. Además, se ha detectado una fuente compacta (menos de 20 U.A. de diámetro) de ondas de radio, a un segundo de arco del objeto en el que se supone que se sitúa el centro de la Galaxia. El problema que presenta la explicación del núcleo galáctico mediante la hipótesis del agujero negro, es que con uno de cien masas solares seria suficiente para producir la emisión de radiación gamma observada.

Por otro lado, todavía no esta claro si nuestra galaxia tiene una barra de materia cruzando el núcleo o no, es decir, si se trata de una espiral barrada o de una espiral normal. Para nosotros, situados en su interior, nos resulta mucho más fácil determinar la estructura global de otras galaxias situadas a millones de años-luz, que la de la galaxia en la que nos encontramos. Podemos determinar la estructura fina, los detalles más concretos, pero no verla en su totalidad.

EL UNIVERSO A GRAN ESCALA

Clasificación de Hubble de las galaxias

La clasificación de galaxias más aceptada en la actualidad proviene de la efectuada en 1925 por Edwin Hubble, el padre de la Cosmología moderna. Esta clasificación distingue cuatro tipos principales de galaxias: Las elípticas, caracterizadas por su forma esférica o elipsoidal, apariencia uniforme y luminosidad regularmente distribuida.

El polo opuesto serian las galaxias espirales, que presentan dos componentes, una parte central (el bulbo, similar a primera vista a las galaxias elípticas) y un disco plano sobre el que se puede observar una estructura espiral. Las galaxias espirales pueden ser divididas en dos grupos, espirales ordinarias y espirales barradas, dependiendo de si tienen una barra de materia atravesando el centro o no.

Las galaxias lenticulares (o SO) también tienen un bulbo central y un disco, pero este no presenta estructura espiral. Finalmente, como su propio nombre indica, las galaxias irregulares no presentan una estructura bien definida; no presentan un bulbo y tienen una presencia caótica.

Cada una de estas clases se divide en grupos. Las galaxias elípticas se clasifican de 0 a 7 de acuerdo con su elipticidad (E0 para las esféricas, E7 para las más achatadas). Las espirales varían desde la Sa hasta la Sd (se incluyen también las del tipo Sm) atendiendo a la disminución del tamaño relativo entre el bulbo y el disco y a la separación de los brazos espirales. La misma división se aplica a las espirales barradas SB.

Esta clasificación cubre diferencias físicas además de las puramente morfológicas. Las galaxias elípticas son más rojas que las espirales, esto es interpreta como una diferencia en sus constituyentes estelares. Además, en las galaxias elípticas la emisión de luz esta dominada por la que proviene de estrellas, del tipo de las gigantes rojas.

La población estelar de estas galaxias parece similar a las de los cúmulos globulares, a las estrellas de la población II. En contraste, en las galaxias espirales todavía existe una cierta actividad en la formación de estrellas; pueden encontrarse estrellas jóvenes con una emisión dominante en el azul. Las galaxias lenticulares tienen población estelar similar a las elípticas.

Mientras que para las galaxias elípticas y lenticulares se aprecia más o menos, la misma población estelar, cualquiera que sea su tipo, para las espirales, la población relativa de estrellas jóvenes aumenta de los tipos Sa a Sm y para las irregulares es todavía mayor.

En lo que respecta al contenido de materia interestelar (gas y polvo), se aplican las mismás consideraciones; las galaxias elípticas no contienen prácticamente nada de esta material mientras que en las espirales e irregulares se detectan grandes cantidades (en las irregulares, la fracción de gas neutro alcanza entre el 10 y el 20% del total de la materia de la galaxia).

Las S0 son un tipo intermedio entre las elípticas y las espirales; dos terceras partes no contienen nada de gas, y el resto tienen tanto como las espirales. De esta forma, la clasificación morfológica se corresponde bastante bien con las diferencias físicas entre las galaxias. No obstante hay que tener presente que esta clasificación no responde a todos los fenómenos observados, ya que se encuentran galaxias de los mismos tipos que presentan fenómenos físicos bien diferenciados.

Grupos de galaxias

Las galaxias no se encuentran uniformemente distribuidas a lo largo del espacio sino que aparecen en grupos. El ejemplo más cercano lo constituyen las Nubes de Magallanes, dos galaxias irregulares, difusas satélites de la Vía Láctea. La interacción gravitacional entre la Vía Láctea y sus dos satélites da lugar a la Corriente de Magallanes, una corriente de Hidrogeno neutro arrancado de las Nubes de Magallanes por las fuerzas de marea ejercidas por nuestra propia Galaxia, que forma un puente de materia que une la Galaxia a sus satélites.

Las galaxias gigantes a menudo están acompañadas por un numero más o menos numeroso de pequeños satélites gravitando en torno a ellas. Así, la galaxia de Andrómeda M31, tiene por satélites a M32, NGC 147 y NGC 205, tres bonitas galaxias elípticas rotando en torno a ella con un periodo de unos 500 millones de años. M31 es una espiral gigante con una masa de una vez y media la de la Galaxia.

A una escala un poco mayor advertimos la presencia de varias galaxias en un radio de 1.3 Mpc y una ausencia total de las mismas en una distancia de entre 1.4 y 2.4 Mpc. Esto induce a pensar en la existencia de un grupo de galaxias, el llamado Grupo Local, compuesto por dos espirales gigantes (la Galaxia y M31), dos espirales medias (la galaxia del Triángulo M33 y la Gran Nube de Magallanes), una galaxia elíptica con núcleo (M32), media docena de galaxias irregulares pequeñas, una docena de galaxias elípticas enanas y unos cuantos objetos muy débiles con apariencia de cúmulo globular. Según van mejorándose las técnicas astronómicas, se añaden nuevos objetos a este Grupo Local.

Por otro lado, es muy posible que la lista este bastante incompleta ya que las galaxias elípticas enanas, por ejemplo, no son observables a una distancia mayor que la que nos separa de la M31, lo que significa que podrían existir unas cien galaxias de este tipo que todavía no se han detectado.

El Grupo Local no presenta una condensación central de materia, más bien esta se concentra en dos núcleos principales: en torno a la Vía Láctea y en torno a M31. La ligazón gravitatoria del Grupo Local no esta todavía muy clara, aunque parece claro que las galaxias se agrupan en este tipo de “pequeñas estructuras”.

Actualmente se han catalogado más de 50 grupos en un radio de 16 Mpc, cada uno con varias decenas de miembros. Se trataría de las estructuras básicas de las que constituyen el Universo a media y gran escala. La definición que se adopta para Grupo de Galaxias es la de una asociación de galaxias, de las que una docena son más brillantes de magnitud absoluta -16 en un volumen de alrededor de un Mpc cubico (esto equivale a una densidad de galaxias diez veces superior a la media fuera de los grupos).

La pregunta que nos hacemos a continuación es si todas las galaxias pertenecen a un grupo o a una estructura mayor del Universo. Observacionalmente se encuentra que entre el 10 y el 20% de las galaxias no pertenecen a ningún grupo. A estas galaxias se las conoce como galaxias de campo.

La determinación de la mása de un grupo de galaxias se realiza por dos procedimientos diferentes: por un lado se estudian los efectos gravitacionales (obteniéndose la mása dinámica) y por otro se analiza la luz que nos llega de las galaxias (dando lugar a la mása luminosa). Comparando ambos resultados se comprueba que la mása dinámica es entre cuatro y diez veces superior a la luminosa. Esto significa que una gran parte de la materia que compone los grupos de galaxias “no brilla”, es decir, no emite luz suficiente para ser observada desde la Tierra o bien esta en una forma de materia que no emite luz. A esta mása se le suele llamar “materia oscura”.

Cúmulos y supercumulos de galaxias

Parece existir una tendencia natural de la materia a juntarse en unidades cada vez más grandes. Los quarks (uno de los constituyentes básicos de la materia) se agrupan para formar bariones, los cuales a su vez forman los átomos junto con los electrones. Los átomos se juntan en estrellas y estas son los constituyentes básicos de las galaxias, quienes, como hemos visto, se juntan en grupos de unas decenas para formar los Grupos de galaxias. Los grupos de galaxias constituyen los cúmulos de galaxias los cuales a su vez se agrupan en supercúmulos de galaxias, las estructuras más grandes del Universo conocido.

A la vista de las observaciones astronómicas no parece una labor fácil decidir una definición clara de lo que se entiende por cumulo de galaxias. Para intentar clarificar este termino, se ha recurrido a una herramienta utilizada en Estadística: las funciones de correlación. Se parte de la idea de que si las galaxias se encuentran en un cumulo, la distancia media que las separa es bastante menor que si estuvieran distribuidas uniformemente. El calculo de las funciones de correlación es bastante complicado.

En primer lugar se necesita disponer de un catalogo de galaxias que nos de su posición aparente. Este catalogo fue elaborado en el observatorio de Lick y representa un total de un millón de galaxias (hasta magnitud 18.7). La esfera celeste se divide en cuadraditos de 1 grado cuadrado sobre los que se cuentan las galaxias que estan dentro de cada uno, comparándose este numero con la densidad media.

Este análisis muestra la existencia de un fondo uniforme de unas 50 galaxias por grado cuadrado, sobre el que se superponen un gran numero de cúmulos con densidades que rondan las cien galaxias por grado cuadrado. Esta tendencia a la agrupación de las galaxias disminuye drásticamente para escalas de distancias mayores de 20 Mpc, correspondiéndose con las dimensiones de los mayores cúmulos observados.

No obstante, las funciones de correlación no nos dicen nada acerca de cual es el nivel de concentración de galaxias necesario para que tengamos un cumulo. La definición es bastante más arbitraria. Normalmente se llama cumulo de galaxias a aquellas agrupaciones que, en un volumen como el del Grupo Local (una esfera de unos pocos Mpc) contienen un numero de galaxias comprendido entre varios cientos y varias decenas de miles. La densidad de galaxias en los centros de los cúmulos muy ricos, puede llegar a ser de miles a millones de veces superior a la densidad media del Universo.

Los dos cúmulos de galaxias más cercanos a la Vía Láctea son el cumulo de Virgo, a una distancia de 20 Mpc en la dirección del Polo Norte Galáctico y el Cumulo de Coma, en la constelación de la Cabellera de Berenice a 100 Mpc de nosotros.

Del estudio del catalogo de galaxias de George Abell, realizado con la cámara Schmidt de Monte Palomar y que comprende galaxias hasta magnitud 21, se ha podido detectar la existencia de dos tipos principales de cúmulos de galaxias: los cúmulos regulares, muy concentrados y los irregulares, con una concentración y un numero de miembros menor y por lo tanto con una mayor dispersión.

Los cúmulos regulares de galaxias tienen simetría esférica y una gran concentración de galaxias en su parte central (a menudo, el centro del cumulo lo ocupa una galaxia elíptica supergigante). Las velocidades de rotación de las galaxias del núcleo son del orden de 1000 Km/seg. La mayoría de las galaxias en estos cúmulos son elípticas o lenticulares, con muy poca materia interestelar, El diámetro de estos cúmulos oscila entre 1 y 10 Mpc, sus másas son del orden de 10l5 Mo, equivalente a diez mil galaxias como la Vía Láctea. El cercano Cumulo de Coma es el prototipo de cumulo galáctico regular.

Los cúmulos irregulares no muestran simetría ni una concentración en la distribución de las galaxias que lo forman. Las velocidades orbitales de la galaxias son muy pequeñas, sus tamaños varían entre 1 y 10 Mpc y el rango de másas entre 10(12) y 10(14) Mo. Un exponente claro de cumulo irregular es el Cumulo de Virgo. También pueden considerarse dentro de esta categoría al Grupo Local y a todos los grupos de galaxias distribuidos en nuestras inmediaciones.

El problema de la materia oscura que vimos en el punto anterior persiste cuando hablamos de cúmulos de galaxias, es decir, la mása dinámica del cumulo no coincide con la mása luminosa, siendo esta ultima inferior.

Los ricos cúmulos de galaxias de 10 Mpc de diámetro no son las estructuras más grandes del Universo. De hecho, su distribución consiste en un fondo más o menos uniforme de cúmulos separados 55 Mpc de promedio, sobre los que se superponen cúmulos de cúmulos, los llamados Supercúmulos de galaxias.

Por ejemplo, nuestro Grupo Local, junto con algunas docenas más de grupos cercanos de galaxias, es un miembro de un sistema mucho mayor de 15 Mpc de radio, centrado en el cumulo de Virgo, conocido como Supercúmulo Local. Por otro lado, este supercúmulo es relativamente pobre; contiene únicamente un cúmulo rico (en su centro) y varios grupos de galaxias.

En la actualidad se han encontrado más de 50 supercúmulos, cada uno con un promedio de unos doce cúmulos ricos y varias decenas de cúmulos más pequeños. El diámetro de estas estructuras es del orden de 100 Mpc.

Se cree que la jerarquía de las estructuras del Universo se detiene en los supercúmulos de galaxias. De hecho, se obtiene que a escalas mayores de 1000 Mpc, la variación en la densidad de galaxias se reduce a la mitad de la densidad media del Universo, lo que significa que, a escala muy grande, el Universo es homogéneo e isótropo.

En la actualidad se cree que la distribución de cúmulos y supercúmulos de galaxias en el Universo no es homogénea. Se ha observado que esta distribución tiene lugar en grandes “burbujas” de espacio de forma que la materia se encuentra en las paredes de estas estructuras, quedando la parte central constituida por un vacío (de materia) casi absoluto. En los puntos de contacto entre las burbujas se localizarían las grandes distribuciones de materia antes mencionadas, la más cercana de las cuales se conoce como “la Gran Muralla”.

Sea como sea nuestro Universo, parece factible hoy en día, que en un plazo de tiempo razonablemente corto (en escala humana) podremos contar con una visión bastante aproximada de como es la distribución global de materia en la parte del Universo en la que nos encontramos.

EL BIG BANG

Las observaciones nos indican que el Universo se esta expandiendo, es decir, las galaxias se estan separando unas de otras. Echando la vista hacia atrás, esta expansión significa que antes, el Universo era más pequeño, las galaxias estaban más juntas.

La expansión del Universo no hay que entenderla como la clásica imagen de una artefacto que ha explotado y sus piezas se separan unas de otras en el espacio exterior, ajeno a la propia explosión, más bien se trata de una expansión del propio espacio-tiempo, que arrastra a los objetos materiales en el inmersos. En este sentido, el punto en donde se produjo la Gran Explosión (Big Bang) no es ninguno en concreto, sino más bien es todo el Universo (aquí, en Logroño, en Canopo y en cualquier lugar del Universo).

Daremos aquí un pequeño repaso a lo que se conoce como Modelo Estandar del Big Bang. Para ello comenzaremos una centésima de segundo después del comienzo de la expansión, hace entre 13 y 20 mil millones de años. Lo anterior a esa primera centésima de segundo inicial y hasta 10-47 segundos después del Big Bang pertenece al dominio de la Mecánica Cuántica (alguna de cuyas predicciones ya han sido confirmadas observacionalmente mediante el satélite COBE) y de ahí hasta el cero, corresponde al dominio de las teorías de Gran Unificación (que pretenden configurar una teoría capaz de explicar la Gravitación y las otras tres fuerzas conocidas, Electromagnetismo, interacción Débil y fuerza Fuerte, como distintas facetas de esa única “Superfuerza”).

En t = 0.01 seg. el Universo tenia una temperatura de unos cien mil millones de grados K, con una densidad de cuatro mil millones de veces la del agua. En estas condiciones, la materia y la radiación se encuentran acopladas y ni siquiera los neutrinos eran capaces de escapar a esta interacción.

Un tercio de segundo después, los neutrinos dejaron de interactuar apreciablemente con la materia y se desacoplaron. A partir de ese momento evolucionaron de forma independiente. Esos neutrinos llenan todo el Universo desde entonces, constituyendo un baño de partículas que no ha podido ser detectado.

En t = 1.1 seg. comenzó la aniquilación de pares e+ e-: la destrucción de materia y antimateria para dar luz. Un pequeñísimo exceso de la materia sobre la antimateria fue el que permitió más tarde que se formaran las galaxias y con ellas las estrellas y los planetas.

A los 3 minutos y 46 segundos comienza la nucleosíntesis primordial: la formación de núcleos de Deuterio, Helio y una pequeñísima proporción de Litio.

En t = 4 min. ya se había producido todo el Helio observado actualmente en el Universo, quedando una composición de un 75% de Hidrogeno y un 25% de Helio aproximadamente.

El hecho de que la explicación vaya tan despacio en esta primera fase se debe a que en esa época, el tiempo necesario para que un evento tuviera carácter cosmológico, es decir, para que afectara a una parte significativa del Universo, era muy pequeño debido a su reducido tamaño.

En la actualidad, para que un evento tenga carácter cosmológico, hay que esperar un tiempo igual a 10 veces la vida del Universo. Esto se resume diciendo que el Tiempo Característico del Universo primigenio era mucho menor que ahora (Tiempo Característico = Tiempo necesario para que una región dada del Universo doble su tamaño por la expansión cosmológica). De esta forma, en Cosmología, el tiempo se mide con potencias de 10 (tanto positivas como negativas).

Al cabo de media hora, se habían aniquilado todos los pares electrón-positrón apareciendo el estado de vacío que encontramos hoy. De esta aniquilación se salvaron uno de cada mil millones de electrones, suficiente para neutralizar la carga eléctrica positiva de los protones y constituir un Universo globalmente neutro en carga eléctrica.

En este momento había mil millones de fotones por cada nucleón. A esta época se le llama “época de la radiación” ya que la alta energía de la misma impedía la formación de los átomos. La temperatura había descendido a unos 300 millones de grados K y la densidad era del 10% de la del agua.

Para que se formaran átomos había que esperar a que la temperatura descendiera por debajo de los 4000 K. Entre t = 300000 años y un millón de años, prácticamente toda la materia paso a formar parte de átomos, produciéndose el desacoplamiento materia radiación. Antes de que esto ocurriera, el Universo se parecía a la superficie del Sol:

Caliente, opaco y lleno de luz amarillenta. Después se hizo transparente, al tiempo que la mayor parte de la energía pasaba a formar parte de la materia. Terminaba así la era de la radiación y comenzaba la “era de la materia” en la que nos encontramos actualmente.

La radiación del Universo dejo de interactuar apreciablemente con la materia neutra, desacoplándose ambos y evolucionando a partir de entonces de manera independiente (como había ocurrido anteriormente con los neutrinos). La radiación lleno todo el Universo mientras que la materia tendía a configurar grandes agrupaciones.

La radiación que se desacoplo en aquella época es la que descubrieron Pencias y Wilson en 1965 como un fondo cósmico de microondas. Este baño de radiación es altamente isótropo, es decir, presenta las mismás características en todas las direcciones en las que se observe. Su espectro corresponde al de un cuerpo negro a 2.7 K, siendo esta la temperatura actual del Universo.

Al final de la era de la radiación, la densidad era de unos 10 millones de átomos por cada litro de Universo, mientras que en la actualidad se encuentra, en promedio en 1 átomo por cada 1000 litros.

En la época dominada por la radiación debieron crearse las irregularidades que más tarde darían lugar a la formación de las estructuras a gran escala del Universo, en las que se hallan incluidas las galaxias y en ellas las estrellas. Este proceso no esta bien comprendido en la actualidad, existiendo dudas de que se formo antes, si las grandes estructuras y a partir de ellas las pequeñas, o al revés.

Actualmente, entre 13 y 20 mil millones de años después, se han formado unos cien mil millones de galaxias, cada una de ellas con un promedio de unos cien mil millones de estrellas, lo que hace un total de diez mil millones de billones de soles, repartidos a lo largo y ancho de un Universo observable de entre 10 y 20 mil millones de años luz de radio.

La Astronomia en la Exploracion Espacial Estudio del Universo

La Astronomía en la Exploración Espacial: Estudio del Universo

En la investigación astronómica, el descubrimiento de nuevos tipos de estrellas es análogo al descubrimiento de nuevos tipos de partículas en la física atómica. La radioastronomía reveló la existencia de discretas fuentes de radio en el universo, y en 1960, en Estados Unidos, A.R. Sandage consiguió un importante adelanto al identificar una de estas fuentes con un objeto tenuemente visible mediante un telescopio óptico. Era el primero de los quásars fuentes pequeñas pero sumamente energéticas, caracterizadas por una peculiaridad en sus espectros que indica que se mueven a una velocidad cercana a la de la luz.

astronautaEn 1967, Anthony Hewish y Jocelyn Bell descubrieron el primer pulsar, otra fuente de ondas de radio que fluctúa periódicamente. Por un momento, pensaron que podían proceder de alguna forma distante de vida inteligente que trataba de comunicarse, pero esta posibilidad fue descartada cuando se descubrieron otros ejemplos del mismo fenómeno. La frecuencia de las ondas de radio de los púlsars  varía entre unas pocas centésimas de segundo y alrededor de cuatro segundos.

Al parecer, los púlsars son estrellas neutrónicas colapsadas, es decir, objetos originalmente masivos donde la materia ha llegado a concentrarse tanto que los electrones y los protones se han unido para formar neutrones. Probablemente, no tienen más de unos pocos kilómetros de diámetro, y la pulsación se debe aparentemente a su rápida rotación, del mismo modo que la cabeza giratoria de un faro produce un haz de luz a intervalos regulares en todas direcciones.

En 1962, el espectro astronómico se amplió aún más gracias a las originales investigaciones de B.B. Rossi sobre los rayos X procedentes del espacio. Más concretamente, Rossi identificó una fuente de rayos X en Escorpión X-l. Dos años más tarde, las ondas de radio proporcionaron más indicios sobre los mecanismos del universo.

Con una gigantesca antena diseñada para recibir las señales de los satélites, A.A. Penzias y R.W. Wilson, de la empresa Bell Telephone, en Estados Unidos, registraron una radiación de fondo en la región de las ondas de radio, procedente de todas direcciones, correspondiente a las emisiones de un cuerpo negro a una temperatura de 3,5 °K. En la Universidad de Princeton, R.H. Dicke y P.J. Peebles pudieron ofrecer una explicación teórica para este fenómeno.

Según la teoría del «big bang» sobre el origen del universo, la radiación liberada en la explosión inicial debe haberse distribuido y enfriado progresivamente. Los cálculos indicaban que la temperatura actual del universo debía ser de unos 5 °K, con cierto margen para una serie de incertidumbres. Era razonable suponer que la radiación observada por Penzias y Wilson era la radiación natural de fondo del universo enfriado. Los cosmólogos consideran este fenómeno como una de las pruebas más convincentes en favor de la teoría del «big bang».

Los experimentos de Rossi se efectuaron mediante sondas instaladas en cohetes, lo cual nos recuerda que para 1960 se habían logrado considerables progresos en el campo de los satélites de observación no tripulados. Sus posibilidades se habían presagiado con cierta confianza ya en 1955, cuando tanto la URSS como Estados Unidos los incluyeron provisionalmente entre sus contribuciones al Año Geofísico Internacional (AGÍ).

Sus ventajas sobre los cohetes-sonda, como los utilizados por Rossi, residían en su capacidad para registrar y transmitir informaciones durante largos periodos, no solamente durante unos pocos minutos. Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el AGÍ, pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.

Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958. Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960. A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

Henrietta Levitt Mujeres Cientificas Mujeres de Ciencia Astronomas

Henrietta Levitt: Mujeres Cientificas – Mujeres de Ciencia Astrónomas

UNIDAS POR  LA PASIÓN A LA CIENCIA Y UNA CURIOSIDAD  DESENFRENADA…

Astronoma Henrieta LevitHenrietta Swan Leavitt (1868-1921) se licenció en 1892 en la Society for the Collegiate Instruction of Women (más adelante llamado el Radcliffe College), dedicó un año a estudios de posgraduado y en 1895 se ofreció voluntaria para hacer trabajos pesados en el Observatorio de Harvard. Una crisis familiar la obligó a trasladarse a Wisconsin en 1900.

Dos años después escribió al director, E. C. Pickering, y le contó cuántas ganas tenía de regresar con lo que él financió el viaje de regreso y le concedió un puesto fijo con sueldo. A excepción de la larga convalecencia en Wisconsin después de una enfermedad, pasó el resto de la vida en Cambridge.

Su trabajo en el observatorio consistía en buscar estrellas variables en placas fotográficas de los cielos australes. Dicho en pocas palabras, descubrió 2.400 estrellas variables. Las más importantes fueron las variables cefeidas, supergigantes amarillas que se encienden deprisa y se apagan poco a poco.

Antes que estudiar las estrellas desperdigadas por toda la Vía Lactea, Leavitt se concentró en las cefeidas de la Pequeña Nube de Magallanes, la irregular galaxia que acompaña a la Vía Láctea.

Está tan lejos —a unos 200.000 años luz— que todas las estrellas que hay allí pueden considerarse a la misma distancia de la Tierra, exactamente igual que, para quien está en Tacoma, todo el que hay en París puede considerarse a lamisma distancia. En el caso de las estrellas básicamente a la misma distancia, las diferencias visibles de brillo se vuelven reales; las estrellas que parecen más brillantes son más brillantes.

Al ir colocando todas las cefeidas en una carta, Leavitt descubrió algo sorprendentemente útil: cuanto más brillante era la estrella, más lenta era la velocidad a la que variaba. Las cefeidas relativamente tenues —estrellas un centenar de veces más brillantes que el Sol— pulsan deprisa, contrayéndose y expansionándose en el curso de un día o dos. Las cefeidas medianas disminuyen de la máxima magnitud y la recuperan en alrededor de cinco días. Las cefeidas brillantes, que resplandecen con la luminosidad de 10.000 soles, tienen un periodo que dura hasta cincuenta y cuatro días.

Así que, silos astrónomos conocían la longitud del ciclo de una cefeida, podían calcular su brillo intrínseco y, comparando lo brillantes que parecían con lo brillantes que se sabía que eran, era posible calcular su distancia.

No obstante, por una u otra razón, todas las primeras mediciones que se realizaron utilizando este método estaban equivocadas. Ejnar Hertzsprung, famoso por el diagrama de Hertzsprung-Russell, que traza el derrotero de las estrellas, estimaba que la Pequeña Nube de Magallanes estaba a 30.000 años luz de distancia: una desmesurada subestimación. Harlow Shapley utilizó estrellas variables para calcular la distancia a los cúmulos globulares y, consiguientemente, pudo estimar nuestra posición dentro de la Vía Láctea, así como el tamaño de la galaxia, aunque esta cifra le salió tres veces demasiado grande. Y Edwin Hubble calculó la distancia —bueno, la mitad de la distancia— a Andrómeda.

La diferencia entre las distancias reales (tal como las entendemos ahora) y las de estas primeras estimaciones podría parecer risiblemente inmensa. Sin embargo, las distancias astronómicas son tan enormes que si una estimación se desvía en un factor 2 —lo que significa que la distancia correcta seria de la mitad de la estimación oficial—, la cosa no está tan mal, sobre todo teniendo en cuenta lo que significarían un factor 10, 100 o 1.000. Las primeras estimaciones hechas utilizando las cefeidas estaban equivocadas por varias razones, entre otras por un defecto al calcular el efecto del polvo y el gas interpuestos, y, lo que es más importante, por no sospecharse la existencia de dos clases de variables cefeidas:

las cefeidas de Tipo I que se encuentran en los brazos en espiral de las galaxias; y las cefeidas de Tipo II, más viejas y apagadas, que se encuentran en las galaxias elípticas, los cúmulos globulares y el halo galáctico.

Una vez hechas estas correcciones, las variables cefeidas permitieron a los astrónomos calcular toda clase de distancias. Pero las cefeidas tenían sus límites. Pese a ser brillantes, sólo era posible detectarlas en la treintena o así de galaxias más próximas.

Más allá ya no se encontraban. De manera que los astrónomos tuvieron que buscar otras candelas estándar visibles a mayores distancias. Utilizaron las débiles estrellas RR de Lyrae, otra forma de variables; cúmulos globulares, enjambres esféricos de hasta millones de estrellas; nebulosas planetarias; y supernovas, que pueden detectarse a distancias millares de veces más lejanas que las cefeidas. Aunque las cefeidas eran indicadores más fidedignos que ninguno de estos otros objetos más brillantes, su campo era tan limitado que de alguna manera casi llegaron a parecer extravagantes.

Pero eso era antes del Telescopio Espacial Hubble. Pese a los defectos, este instrumento ha detectado veintisiete variables cefeidas en una galaxia que se estimaba situada a 16 millones de años luz. Su brillo intrínseco se conoce y por lo tanto no sólo es posible calcular la distancia correcta sino que los científicos también pueden compararlas con otras estrellas, incluidas las supernovas.

Estas mediciones ayudarán a los astrónomos a convertir las supernovas en candelas estándar. Mientras tanto, las estrellas descodificadas por Henrietta Swan Leavitt siguen siendo los mojones del universo y retienen su posición de mejores indicadores de la distancia en todos los firmamentos estrellados.

Fuente Consultada: El Universo Para Curiosos de Nancy Hathaway

Mujeres Cientificas Matematicas Astronomas Clasificar Estrellas

Mujeres Científicas, Matemáticas y Astrónomas Clasificar Estrellas: Annie Jump Cannon

UNIDAS POR  LA PASIÓN A LA CIENCIA Y UNA CURIOSIDAD  DESENFRENADA…

Astronoma Cannon JumpDe niña, Annie Jump Cannon (1863-1941) contemplaba las estrellas desde el ático de la casa de su familia e iba escribiendo sus observaciones a la luz de una vela. Antes de graduarse en el Wellesley College, estudió astronomía. Después de la licenciatura regresó a su Delaware natal, donde libró un combate con la escarlatina que le dañó seriamente el oído.

En 1892, a los veintinueve años, presenció un eclipse solar en España y poco después regresó a Wellesley como ayudante de su antigua profesora, Sarah Frances Whiting. Después se apuntó al curso de astronomía de Radcliffe y en 1896 era miembro fijo del Observatorio de Harvard.

Clasificó las estrellas según su espectro. Al principio a duras penas despachaba 5.000 estrellas al mes; más adelante fue capaz de clasificar 300 en una hora sin apenas errores y llamó la atención por su notable memoria. Al final, escribió nueve volúmenes de El catálogo de Henry Draper y clasificó cerca de 250.000 estrellas: «mucho material —escribió ella—, para estudiar la arquitectura de las mansiones celestes y el fluir de las tribus celestiales».

Su trabajo fue tan extraordinario que en 1911 E. C. Pickering, que lo apreciaba, propuso a Abbott Lawrence Lowell, el presidente de la Universidad de Harvard, que apareciera el nombre de Cannon en el catálogo de la universidad y que ella recibiera un nombramiento oficial. Lowell, entre cuya prole se cuenta la poetisa A.my Lowell y el entusiasta de la vida en Marte, Percival Lowell, consideró que era «bastante mejor que el nombre de miss Cannon no apareciera en el catálogo». Se autorizó a Pickering para que ofreciese a Cannon un puesto menos prestigioso en el observatorio. Fue designada conservadora de fotografías astronómicas, con un salario de 1.200 dólares al año.

Entre 1918 y 1924 se publicó, en varios volúmenes, El catálogo de Henry Draper, «un perdurable monumento» según la astrónoma Cecilia Payne-Gaposehkin. Pickering murió en 1919, pero Cannon siguió con el proyecto. Se la reconoció como el especialista mundial más sobresalien

te en la clasificación de estrellas y en 1925 la Universidad de Oxford le concedió un doctorado honorario; fue la primera mujer que recibió tal honor. Harvard hizo constar su nombre en el catálogo universitario, pero no le concedió un nombramiento oficial.

Ella nunca dejó de trabajar. Harlow Shapley escribió: «La señorita Cannon tenía la desventaja —o ventaja— de haber padecido alguna clase de infección cuando era universitaria, como consecuencia de la cual había prácticamente perdido el oído. Este hándicap la apartó de la vida social y la concentró en la ciencia».

Cecilia Payne-Gaposchkin —la primera mujer que fue profesor titular en Harvard, honor que mereció en 1956— recordaba de otro modo a Cannon. «Cuando pienso en ella como persona me faltan palabras para transmitir su vitalidad y encanto. Había perdido el oído de joven pero en absoluto padecía del pesimismo receloso que tan a menudo acompaña a la sordera. Llevaba el aparato para oír con garbo y hacía virtud de necesidad, desconectándolo cuando no deseaba ser molestada o quería concentrarse en el trabajo. Era cálida, animada, entusiasta, hospitalaria.

Como mucha gente que oye mal, tenía la voz metálica y aguda, entre la que a menudo intercalaba sus características y resonantes carcajadas.»

Además de clasificar estrellas, Cannon descubrió 300 estrellas variables y en 1936, a los setenta y tres años, se puso a estudiar 10.000 estrellas muy poco luminosas. Dos años después recibió por fin el nombramiento oficial en Harvard. Murió tres años más tarde, reconocida en todo el mundo como la astrónoma más destacada de su época. «Nunca se desalentaba; siempre estaba de buen humor —escribió Payne-Gaposchkin—. Murió siendo septuagenaria, trabajando hasta el final. Pero formaba parte de los favoritos de los dioses, por lo que murió joven.»

Fuente Consultada: El Universo Para Curiosos de Nancy Hathaway

Mujeres Astronomas y Cientificas Caroline Herschell William

Mujeres Astrónomas y Científicas: Caroline Herschell

UNIDAS POR  LA PASIÓN A LA CIENCIA Y UNA CURIOSIDAD  DESENFRENADA…

Hay algo de triunfal en la vida de Caroline Herschel (1750-1848). Nacida en Hannover, Alemania, ella y su hermano William, doce años mayor, fueron iniciados en la astronomía por un padre que se ganaba la vida tocando el oboe. Aunque astronoma herschel carolinadijo a su hija que no era lo bastante bonita ni rica para casarse, también inculcó a sus seis hijos el amor a la música y a la ciencia. «Me acuerdo que me llevaba las noches despejadas a la calle, para que me familiarizara con las hermosas constelaciones, después de haber contemplado un cometa que por entonces era visible —escribió ella—. Y me acuerdo muy bien del placer con que acostumbraba a ayudar a mi hermano William en sus estudios filosóficos…»

Cuando Caroline tenía siete años, William se enroló en los Guardias de Hannover, formando parte de la banda militar, durante la guerra de los Siete Años con Francia. Después de haber presenciado una batalla, decidió que el ejército no era para él y se fue de Alemania para no tener que seguir sirviendo. En Inglaterra se aferró al empleo de organista y maestro del coro de la recién construida Octagon Chapel de Bath.

Cuando Caroline tenía dieciséis años murió el padre, y la madre la obligó a encargarse de guisar, limpiar y coser. Seis años después, William fue en su rescate y Caroline se trasladó a vivir con él, quien le presentó un pormenorizado programa de tareas. Durante su segundo día en Bath, el hermano le dio clases de inglés, de teneduría de libros y de canto, tras lo cual, «a manera de esparcimiento, hablamos sobre astronomía y sobre las hermosas constelaciones con las que estaba yo familiarizada».

Caroline confiaba en hacer carrera como cantante, e incluso recibió algún aplauso por sus actuaciones. Pero se interpuso el interés de William por la astronomía. Mientras aún daba clases de música y trabajaba en la capilla, se afanaba en construir telescopios («Para mi pesar, vi convertirse en taller casi todas las habitaciones», anotó Caroline) y se pasaba todas las noches despejadas observando las estrellas.

Ella pasó a ser su ayudante, tallando lentes, haciendo maquetas de los grandes telescopios que montaba William, observando con él y asegurándose de que no se olvidara de comer. Era un empleo, el de ella, muy atareado. «Si no hubiera sido porque a veces se interponía una noche nubosa o de luna llena, no sé cuándo habría dormido algo mi hermano (o yo).»

A partir del descubrimiento de Urano, en 1781, William se hizo famoso, abandonó la música y, gracias a la pensión real de 200 libras anuales, se dedicó a la esfera celeste. En 1787 Caroline ganó un estipendio anual de 50 libras, reconociéndosele su condición de astrónoma por derecho propio. Al año siguiente William se casó con una viuda rica llamada Mary Pitt. Las dos mujeres se hicieron amigas y Caroline estuvo también muy cerca de su sobrino, John, nacido en 1792.

Las observaciones de Caroline continuaron, con y sin su hermano, «todas las noches estrelladas sobre la hierba mojada o cubierta de escarcha, sin un ser humano al alcance del oído». Trabajó como devota ayudante de William hasta poco antes de la muerte de él, en 1822. Un naturalista francés que visitó a los Herschel en 1784 describe así la escena:

«El observatorio está en un jardín… Cuando quiera que el señor Herschel busca, digamos, una nebulosa o una estrella de la mayor magnitud, llama desde el jardín a su hermana, que se asoma a la ventana de inmediato y, consultando una de las grandes tablas escritas a mano, responde desde la ventana: “Cerca de la estrella gamma”, o bien: “Hacia Orión” u otra constelación. En verdad, nada puede haber más conmovedor y agradable que esta relación, que este sistema tan sencillo».

Pero ella era algo más que la ayudante de su hermano. Revisó el catálogo estelar de John Flamsteed, escribió un Catálogo de nebulosas (tenía setenta y cinco años cuando lo acabó) y descubrió diecisiete nebulosas y muchos cúmulos de estrellas. También fue la primera mujer que descubrió un corneta. Llegó a encontrar ocho.

Después de que muriera William, Caroline regresó a Alemania, donde vivió otros veintiséis años, manteniendo una activa correspondencia con su sobrino, que también se hizo astrónomo, y con otros científicos importantes. A los setenta y ocho años, recibió la Medalla de Oro de la Royal Astronomical Society, fue elegida miembro de la Royal Irish Academy a los ochenta y seis, y diez años después le concedía el rey de Prusia la Medalla de Oro de la Ciencia. Murió a los noventa y siete años en su ciudad natal. Un cráter de la Luna lleva su nombre.

LAS MUJERES EN LA HISTORIA

historia de mujeres

Fuente Consultada: El Universo Para Curiosos de Nancy Hathaway

La Sondas Espaciales Lunik Surveyor Envio de Sondas a la Luna

La Sondas Espaciales: Lunik Surveyor Envio de Sondas a la Luna

El nacimiento de la astronáutica: ¿Qué es una sonda?

En la terminología espacial se llama sonda a todo ingenio lanzado al espacio por medio de cohetes y provisto de los instrumentos de medición y radiocomunicación que le permiten la exploración automática del espacio. Algunas sondas disponen de aparatos fotográficos o de televisión para tomar vistas de las superficies de los astros que exploran; otras son dirigidas de forma que lleguen a posarse en la superficie del astro (como las enviadas a la Luna, Venus y Marte).

La técnica de navegación de las sondas es algo más que una simple extrapolación de la empleada en los satélites artificiales: las distancias de, a lo sumo, miles de kilómetros de éstos, se convierten en decenas de millones en el caso de una sonda destinada a Marte, por ejemplo, lo que complica extraordinariamente los sistemas de navegación y seguimiento.

Sin embargo, los problemas de la investigación por medio de sondas se centran en la dificultad de poder emitir imágenes lejanas suficientemente detalladas, ya que la energía disponible a bordo para su transmisión es muy limitada. Por otra parte, las sondas que se envían hasta la superficie de otros astros deben posarse en ellos con suavidad y quedar en una posición de reposo adecuada para su buen funcionamiento.

El empleo de sondas espaciales ha proporcionado importantes avances en el conocimiento científico de la superficie de la Luna, Venus y Marte, y muy recientemente de Mercurio y Júpiter, desbancando totalmente a los más modernos observatorios astronómicos terrestres en la investigación de los planetas y astros menores del Sistema Solar.

Sondas lunares: Los datos suministrados por las sondas enviadas a la Luna han sido fundamentales para realizar los programas tripulados y para el envío de sondas profundas destinadas a estudiar otros astros del Sistema Solar.

Pueden dividirse en cuatro grandes grupos o familias:

1) Sondas de vuelo abierto.

2) Sondas de alunizaje, divisibles a su vez en sondas de impacto y de alunizaje suave.

3) Sondas de alunizaje con órbita intermedia alrededor de la Luna.

4) Satélites artificiales lunares.

Entre las del primer grupo cabe destacar el Lunik 1, soviético, por el impacto que causó en la opinión pública, en tanto que el primer lanzamiento de un ingenio destinado a nuestro satélite, pasó a unos 7.400 kilómetros de éste y entró en órbita solar. Los tres Pioneer estadounidenses que lo habían precedido constituyeron un absoluto fracaso. El Lunik 3 (octubre de 1959) fue un importante éxito de la tecnología astronáutica soviética: circunvalé la Luna y transmitió por primera vez fotografías de su cara oculta.

La sondas espaciales Lunik Surveyor Envio de Sondas a la Luna

Sonda Lunik, destinada a la astronáutica soviética a la exploración de la Luna. Con el programa Lunik la U.S. demostró la posibilidad de explorar automáticamente el satélite, sin arriesgar vidas humanas.

En este grupo debe incluirse también la serie Zond soviética (1965 1970), en principio destinada a la investigación de los planetas cercanos y después cambiada radicalmente de objetivo: a partir del Zond 4 todos los vehículos de esta serie parecen haber sido modelos derivados de las cápsulas habitadas Sojuz, y dedicados exclusivamente a la investigación lunar.

El Zond 5 fue el primer vehículo recuperado tras un vuelo circunlunar, mientras que los Zond 6, 7 y 8 permitieron ensayar las técnicas de reentrada en la atmósfera con “rebote” sobre las capas intermedias de la misma. Todos ellos iban equipados, además, con equipos fotográficos automáticos e instrumentos registradores de diversos parámetros.

En el segundo grupo debe incluirse el Lunik 2 (septiembre de 1959), que fue el primer objeto fabricado por el hombre que estableció contacto con otro cuerpo en el espacio.

La contrapartida estadounidense la constituyó la serie Ranger, destinada a fotografiar la Luna de cerca, pero en los años 196162 los deseos superaban las propias posibilidades y los seis primeros Ranger fallaron total o parcialmente.

Sólo consiguieron su objetivo los tres últimos de la serie. Por esta razón, mientras preparaba el ambicioso programa Lunar Orbiter, Estados Unidos intentó ganar la partida a los soviéticos con la serie Surveyor, destinada a lograr alunizajes suaves.

Sin embargo, una vez más se adelantaron sus oponentes con el Lunik 9 (enero de 1966), gran éxito tras cinco fracasos parciales que lo precedieron en otras tantas misiones Lunik. Cuatro meses más tarde, en mayo de 1966, el Surveyor 1, primero de una serie afortunada, lograba alunizar y obtener fotografías de gran calidad del suelo lunar.

En el tercer grupo hay que incluir los Lunik de los números 16 al 21. Cabe destacar el Lunik 16 (septiembre de 1970), cuya cápsula de descenso, equipada con un brazo articulado, tomó muestras de la superficie lunar en el Mar de la Tranquilidad y regresó a la Tierra. Con esta misión y las posteriores los soviéticos demostraron la posibilidad de explorar la Luna por medio de aparatos automáticos, evitando así los riesgos y las costosas inversiones que tuvieron que afrontar los estadounidenses con el programa Apolo.

El Lunik 17 (noviembre de 1970) alunizó en el Mar de las Lluvias y de su interior salió un vehículo lunar teledirigido, el Lunojod 1, que disponía de varios equipos de televisión, un telescopio de rayos X, detectores de radiación, un analizador químico por dispersión de partículas y un penetrómetro. La mayor parte de estos dispositivos iban encerrados en un compartimiento estanco mantenido a la presión atmosférica y con temperatura regulada. Como fuente de energía durante los períodos de noche lunar se utilizaba un reactor isotópico. 

La vida útil del Lunojod 1 fue de nueve meses, durante los cuales recorrió un total de 10 kilómetros transmitiendo más de 180.000 imágenes de televisión. El Lunik 18 (septiembre de 1971) se estrelló en una región próxima al Mar de la Fertilidad. Mientras que el Lunik 19 estudió las irregularidades del campo gravitatorio lunar, el Lunik 20 (febrero de 1972) realizó una misión similar a la del 16, recogiendo muestras lunares y trayéndolas a la Tierra.

La serie de investigaciones lunares soviéticas finalizó con el Lunik 21, lanzado el 8 de enero de 1973, llevando a bordo el Lunojod 2, casi cien kilogramos más pesado que su antecesor (840 frente a 756), y que construyó, cómo éste, un gran éxito de la exploración automática.

Entre los satélites artificiales lunar destacan los Lunik 10, 11 y 12 y la serie Lunar Orbiter estadounidense, cuyas fotografías fueron imprescindibles para la preparación de las misiones Apolo.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Que es un satelite artificial? Uso y Funciones de Satelites Artificiales

¿Qué es un satélite artificial? Uso y Funciones de Satélites Artificiales

El nacimiento de la astronáutica: Satélites artificiales

Se entiende por satélite artificial todo cuerpo fabricado por el hombre y puesto por él en órbita terrestre, lunar o alrededor de otro astro del Sistema Solar. No debe confundirse con las sondas interplanetarias, de las que nos ocuparemos más adelante.

satelite artificial

En teoría, el principio fundamental en que se basa la comunicación vía satélite es bastante simple, pero resulta muy complejo de llevar a la práctica. Una vez situado en órbita, el satélite de telecomunicaciones es un punto fijo en el espacio que puede ser utilizado para reflejar o retransmitir una señal de radio de alta frecuencia.

La señal audio, vídeo o de datos que se transmite se envía al espacio y es recibida por el satélite, que la amplifica y la retransmite a la Tierra. Esto permite que la señal, que solamente puede viajar en línea recta, «rebote» a lo largo de miles de kilómetros hasta unas localidades situadas en todo el mundo.

Salvo raras excepciones, los satélites de telecomunicaciones son geoestacionarios o están colocados en una órbita especial, a casi 36.000 km. de altura sobre el ecuador, con una velocidad angular igual a la terrestre, por lo que se mantienen fijos respecto a un punto cualquiera de la superficie de la Tierra. Los satélites geoestacionarios ofrecen a las telecomunicaciones las ventajas siguientes:

tres satélites son suficientes para cubrir toda la superficie terrestre (excluidos los casquetes polares)
en conjunto, el sistema de telecomunicaciones (satélites y estaciones terrestres) tiene una configuración fija, lo que simplifica considerablemente el modo de operar y hace que las interferencias puedan controlarse mejor; todo ello permite la instalación en el espacio de una gran capacidad de comunicación.

Los satélites artificiales se mueven con arreglo a las mismas leyes que gobiernan el movimiento de los planetas alrededor del Sol.

Describen, por tanto, órbitas elípticas, generalmente de escasa excentricidad; los puntos de sus órbitas que están más cerca y más lejos de la Tierra se denominan, respectivamente, perigeo y apogeo (perigeo y apogeo cuando se trata de un astro cualquiera); el tiempo que emplean en dar una vuelta completa es el período, que, en la mayor parte de los satélites terrestres, oscila alrededor de una hora y media.

Su velocidad varía a lo largo de la órbita, alcanzando un valor máximo en el perigeo y mínimo en el apogeo.

La puesta en órbita de un satélite requiere básicamente dos operaciones: elevarlo hasta la altura prefijada y comunicarle una velocidad orbital adecuada para que se mantenga en ella. Por lo general, es conveniente que el perigeo sea lo más elevado posible, ya que la fricción con la atmósfera impone una seria limitación a la vida de los satélites; los hay que sólo han permanecido una pocas horas en órbita, mientras que otros tienen asegurada una permanencia de centenares de años, muchos más de los que puede durar el funcionamiento de los aparatos que contienen.

La forma, estructura y características mecánicas de un satélite artificial dependen de muchos factores. El más importante es el volumen de que se dispone cuando se proyecta, el cual está en función de los equipos que debe albergar, y muy especialmente de la potencia del lanzador en cuya ojiva ha de instalarse.

Un segundo factor condicionante viene dado por la aceleración que debe soportar, las vibraciones a que está sometido y la temperatura que debe resistir. Finalmente, los métodos de estabilización y alimentación de energía imponen una nueva limitación: la concepción de un satélite alimentado por medio de baterías eléctricas será muy distinta de la de otro que deba utilizar la energía solar por medio de paneles de células fotoeléctricas.

copernico, astronomo

La forma , estructura, y características mecánicas de un satélite dependen de su volumen y de su aceleración, las vibraciones y las temperaturas que debe resistir, como asi también del método de estabilización y de alimentación de energía. Vista del satélite ruso Protón, el de mayores dimensiones de los construidos por la Unión Soviética.

Actualmente, existen más miles satélites o restos de ellos en órbita alrededor de la Tierra, de los cuales un buen número no emiten ya ningún tipo de datos. otros funcionan sólo en parte y un centenar, aproximadamente, están en pleno rendimiento. Los fines a que han sido destinados cubren un amplio campo de aplicaciones, desde los satélites científicos o militares hasta los de comunicaciones, meteorológicos, de ayuda a la navegación, etcétera.

Su puesta en órbita ha representado un paso importante en el conocimiento del cosmos, y constituyen la solución casi perfecta para obtener información de lo que pasa alrededor de la Tierra, aunque, probablemente, será con los laboratorios espaciales tripulados, como el Skylab, con los que el hombre podrá llevar a cabo las más perfectas tomas de datos del espacio que nos rodea.

grafico de una órbita geoestacionaria

USO EN TELEFONÍA Y TELEVISIÓN: En una primera fase, los satélites nacionales estadounidenses se utilizaron principalmente para comunicaciones telefónicas de larga distancia; las transmisiones televisivas aparecían sólo esporádicamente. En 1975. un servicio estadounidense de televisión de pago, con menos de 60.000 abonados, anunció que utilizaría un satélite nacional para distribuir sus programas a las redes de TV vía cable de todo el país. El 30 de septiembre de 1975, Home Box Office Inc. (HBO) distribuyó a redes vía cable afiliadas, de Florida y Mtssissippi, la retransmisión en directo del encuentro de boxeo, válido para el campeonato mundial de los pesos pesados, entre Muhammad Alí y Joe Frazier.

Poco después, otros servicios se unieron a HBO a bordo del satélite Satcom e iniciaron el desarrollo de miles de redes vía cable en todo Estados Unidos. Mientras HBO organizaba su sistema de distribución vía satélite, la NASA se dedicaba a llevar su satélite experimental ATS-6 a una órbita temporal sobre el océano índico. Había prestado el ATS-6 a la India como parte del Satellite Instructional Televisión Experiment (SITE), para mostrar cómo la tecnología de los satélites podía servir para distribuir programas educativos directamente a terminales de comunicaciones distribuidos por zonas del Tercer Mundo.

USO EN METEREOLOGÍA: Aunque las imágenes del tiempo proporcionadas por el Meteosat aparecen todos los días en las televisiones europeas, la mayoría de nosotros no nos damos cuente de hasta qué punto dependemos de las previsiones meteorológicas precisas. Solamente en términos de ahorro de recursos, la contribución de la meteorología europea es considerable.

La importancia de la meteorología en muchos campos de la actividad humana hizo comprender rápidamente a Europa que, para las previsiones del tiempo, no era posible depender de otros países. Así, uno de los primeros empeños de la Agencia Espacial Europea fue precisamente lanzar satélites meteorológicos.

El primero de la serie fue puesto en órbita en noviembre de 1977. Se trataba del Meteosat-1, seguido del Meteosat-2 en junio de 1981. El Meteosat-3 fue llevado al espacio en junio de 1988; en marzo de 1989 le tocó el turno al Meteosat-4, llamado también MOP-1; en marzo de 1991 partió el Meteosat-5 o MOP-2 y, en noviembre de 1993, el Meteosat-6 o MOP-3. Actualmente, tres de ellos todavía están en activo: el MOP-1, el MOP-2 y el MOP-3, que giran alrededor de la Tierra a 36.000 km de altura en órbita geoestacionaria.

USOS CIENTÍFICOS: para estudio del universo y de los cuerpos celestes, para fotografías la superficie terrestre y analizar suelos, relieves, recursos naturales y cualquier tipo de otra información que sea complicado su acceso. (ampliar este uso desde aquí)

USO COMO G.P.S.: El Global Positioning System es una red de satélites que identifica con extrema precisión cualquier posición, y gracias a la cual es imposible perderse. Hasta no hace mucho, todo aquel que se aventuraba en pleno océano sólo disponía para calcular su posición de la observación de las estrellas o del uso de la brújula y el sextante. Ahora, gracias a la moderna tecnología de los satélites, es posible efectuar esta operación de un modo más sencillo.

Con la simple presión de un botón de un pequeño instrumento portátil, el Global Positioning System (Sistema de Posicionamiento Global), podemos determinar nuestra posición con un error de pocos metros. Esta tecnología va destinada a pilotos, marinos, alpinistas y a cualquier individuo que desee o deba conocer su propia posición con un margen de error muy pequeño.

El empleo de satélites para la navegación o la determinación de localizaciones no es nuevo. En 1959, la Marina militar norteamericana lanzó su primer satélite Transit para uso de los submarinos lanzamisiles Polaris y de los buques de combate de superficie; este sistema permitía determinar la posición con un error de 150 metros.

El Global Positioning System es todavía más preciso. Establecido y controlado por las fuerzas armadas estadounidenses, utiliza una red de 24 satélites Navstar, 21 de los cuales están en activo y tres son de reserva, colocados en seis planos orbitales que se cruzan a una altura de 20.000 km. El primero de estos satélites fue lanzado en 1978, pero el sistema no llegó a ser operativo hasta 1987, cuando hubo en órbita 12 satélites; en diciembre de 1993, la red quedó completada.

Fuente Consultada:
Los Viajes Espaciales Salvat Tomo 53
El Universo Enciclopedia de la Astronomía y El espacio Tomo IV

Propulsion de Satelites al Espacio Sistema Propulsor de Sondas Espaciales

Propulsión de Satélites al Espacio: Sistema Propulsor de Sondas Espaciales

Lanzadores y satélites: La propulsión

En su obra Principios matemáticos de la filosofía de la Naturaleza (1687), Isaac Newton estableció las bases axiomáticas de la mecánica moderna, que, para nosotros, son de gran interés para asimilar el fenómeno de la propulsión. Newton comprendió que la fuerza de la gravedad —es decir, la atracción mutua que ejercen unos cuerpos sobre otros, y que es la responsable, no sólo de la caída de los cuerpos sobre la superficie terrestre, sino también del movimiento de los astros— no cesa en ningún punto: su alcance es ilimitado, si bien disminuye progresivamente con la distancia.

A partir de las leyes enunciadas por Kepler sobre el movimiento de los planetas, Newton dedujo el valor de la acción del Sol sobre éstos, y estableció que el Sol atrae a cada planeta con una fuerza, dirigida del centro del segundo al del primero, cuya intensidad es directamente proporcional a la masa del Sol e inversamente proporcional al cuadrado de la distancia que separa a ambos. Pero la fuerza con que el Sol atrae al planeta es igual y de sentido contrario a la fuerza con que el planeta atrae al Sol (principio de la acción y la reacción), por lo que la atracción Sol-planeta no depende tan sólo de la masa del Sol, sino también de la del planeta.

El principio de la acción y la reacción tiene una validez universal: a toda fuerza (acción) que un cuerpo ejerce sobre otro, éste ejerce sobre el primero otra fuerza (reacción) de igual intensidad, pero de sentido contrario. El funcionamiento de los cohetes se basa precisamente en este principio. En este caso, la acción la constituye el chorro de gases (jet) que es expulsado por la tobera de escape, y que determina la aparición de una reacción de sentido opuesto al flujo del gas, la cual impulsa al cohete.

Sistemas propulsores

La retropropulsión o reacción es un método para producir movimiento mediante la eyección de una masa, generalmente en forma gaseosa, desde el interior del cuerpo propulsado. Los gases desprendidos proceden de una combustión y poseen elevada temperatura y gran velocidad.

Se llama cantidad de movimiento de un sistema al producto de su masa por su velocidad. En la retropropulsión la cantidad de movimiento de los gases expulsados determina un incremento igual de la misma en el cohete. Pero la masa del cohete es siempre muchísimo mayor que la de los gases que expulsa, razón por la cual éstos deben ser emitidos con gran velocidad.

Con objeto de corregir el enorme inconveniente que supone la masa del cohete, la mayoría de éstos se construyen en varias etapas o gases acopladas: en el momento del lanzamiento el cohete debe desarrollar una Titán III: nueva generación de lanzadores gran fuerza para contrarrestar la atracción de la Tierra, lo que supone el consumo de gran cantidad de combustible; al alcanzar tina determinada altura se desprende la tapa del cohete que ha servido para iniciar su elevación, y en este instante entran en funcionamiento los motores de la segunda etapa, favorecidos por la circunstancia de tener que impulsar una masa mucho menor y también por tener que vencer un valor más pequeño de la gravedad terrestre; muchos cohetes constan todavía de una tercera etapa para las operaciones de puesta en órbita o para dirigirse a otro astro.

Un motor-cohete consta esencialmente de los siguientes elementos: una cámara de combustión, un sistema que suministra el combustible y una tobera o conducto de eyección de los gases al exterior. La reacción química de los agentes combustible y comburente (en la tecnología de los cohetes este conjunto recibe el nombre de propergol) situados en la cámara de combustión, produce gases que son expulsados a través de la tobera.

Imagen Izq: Titán III constituyó una nueva generación de
lanzadores en la que se destacan los dos boosters acoplados

El motor-cohete tiene su propio combustible y oxidante, de aquí que según la naturaleza de los propulsantes utilizados para producir el chorro de gases se distinga entre cohetes con propulsante sólido, líquido y mixto o híbrido, cuya importancia es cada vez mayor.

En los cohetes con propulsante sólido, el combustible y el comburente —a los que suele ir incorporada una sustancia afín a ambos con objeto de que su mezcla sea homogénea y bien repartida— están almacenados en la cámara de combustión. La combustión puede ser restringida o ilimitada. La primera se realiza de manera análoga a la de un cigarrillo, o sea, a partir del extremo de la carga que se encuentra más próxima a la tobera y progresando hacia el extremo anterior de la misma.

La combustión ilimitada o sin restricciones se realiza simultáneamente en todos los puntos de las superficies interior y exterior de la carga. Aunque los cohetes con propulsante sólido son, en general, de construcción relativamente sencilla, presentan el inconveniente de requerir una cámara de combustión grande y pesada, y de que. en ocasiones, la combustión no es correcta; generalmente, se emplean como auxiliares los de combustión restringida para ayudar al despegue de aviones, y los de combustión ilimitada en cohetes auxiliares que se desprenden una vez han sido utilizados (su nombre inglés, booster, ha sido universalmente aceptado). Tienen la ventaja de que su lanzamiento es más fácil y de que pueden ser almacenados sin dificultades; su uso es básicamente militar.

En los cohetes con propulsantes líquidos, combustible y comburente están almacenados en depósitos distintos y pueden ser inyectados en la cámara de combustión por medio de dos sistemas: el de alimentación a presión, para los pequeños, y por medio de bombas, en los grandes. Presentan la ventaja de que, cerrando o abriendo a voluntad la alimentación, se puede regular el impulso; además, permiten el apagado y reencendido de los motores cada vez que ello es necesario, sin lo cual difícilmente se hubiesen conseguido las maniobras de cita y atraque en pleno cosmos, indispensables para los programas Gemini, Apolo, Sojuz, etc.

Aún actualmente, la manipulación de los líquidos (hidrógeno y oxígeno licuados, etcétera) constituye siempre un difícil problema, debido a que con frecuencia deben conservarse a temperaturas extraordinariamente bajas, o son muy inflamables. La “anatomía” de los cohetes con propulsantes líquidos es muchísimo más complicada que la de los sólidos; respecto a ello se cuenta que el primer ingeniero estadounidense que vio el interior de una V-2 exclamó, ante la complicación de los dispositivos: “Esto es la locura de un fontanero!

La propulsión en el futuro: Aunque empleando hidrógeno como combustible se han obtenido importantes valores del impulso, la limitación de la energía extraída de reacciones químicas es evidente. Para poder llevar a cabo misiones espaciales a distancias extremas es necesario desarrollar nuevos sistemas propulsores, que permitan la total exploración del Sistema Solar e incluso ciertos viajes espaciales.

La propulsión nuclear se basa en una planta de energía que utiliza el enorme calor desarrollado en la fisión nuclear para calentar un “líquido operante”, que podría ser un gas licuado, el cual se canaliza a través de la tobera. La construcción de un motor-cohete nuclear se ha demostrado factible merced al proyecto Kiwi (nombre de un pájaro de Nueva Zelanda que no vuela), al cual han seguido el Febo y otros, con el nombre genérico de NERVA (Nuclear Engine for Rocket Vehicle Application Ingenios nucleares para su aplicación en lanzadores).

La propulsión iónica, cuya idea es original de Ciolkovskij, consiste, a grandes rasgos, en la eyección de partículas elementales cargadas (protones, electrones, etcétera), las cuales adquirirían gran velocidad gracias a la acción de un campo electromagnético. Con una diferencia de potencial de 1.000 voltios entre los electrodos se obtienen velocidades de eyección del orden de 40.000 metros por segundo, diez veces superiores a las obtenidas mediante propulsantes líquidos. El empuje producido por los motores iónicos es reducido, pero merced a su escaso consumo de combustible pueden mantenerlo durante períodos de tiempo más largos.

En el terreno de las técnicas futuristas, pero teóricamente posibles, cabe imaginar un motor-cohete impulsado por la presión ejercida por los fotones o partículas de luz (propulsión fotónica). Quedan aún otros procedimientos que, al igual que éste, son todavía materia de especulación: aceleradores de plasma, motores eléctricos e iónicos combinados, etc.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53