Tragedia Apolo I

La Luna Características Generales Información Científica

INFORMACIÓN GENERAL Y CIENTÍFICA DE LA LUNA, SATÉLITE TERRESTRE

De todos los cuerpos celestes, la Luna es posiblemente el más conocido. Fue objeto de muchas antiguas creencias y es aún llamada poéticamente Selene, el viejo nombre de la diosa Luna. La ciencia que la estudia se denomina selenografía, y a pesar de que este cuerpo celeste no ha revelado aún todos sus secretos, se conoce bastante sobre él, pues  el hombre ha alunizado en varias oportunidades y ha conseguido centenares de muestras de su superficie para futuras  investigaciones en la NASA.

MAPA DE LA LUNA CON NOMBRES DE SUS MARES Y CRÁTERES

satelite de la Tierra, Luna

(Para Ver Nombres de Cráteres y Mares)

LA LUNA EN NÚMEROS:

Edad: 4.600 millones de ños
Distancia máxima a la Tierra: 405.000 km
Distancia mínima a la Tierra: 363.000 km
Diámetro real de la Luna: 3.473 km
Circunferencia: 10.927 Km.
Superficie: 0,075 de la Terrestre
Volumen: 0,02 de la Terrestre
Peso: 0,012 de la Terrestre
Densidad: 0,6 de la Terrestre
Velocidad de Escape: 2,4 Km/s.
Revolución sobre su eje: 27 d. 7 hs. 43′
Distancia media a la Tierra: 384.403 km
Tiempo de su traslación: 27 d. 43′ 11″
Temperatura de su superficie: De 100°C a -184°C (noche lunar)
Altura máxima de sus montañas: 9.000 m.
Duración del día: 14 dias terrestres
Duración del la noche: 14 dias terrestres

Sobre su formación: Hace unos 5000 millones de años cuando el sistema solar se estaba formando, y definiendo su constitución actual, en nuestro planeta una capa de lava volcánica semiderretida burbujeaba por toda la superficie como un dulce hirviendo. No había tierra sólida, ni agua, ni vida. La Tierra, completamente inestable, giraba tan deprisa sobre su eje que cada día duraba sólo unas cuatro horas.

Ocurrió entonces fue algo inesperado. Los expertos creen que dos planetas jóvenes coincidieron en la misma órbita alrededor del Sol, aunque moviéndose a distintas velocidades. Uno era la Tierra; el otro, el planeta llamado Theia. Unos cincuenta millones de años más tarde, el Sol comenzó a brillar, y aquellos dos jóvenes planetas chocaron uno con otro. Con la sacudida, la Tierra giró sobre su costado, fuera de control.

Miles de volcanes entraron en erupción tras el impacto. Enormes cantidades de gas, antes atrapadas en el núcleo de la Tierra, salían ahora a borbotones a través de la superficie, y creaban así la primera atmósfera del planeta. Las capas más exteriores de Theia se vaporizaron en miles de millones de pequeñas partículas. Los restos volaron en todas direcciones y rodearon la Tierra con una gruesa capa de polvo, rocas y granito a elevada temperatura.

Atrapada por la gravedad terrestre, esta bruma de escombros se arremolinó en el cielo, y todo se oscureció. Durante meses ni siquiera el rayo más brillante de sol podía penetrar las capas de polvo que en un tiempo habían constituido el planeta Theia. Su núcleo de hierro fundido alcanzó el centro de la Tierra, y produjo la fusión de los dos núcleos en una única bola metálica, compacta, con una temperatura de miles de grados, que se hundió en el centro del globo, destrozado por la fuerza del impacto.

En la actualidad, no hay pruebas físicas en el planeta del impacto de la colisión con Theia, ya que tuvo tal fuerza que todo el material exterior se vaporizó y explotó en el espacio. Pero la evidencia no está muy lejos. El polvo y el granito que envolvieron la Tierra pronto se reagruparon, y se convirtieron en una enorme bola de polvo. Aproximadamente sólo un año después del impacto, la Tierra tenía una nueva compañera, nuestra grande, brillante y cristalina Luna.

Aldrin astronauta de la NASA tomando muestras

El astronauta estadounidense Neil Alden Armstrong, como comandante de la misión lunar Apolo 11, es la primera persona que pisa la Luna. Su compañero Edwin E. Aldrin es el segundo hombre en poner un pie en la Luna. Aquí lo vemos tomando muestras del suelo lunar. También participa en la misión el astronauta Michael Collins, que pilota el módulo de control

INFORMACIÓN GENERAL: La Luna da una vuelta completa alrededor de la Tierra en 27 días, 7 horas, 43 minutos, 7 segundos; pero a causa del movimiento de la Tierra alrededor del Sol, el mes lunar —o sea el período que va desde una nueva luna hasta la siguiente— es levemente mayor de 29,5 días.

El diámetro de la Luna es de 3.474km.; pero como la distancia que la separa de la Tierra varía, debido a que su trayectoria es elíptica, su tamaño parece cambiar levemente. La distancia mínima entre la Tierra y la Luna es de 364.300 km. y la máxima es de 408.000 km.

Sólo la mitad de su superficie está siempre iluminada por la luz del Sol. Durante la luna nueva, la cara iluminada está oculta para nosotros; pero a medida que va rodeando a nuestro planeta, vamos viendo cada vez más esta faz, hasta que se muestra totalmente en luna llena. Por varias razones, parece inclinarse levemente, de manera que podemos ver un 59 % de su superficie, en diferentes períodos de su trayectoria; pero no vemos jamás toda la cara posterior.

Cuando fue inventado el telescopio, en 1609, observó Galileo que la superficie lunar es muy rugosa, con picos y cadenas montañosas, con círculos como cráteres volcánicos y llanuras, que confundió con mares. Muy pronto se dibujaron mapas de la Luna y se están haciendo cada vez más perfectos, con ayuda de la fotografía. Un mapa simple de la Luna se muestra en la ilustración superior.

Galileo observando la Luna

1610: Galileo Galilei Observando los astros celestes

La palabra latina mare (mar) señala los desiertos; dos de ellos se muestran abajo, en escala mayor. A la izquierda está el llamado Mare Imbrium (Mar de las Lluvias), que es un vasto desierto, con algunas montañas y cráteres diseminados. Junto a éste, están los Apeninos (la mayoría de las cadenas montañosas de la Luna lleva el mismo nombre que algunas cordilleras terráqueas, mientras que los picos montañosos se conocen con el nombre de algún famoso sabio). En la lámina de la izquierda está el Mare Nubium (Mar de las Nubes), bordeado por una región de cráteres próxima al polo sur de la Luna.

Su peso es mucho menor que el de la Tierra y así también su fuerza de gravedad, de manera que nosotros pesaríamos allí sólo un sexto de nuestro peso en. la Tierra y nuestra fuerza muscular nos permitiría realizar saltos espectaculares.

En la Luna no hay atmósfera en la Luna, de modo que no puede escucharse sonido alguno en su superficie. La ausencia de aire debe hacer que el cielo se vea negro aun en plena luz del día, pero las estrellas se destacarán marcadamente. Desde un lado de la Luna la Tierra está siempre visible y aparece mucho más grande de lo que la Luna se ve desde la Tierra; además, visto desde la Luna, nuestro planeta nunca se oculta, pero sí se mueve de un lado al otro en el cielo. Desde la cara posterior de la Luna nunca sería posible ver la Tierra.

El día y la noche lunares son aproximadamente 14 veces más largos que los nuestros. No se han observado jamás señales de vida allí y sólo cambios muy leves y dudosos. Se han intentado muchas teorías para explicar la causa de su superficie rugosa; a pesar de sus nombres, los cráteres lunares no pueden haber sido producidos por volcanes, sino quizá por la caída de meteoritos, cuyos efectos habrían sido muy destructores, debido a la falta de atmósfera.

Comparar la Tierra con la Luna es como comparar un organismo viviente con uno muerto. Sabemos que en la Tierra se desarrolla una infinita variedad de seres vivos, que han alcanzado su presente estado de desenvolvimiento por un continuo proceso de evolución. Cambios han ocurrido y ocurren constantemente.

Contrariamente a lo que ocurre en nuestro planeta, palpitante de vida en todas sus formas, con climas que varían enormemente, desde el calor tropical al frío polar, y con sólo una parte comparativamente muy pequeña de su superficie total incapaz de mantener cualquier clase de ser viviente. En 2015 la NASA ha encontrado señales de presencia de agua en la Luna, pero hasta hoy es completamente inepta para toda forma de vida. Es un mundo absolutamente muerto.

Ningún otro cuerpo celeste está tan cerca de la Tierra como la Luna y ningún otro cuerpo puede ser observado, estudiado e investigado tan detalladamente: montañas y llanuras pueden verse con mucha claridad con un simple telescopio casero. Si existiera la vida, lo sería en alguna forma que escaparía a nuestra observación, y ésta parece ser una posibilidad bastante remota.

Un argumento de peso que sostiene la teoría de la imposibilidad de la existencia de vida en la Luna, parte del hecho de que no hay agua ni atmósfera en ésta. Todo ser vivo que visitara la Luna debería llevar consigo los medios para poder respirar, beber y comer. Todos los datos coinciden en afirmar que en la Luna no puede haber vida.

Si la Luna en algún estadio de su existencia poseyó atmósfera, no pudo haberla mantenido por mucho tiempo, pues como su tamaño no es lo suficientemente grande, su fuerza de atracción es insuficiente para impedir que los gases envolventes escapen al espacio. La ausencia de una atmósfera da como resultado temperaturas muy extremas en el día; desde 82° cuando brilla el Sol hasta muy por debajo del punto de congelación cuando aquél se ha ido. La superficie no está nunca, por supuesto, oscurecida por nubes.

Negro y blanco son los colores que hay en la Luna, con algunos toques de amarillo, que son aportados por la luz del Sol. Como no hay atmósfera que pueda captar la luz, el cielo lunar es profundamente oscuro. A pesar de que el Sol esté brillando, las estrellas permanecen siempre visibles.

También la ausencia de aire, según hemos dicho, hace que la Luna sea un lugar de absoluto silencio; aun el disparar de un cañón no produciría el menor sonido.

La Luna ejerce una gran influencia sobre la Tierra, aparte de reflejar la luz del Sol sobre nuestro planeta durante la noche. Océanos y mares están sometidos al movimiento regular de las mareas; éstas resultan de la atracción entre la Tierra y la Luna y el Sol. El Sol es infinitamente más grande que la Luna, pero está tan alejado de la Tierra, que su influencia sobre las mareas es menor.

Durante la luna nueva y el plenilunio, Tierra, Luna y Sol están en una misma línea recta y así la influencia de la Luna sobre las mareas está reforzada por la del Sol. De esta manera se producen pleamares y bajamares extremas.

Cuando la Luna está en cuarto creciente o menguante, la atracción lunar forma un ángulo recto con la del Sol; los efectos de la Luna y del Sol son opuestos entre sí y el resultado es la marea muerta, con movimientos muy excepcionales de subida y bajada. Las mareas están influidas por la posición de las masas continentales, y los mares cerrados, como el Mediterráneo, tienen rara vez mareas.

inclinación entre orbita lunar y la Tierra

El plano de la órbita de la Luna forma un ángulo de 5° con el terrestre. Desde la Tierra se descubre un ancho de 6° 30′ del suelo lunar más allá de cada polo: del Polo Norte si la Luna está en la parte sur de su órbita, y del sur cuando se halla en su parte norte. Este fenómeno recibe el nombre de libración en latitud. Las dos libraciones citadas y u na tercera llamada diurna, que solamente alcanza un grado, dan origen a que se reconozca el 59% de la superficie lunar en lugar de la mitad exacta que se vería si aquéllas no existiesen.

LA FASES DE LA LUNA:

FASES DE LA LUNA

Dijimos que la Luna como la Tierra carecen de luz propia y reflejan la que reciben del Sol. Por ello hay siempre en ellas una cara iluminada que en la Tierra denominamos día, y otra obscura, que llamamos noche. Combinados los movimientos lunar y terrestre se produce el ocultamiento permanente de una cara del satélite. Hasta octubre de 1959 ningún terrícola había podido ver la parte oculta. Pero en esa fecha fue fotografiada mediante un satélite artificial lanzado por la Unión Soviética.

Las variaciones que experimenta la Luna se denominan fases: en ocasiones vemos el disco lunar completo, en otras sólo una especie de hoz, y a veces nos resulta totalmente invisible. (Cuando se halla en conjunción con el Sol decimos que se halla en fase de Luna nueva. Al otro día surge por occidente cual un delgado creciente luminoso cuya convexidad está siempre del lado del Sol en el ocaso.

El ancho creciente va aumentando hasta que, transcurridos seis días, aparece en forma de semicírculo cuya parte luminosaterminaen una línea recta. En tal situación se dice que está en cuarto creciente. Se la observa con facilidad durante la tarde y en el anochecer. A medida que sigue su camino y se va alejando del Sol adquiere figura oval y su brillo va en aumento, hasta que al cabo de siete u ocho días se torna completamente circular.

Esta fase se llama de Luna llena, después de la cual la parte iluminada comienza a disminuir y las mismas fases se van repitiendo en sentido inverso. Es decir que, primeramente, toma la forma oval y después la de semicírculo en que llega al cuarto menguante, fácilmente observable al alba.

Por último, tras haber dado una vuelta completa al cielo, sale por la mañana un poco antes que el Sol, y ya cerca de éste, se pierde entre sus rayos y vuelve a la posición original de Luna nueva. Esta posición oculta se denomina conjunción, porque en ella se encuentra entre la Tierra y el Sol. De manera similar, las épocas de la Luna llena reciben el nombre de sicigias y las de los cuartos creciente y menguante, cuadraturas.

GRAN MAPA DE LA LUNA CON CRÁTERES Y MARES:

Ver También: Los Eclipses

Fuente Consultada:
Biblioteca Temática UTEHA Tomo 10 El Mundo Que Nos Rodea – La Luna, satélite terrestre-
Cielo y Tierra Nuestro Mundo en el Tiempo y el Espacio Globerama Edit. CODEX
Enciclopedia Electrónica ENCARTA Microsoft

Que es un Radiotelescopio? Función de la Radioastronomia

LA RADIOASTRONOMIA

La palabra “radioastronomía” data de mediados del siglo XX, por lo que podríamos decir que un rama de la astronomía, relativamente joven, pensemos que las primeras observaciones con telescopio fueron las de Galilei en el siglo XVI. La primera identificación de ondas de radio de origen extraterrestre tuvo lugar hace ochenta años; pero la colaboración sistemática con los observatorios ópticos sólo comenzó después de la segunda guerra mundial. Entretanto progresaron otras formas de escudriñamiento mediante cohetes o globos-sonda capaces de analizar las vibraciones que nuestra atmósfera intercepta o perturba, como por ejemplo los rayos X.

La radioastronomía depende por completo de los telescopios ópticos; sin ellos carecería de sentido y valor porque es incapaz de calcular la distancia de las fuentes emisoras. La comparación de los resultados de ambas disciplinas es interesante pues las ondas radioeléctricas más intensas suelen provenir de los objetos celestes menos visibles y aún, aparentemente, de ninguna materia identificable.

También los registros históricos son muy útiles. Gracias a los astrónomos chinos que en el año 1054 señalaron el súbito estallido de una estrella (“supernova”) podemos reconstruir la historia de la actual nebulosa del Cangrejo, que pertenece a nuestra galaxia, la vía Láctea . Otras supernovas, indicadas por Tycho Brahe en 1572 y Kepler en 1604, son ahora débiles radioestrellas.

Esta última categoría de astros, la más inesperada de la nueva ciencia, parece incluir los cuerpos más distantes que conoce la astronomía. Su conocimiento contribuyó notablemente a la dilucidación de uno de los problemas capitales de todos los tiempos: el del origen del universo.

Grupo de Radiotelescopios Trabajando en Paralelo

LA RADIOASTRONOMIA Y LOS RADIOTELESCOPIOS:

Las Ondas Electromagnéticas Que Emiten Las Estrellas: Cuando una estrella explota, formando una nova o supernova, irradia una enorme cantidad de energía luminosa. Los átomos componentes de la estrella reciben gran cantidad de energía, se calientan extraordinariamente y, como todos los cuerpos muy calientes, irradian la mayor parte de su energía en forma de luz.

La estrella se presenta mucho más brillante. Pero, además de la luz visible, la estrella emite otras clases de radiaciones: rayos infrarrojos invisibles, rayos ultravioletas y ondas de radio. Todas estas clases de radiaciones se hacen mucho más intensas en el momento de la formación de una supernova. La radioastronomía se ocupa de la última clase de radiación citada, o sea, de las ondas de radio.

La fuerza de la explosión acelera y ex-. pulsa de la estrella nubes de partículas cargadas eléctricamente. Asociada con ellas, hay una serie de campos magnéticos turbulentos que cambian rápidamente. Cuando las partículas cargadas se mueven por los campos magnéticos, ganan energía, irradiándola en forma de ondas electromagnéticas.

Una de las ondas corrientes emitidas por los átomos de hidrógeno cargados tiene una longitud de onda de 21 centímetros. Las ondas electromagnéticas de esta longitud de onda son ondas de radio. Se propagan, a partir de su origen, en todas direcciones, viajando con la velocidad de la luz.

Las ondas luminosas son también un tipo de radiación electromagnética, pero de longitud de onda mucho más pequeña. Todas las galaxias y muchas estrellas, incluso el Sol, emiten ondas de radio. El Sol no es una estrella que se caracterice especialmente por enviar ondas de radio; pero, durante los períodos de actividad de sus manchas, la emisión de ondas de radio aumenta.

Las fuentes que emiten ondas de radio con gran intensidad no coinciden necesariamente con los objetos que a nuestros ojos aparecen brillantes, como las estrellas. De hecho, las ondas de radio provienen de regiones oscuras del cielo, de oscuras nubes de polvo y de hidrógeno, en las que éste (según ciertas teorías) está concentrándose para formar nuevas estrellas; sus átomos irradian la energía que ganan al acelerarse en los campos magnéticos del espacio.

Las ondas de radio son invisibles y no pueden detectarse con los telescopios ópticos. Pero, de la misma forma que las emitidas por una estación de radio, pueden ser recogidas por una antena receptora. Estas ondas producen la circulación de débiles corrientes eléctricas en la antena.

Estas corrientes pueden amplificarse, seleccionarse y convertirse en sonidos audibles, tal como acontece con un receptor de radio corriente. Pero es más frecuente utilizar un receptor especialmente concebido, para recoger las ondas de radio del espacio. En él, las corrientes fluctuantes de la antena se registran automáticamente en una gráfica. Al mismo tiempo, se conducen directamente a un cerebro electrónico, para su análisis.

Gigate Radiotelescopio de Arecibo

Los radiotelescopios son grandes antenas diseñadas para interceptar toda la emisión de radio posible de una estrella o de una galaxia. Para ello, las ondas se recogen juntas y se concentran de forma que las corrientes fluctuantes que producen en la antena sean lo suficientemente grandes para ser detectadas.

Las ondas de radio se dispersan en todas direcciones a partir de su fuente. Sólo una pequeñísima fracción de la radiación total de una estrella es interceptada por la Tierra, y esta radiación ha recorrido distancias tan enormes que sus ondas son prácticamente paralelas unas a otras. El radiotelescopio intercepta los rayos paralelos en la mayor superficie posible y los concentra enfocándolos en la antena. Cuanto mayor sea la superficie, más sensible será el radiotelescopio, ya que recogerá más cantidad de radiación de la estrella lejana. Los mayores telescopios ópticos son gigantescos reflectores formados por espejos parabólicos.

Los rayos que llegan a la cuenca del espejo parabólico se reflejan en un pequeño espejo colocado en el foco, y son enviados a una pequeña película fotográfica. El enorme espejo parabólico recoge todos los rayos luminosos que llegan a susuperficie.

Algunos de los grande radiotelescopios son muy parecidos a ese dispositivo. El radiotelescopio es también un paraboloide que puede tener cientos de metros de diámetro.

El pequeño espejo colocado en el foco del telescopio óptico está reemplazado en el radiotelescopio por la antena, a la que se enfoca toda la radiación recibida. Hay un inconveniente importante en los radiotelescopios. Incluso si existen dos o tres fuentes de ondas de radio separadas en el campo de detección es imposible distinguirlas unas de otras.

Las corrientes fluctuantes son el resultado de todas las ondas de radio recibidas en el radiotelescopio. La placa fotográfica del telescopio óptico es un medio más eficiente para detectar la imagen, pues los rayos de luz que llegan al espejo con distintos ángulos se concentran en puntos ligeramente diferentes en el espejo pequeño, y se reflejan para ennegrecer puntos distintos en la placa sensible.

El radiotelescopio ideal debe ser lo más grande posible, para recoger el mayor número de rayos, pero también debe ser manuable, de forma que pueda dirigirse _ a cualquier parte del cielo. Cuando el diámetro sobrepasa los 80 metros, el telescopio no puede ser lo suficientemente rígido para resistir el viento sin doblarse y distorsionar la “imagen”. Además, no es fácil manejarlo. Se está construyendo en Puerto Rico un radiotelescopio de más de 300 metros de diámetro, forrando con aluminio pulimentado las paredes de un cráter que presenta una forma conveniente. Pero este radiotelescopio no puede ser enfocado arbitrariamente, puesto que es fijo.

Los radiotelescopios reflectores simples son de construcción difícil y costosa. Sin embargo, puede fabricarse otra clase de radiotelescopio formado por varios reflectores pequeños y antenas, dirigidos hacia diferentes partes del cielo y que se mueven conjuntamente, cubriendo una distancia mucho mayor de la que puede abarcar un solo reflector. De esta forma, la “imagen” puede componerse a partir de fragmentos parciales. Para localizar de manera más precisa las fuentes de ondas intensas, se usan unas largas hileras de reflectores y antenas idénticas, colocados exactamente a la misma distancia unos de otros.

Estos dispositivos tienen un excelente poder de resolución y resultan mejores para separar dos fuentes de ondas próximas. A pesar de que los rayos procedentes de una fuente emisora puntual son paralelos, si llegan al radiotelescopio formando un ángulo, alcanzarán la antena de un extremo de la línea antes de llegar a la del otro extremo. Al llegar a las antenas en instantes diferentes, las ondas de cada extremo lo harán en distintas fases de su vibración.

Al sumar todas las corrientes de las antenas, las de un extremo pueden estar en una fase opuesta a las del otro, eliminándose parcialmente una a otra. El efecto producido es hacer más nítida la imagen de radio de la estrella. Este tipo de radiotelescopio se llama radiointerjerómetro, debido a que la eliminación de una serie de ondas por otra es una interferencia. Generalmente, el interferómetro se compone de dos líneas de antenas que forman ángulos rectos. La nitidez de la imagen o poder de resolución puede aumentarse de varias maneras, sumando o restando las señales de las distintas antenas.

Los radiotelescopios pueden penetrar mucho más profundamente en el universo que los telescopios ópticos. Las galaxias más lejanas que se conocen son también los transmisores de radio más potentes, y fueron descubiertas precisamente a causa de esta poderosa emisión de ondas de radio, que emiten probablemente por ser galaxias en colisión. El telescopio óptico de Monte Palomar investigó con mucho cuidado en esa dirección, y encontró la tenue nube de galaxias causantes de las ondas de radio.

La atmósfera terrestre es un inconveniente para la radioastronomía, dado que absorbe grandes cantidades de la radiación electromagnética que llega a la Tierra. Sólo un pequeño margen de ondas puede atravesar la atmósfera. Las ondas de radio de pequeña longitud son absorbidas por las moléculas de la atmósfera, y las de onda larga se distorsionan a causa de las capas cargadas eléctricamente de la ionosfera.

Una solución sería la de colocar un radiotelescopio en un satélite artificial, y una idea todavía más prometedora es la de construirlo en la Luna, donde no hay atmósfera que pueda interrumpir la radiación. En la Luna se podrían construir radiotelescopios mayores, ya que siendo menor la fuerza de la gravedad, la estructura de los aparatos podría manejarse con menor esfuerzo y una menor deformación del reflector.

ALGUNAS FUENTES INTENSAS DE ONDAS DE RADIO

Sol 8 minutos Desde algunos milímetros a varios metros, emitidas por la corona y la cromosfera
Júpiter 40 minutos Unos 15 metros
Gas hidrógeno en ios brazos espirales de una galaxia De 1.500 a 80.000 años
21,1 cm„ emitida por el gas hidrógeno ionizado
Nebulosa de la constelación de Cáncer (su pernova) 3.000 años De 1 cm. a 10 m. Ondas de electrones acelerados
Supernova de la constelación de Casiopea 10.000 años De un centímetro a 10 metros; proceden de hidrógeno ionizado, oxígeno y neón
Centro de nuestra galaxia 30.000 años
Nubes de Magallanes (las galaxias más próximas) 200.000 años 21,1 centímetros
Nebulosa de la constelación de Andrómeda (la galaxia espiral más próxima) 2 millones de años 21,1 cm. Es un emisor tan potente como nuestra propia galaxia
Galaxia elíptica de la constelación de Virgo (Virgo A), nebulosa del chorro azul 33 millones de años Ondas de electrones acelerados
Dos galaxias espirales en colisión de la constelación del Cisne (Cisne A) 50 millones de años
Nebulosa de radio lejana, de la constelación de Hércules 750 millones de años

Fuente Consultada:
Revista TECNIRAMA N°90 Enciclopedia de la Ciencia y La Tecnología – La Radioastronomia –

Grandes Inventos en la Historia Lista de Inventos Argentinos

 

LISTA DE LOS INVENTOS MAS DESTACADOS

lista de inventos

1532 Sistema circulatorio pulmonar Miguel Servet Español

1590 Microscopio compuesto Zacharias Janssen Holandés

1593 Termómetro de agua Galileo Italiano

1608 Telescopio Hans Lippershey Holandés

1625 Transfusión de sangre Jean-Baptiste Denis Francés

1629 Turbina de vapor Giovanni Branca Italiano

1642 Máquina de sumar Blaise Pascal Francés

1643 Barómetro Evangelista Torricelli Italiano

1650 Bomba de aire Otto von Guericke Alemán

1656 Reloj de péndulo Christiaan Huygens Holandés

1668 Telescopio reflector Isaac Newton Británico

1672 Máquina de calcular Gottfried Wilhelm Leibniz Alemán

1698 Bomba de vapor Thomas Savery Inglés

1701 Barrena sembradora Jethro Tull Inglés

1705 Motor de vapor Thomas Newcomen Inglés

1710 Piano Bartolomeo Cristofori Italiano

1714 Termómetro de mercurio Daniel Gabriel Fahrenheit Alemán

1717 Campana de buceo Edmund Halley Británico

1725 Estereotipia William Ged Escocés

1745 Botella de Leyden (condensador) Ewald Georg von Kleist Alemán

1752 Pararrayos Benjamin Franklin Estadounidense

1758 Lente acromática John Dollond Británico

1759 Cronómetro marino John Harrison Inglés

1764 Máquina de hilar James Hargreaves Británico

1768 Máquina de tejer Richard Arkwright Británico

1769 Motor de vapor (con condensador separado) James Watt Escocés

1770 Automóvil Nicholas Joseph Cugnot Francés

1775 Submarino David Bushnell Estadounidense

1780 Pluma de acero Samuel Harrison Inglés

1780 Lente bifocal Benjamin Franklin Estadounidense

1783 Globo aerostático Joseph Michel Montgolfier y Jacques Étienne Montgolfier Franceses

1784 Trilladora mecánica Andrew Meikle Británico

1785 Telar mecánico Edmund Cartwright Británico

1787 Barco de vapor John Fitch Estadounidense

1788 Regulador centrífugo o de bolas James Watt Escocés

1791 Turbina de gas John Barber Británico

1792 Gas de alumbrado William Murdock Escocés

1793 Desmotadora de algodón Eli Whitney Estadounidense

1796 Prensa hidráulica Joseph Bramah Inglés

1796 Vacuna contra la viruela Edward Jenner Británico

1798 Litografía Aloys Senefelder Alemán

1798 Cinta sin fin de tela metálica (fabricación de papel) Louis Robert Francés

1800 Telar Jacquard Joseph Marie Jacquard Francés

1800 Batería eléctrica Conde Alessandro Volta Italiano

1801 Telar de patrones Joseph Marie Jacquard Francés

1804 Propulsor de hélice John Stevens Estadounidense

1804 Cohete de carburante sólido William Congreve Británico

1804 Locomotora de vapor Richard Trevithick Británico

1810 Conservación de alimentos (mediante esterilización y vacío) Nicolas Appert Francés

1810 Prensa de imprimir Frederick Koenig Alemán

1814 Locomotora ferroviaria George Stephenson Británico

1815 Lámpara de seguridad Sir Humphry Davy Británico

1816 Bicicleta Karl D. Sauerbronn Alemán

1819 Estetoscopio René Théophile Hyacinthe Laennec Francés

1820 Higrómetro J.F. Daniell Inglés

1820 Galvanómetro Johann Salomon Cristoph Schweigger Alemán

1821 Motor eléctrico Michael Faraday Británico

1823 Electroimán William Sturgeon Británico

1824 Cemento portland Joseph Aspdin Británico

1827 Cerillas o cerillos de fricción John Walker Británico

1829 Máquina de escribir W.A. Burt Estadounidense

1829 Sistema Braille Louis Braille Francés

1829 Máquina de coser Barthélemy Thimonnier Francés

1830 Báscula de romana Thaddeus Fairbanks Estadounidense

1831 Fósforos Charles Sauria Francés

1831 Segadora Cyrus Hall McCormick Estadounidense

1831 Dinamo Michael Faraday Británico

1834 Tranvía eléctrico Thomas Davenport Estadounidense

1836 Revólver Samuel Colt Estadounidense

1837 Telégrafo Samuel Finley Breese Morse Sir Charles Wheatstone Estadounidense Inglés

1838 Código Morse Samuel Finley Breese Morse Estadounidense

1839 Fotografía Louis Jacques Mandé Daguerre y Joseph Nicéphore Niepce William Henry Fox Talbot Franceses Inglés

1839 Caucho vulcanizado Charles Goodyear Estadounidense

1839 Martillo pilón de vapor James Nasmyth Escocés

1839 Bicicleta Kirkpatrick MacMillan Británico

1845 Llanta neumática Robert William Thompson Estadounidense

1846 Imprenta rotativa Richard March Hoe Estadounidense

1846 Algodón pólvora Christian Friedrich Schönbein Alemán

1846 Éter (anestésico) Crawford Williamson Long Estadounidense

1849 Hormigón armado F.J. Monier Francés

1849 Pasador de seguridad Walter Hunt Estadounidense

1849 Turbina de agua James Bicheno Francis Estadounidense

1850 Algodón mercerizado John Mercer Británico

1851 Rifle de retrocarga Edward Maynard Estadounidense

1851 Oftalmoscopio Hermann Ludwig Ferdinand y Helmholtz Alemanes

1852 Dirigible no rígido Henri Giffard Francés

1852 Giróscopo Jean Bernard Léon Foucault Francés

1853 Ascensor (con freno) Elisha Graves Otis Estadounidense

1855 Jeringa hipodérmica Alexander Wood Escocés

1855 Fósforos de seguridad J.E. Lundstrom Sueco

1855 Mechero de gas Bunsen Robert Wilhelm Bunsen Alemán

1856 Convertidor Bessemer (acero) Sir Henry Bessemer Británico

1858 Cosechadora Charles y William Marsh Estadounidenses

1859 Espectroscopio Gustav Robert Kirchhoff y Robert Wilhelm Bunsen Alemanes

1860 Motor de gas Étienne Lenoir Francés

1861 Horno eléctrico William Siemens Británico

1861 Ametralladora Richard Jordan Gatling Estadounidense

1861 Kinematoscopio Coleman Sellers Estadounidense

1865 Prensa rotativa de bobinas William A. Bullock Estadounidense

1865 Cirugía antiséptica Joseph Lister Británico

1866 Papel (de pasta de madera, proceso de sulfatación) Benjamin Chew Tilghman Estadounidense

1867 Dinamita Alfred Bernhard Nobel Sueco

1868 Pila seca Georges Leclanché Francés

1868 Máquina de escribir Carlos Glidden y Christopher Latham Sholes Estadounidenses

1868 Freno neumático George Westinghouse Estadounidense

1870 Celuloide John Wesley Hyatt e Isaiah Hyatt Estadounidenses

1874 Telégrafo cuadroplexo Thomas Alva Edison Estadounidense

1876 Teléfono Alexander Graham Bell Estadounidense

1877 Motor de combustión interna (cuatro tiempos) Nikolaus August Otto Alemán

1877 Gramófono (fonógrafo) Thomas Alva Edison Estadounidense

1877 Micrófono Emile Berliner Estadounidense

1877 Soldadura eléctrica Elihu Thomson Estadounidense

1877 Vagón frigorífico G.F. Swift Estadounidense

1878 Tubo de rayos catódicos Sir William Crookes Británico

1879 Máquina registradora James J. Ritty Estadounidense

1879 Lámpara de hilo incandescente Thomas Alva Edison Sir Joseph Wilson Swan Estadounidense Británico

1879 Motor de automóvil (dos tiempos) Karl Benz Alemán

1879 Lámpara de arco Charles Francis Bush Estadounidense

1884 Turbina de vapor Charles Algernon Parsons Inglés

1884 Rayón (nitrocelulosa) Conde Hilaire Bernigaud de Chardonnet Francés

1884 Turbina de vapor multieje Charles Algernon Parsons Británico

1884 Disco de Nipkow (dispositivo mecánico de exploración de televisión) Paul Gottlieb Nipkow Alemán

1884 Estilográfica Lewis Edson Waterman Estadounidense

1885 Grafófono (máquina de dictar) Chichester A. Bell y Charles Sumner Tainter Estadounidenses

1885 Transformador de CA William Stanley Estadounidense

1885 Submarino con propulsión eléctrica Isaac Peral Español

1886 Linotipia Ottmar Mergenthaler Estadounidense

1887 Llanta neumática inflable J.B. Dunlop Escocés

1887 Gramófono (grabaciones en disco) Emile Berliner Estadounidense

1887 Manguito incandescente para gas Barón Carl Auer von Welsbach Austriaco

1887 Mimeógrafo Albert Blake Dick Estadounidense

1887 Monotipia Tolbert Lanston Estadounidense

1887-1900 Morfología de las neuronas Santiago Ramón y Cajal Español

1888 Máquina de sumar impresora por teclas William Steward Burroughs Estadounidense

1888 Cámara Kodak George Eastman Estadounidense

1888 Kinetoscopio William Kennedy Dickson Thomas Alba Edison Escocés Estadounidense

1889 Turbina de vapor Carl Gustaf de Laval Sueco

1890 Rayón (cuproamonio) Louis Henri Despeissis Francés

1891 Planeador Otto Lilienthal Alemán

1891 Goma sintética Sir William Augustus Tilden Británico

1892 Motor de CA Nikola Tesla Estadounidense

1892 Cámara de tres colores Frederick Eugene Ives Estadounidense

1892 Rayón (viscosa) Charles Frederick Cross Británico

1892 Botella de vacío (vaso de Dewar) Sir James Dewar Británico

1892 Motor diesel Rudolf Diesel Alemán

1893 Célula fotoeléctrica Julius Elster y Hans F. Geitel Alemanes

1893 Automóvil a gasolina Charles Edgar Duryea y J. Frank Duryea Estadounidenses

1895 Cinematógrafo Louis Jean Lumière y Auguste Marie Lumière Charles Francis Jenkins Franceses Estadounidense

1895 Rayos X Wilhelm Conrad Roentgen Alemán

1895 Rayón (acetato) Charles Frederick Cross Británico

1895 Telegrafía sin hilos Guglielmo Marconi Italiano

1896 Avión experimental Samuel Pierpont Langley Estadounidense

1898 Papel fotográfico sensible Leo Hendrik Baekeland Estadounidense

1900 Dirigible rígido Graf Ferdinand von Zeppelin Alemán

1902 Radioteléfono Valdemar Poulsen y Reginald Aubrey Fessenden Danés Estadounidense

1903 Aeroplano Wilbur Wright y Orville Wright Estadounidenses

1903 Electrocardiógrafo Willem Einthoven Holandés

1904 Tubo rectificador de diodo (radio) John Ambrose Fleming Británico

1906 Girocompás Hermann Anschütz-Kämpfe Alemán

1906 Baquelita Leo Hendrik Baekeland Estadounidense

1906 Tubo amplificador de triodo (radio) Lee De Forest Estadounidense

1908 Cámara cinematográfica de dos colores G. Albert Smith Británico

1909 Salvarsán Paul Ehrlich Alemán

1910 Hidrogenación del carbón Friedrich Bergius Alemán

1910 Brújula y estabilizador giroscópicos Elmer Ambrose Sperry Estadounidense

1910 Celofán Jacques Edwin Brandenberger Suizo

1911 Aire acondicionado W.H. Carrier Estadounidense

1911 Vitaminas Casimir Funk Polaco

1911 Lámpara de neón Georges Claude Francés

1912 Lámpara de vapor mercúrico Peter Cooper Hewitt Estadounidense

1913 Estatorreactor René Lorin Francés

1913 Tubo de electrones multirrejilla Irving Langmuir Estadounidense

1913 Gasolina craqueada William Meriam Burton Estadounidense

1913 Radiorreceptor heterodino Reginald Aubrey Fessenden Canadiense

1913 Tubo de rayos X William David Coolidge Estadounidense

1915 Arranque automático de automoción Charles Franklin Kettering Estadounidense

1916 Rifle Browning (automático) John Moses Browning Estadounidense

1916 Lámpara incandescente rellena de gas Irving Langmuir Estadounidense

1919 Espectrómetro de masa Sir Francis William Aston Arthur Jeffrey Dempster Británico Estadounidense

1921 Insulina Frederick Grant Banting Charles Herbert Best John James Rickard Canadiense Canadiense Británico

1922-26 Películas cinematográficas con sonido T.W. Case Estadounidense

1923 Iconoscopio de televisión Vladímir Kosma Zworykin Estadounidense

1923 Autogiro Juan de la Cierva Español

1925 Congelación rápida de alimentos Clarence Birdseye Estadounidense

1925 Tubo disector de imágenes de televisión Philo Taylor Farnsworth Estadounidense

1926 Cohete de carburante líquido Robert Hutchings Goddard Estadounidense

1928 Penicilina Sir Alexander Fleming Británico

1930 Nailon (poliamidas sintéticas generadoras de fibras) Wallace Hume Carothers Estadounidense

1930 Batisfera Charles William Beebe Estadounidense

1930 Freón (compuestos de flúor de baja temperatura de ebullición) Thomas Midgley y colegas Estadounidense

1930 Motor de turbina de gas moderno Frank Whittle Británico

1930 Neopreno (goma sintética) Padre Julius Arthur Nieuwland y Wallace Hume Carothers Estadounidenses

1931 Ciclotrón Ernest Orlando Lawrence Estadounidense

1931 Analizador diferencial (computadora analógica) Vannevar Bush Estadounidense

1931 Generador de Van de Graaff Robert Jemison Van de Graaff Estadounidense

1932 Microscopio de contraste de fase Frits Zernike Holandés

1932 Sulfonamida Gerhard Domagk Alemán

1933 Modulación de frecuencia (FM) Edwin Howard Armstrong Estadounidense

1935 Buna (caucho sintético) Científicos alemanes Alemanes

1935 Radiolocalizador (radar) Sir Robert Watson-Watt Británico

1935 Cortisona Edward Calvin Kendall Tadeus Reichstein Estadounidense Suizo

1935 Microscopio electrónico Científicos alemanes Alemanes

1936 Helicóptero de dos rotores Heinrich Focke Alemán

1937 Xerografía Chester Carlson Estadounidense

1937 Nailon Wallace Hume Carothers Estadounidense

1939 DDT Paul Müller Suizo

1939 Helicóptero Igor Sikorski Estadounidense

1940 Televisión en colores Guillermo González Camarena Mexicano

1940 Betatrón Donald William Kerst Estadounidense

1941 Motor aeronáutico de turborreacción Frank Whittle Británico

1942 Misil guiado Wernher von Braun Alemán

1942 Reactor nuclear Enrico Fermi Estadounidense

1944 Estreptomicina Selman A. Waksman Estadounidense

1944 V-2 (bomba impulsada por cohete) Científicos alemanes Alemanes

1945 Bomba atómica Científicos del gobierno de EEUU Estadounidenses

1946 Computadora digital electrónica John Presper Eckert, Jr. y John W. Mauchly Estadounidenses

1947 Holografía Dennis Gabor Británico

1947 Cloromicetina Mildred Rebstock Estadounidense

1947 Cámara Polaroid Land Edwin Herbert Land Estadounidense

1947 Batiscafo Auguste Piccard Suizo

1947 Horno de microondas Percy L. Spencer Estadounidense

1948 Contador de centelleo Hartmut Kallmann Alemán

1948 Aureomicina Benjamin Minge Duggar y Chandra Bose Subba Row Estadounidenses

1948 Transistor John Bardeen, Walter Houser Brattain y William Shockley Estadounidenses

1949 Avión a chorro (estatorreactor) René Leduc Francés

1950 Televisión en color Peter Carl Goldmark Estadounidense

1952 Bomba de hidrógeno Científicos del gobierno de EEUU Estadounidenses

1952 Cámara de burbujas (detector de partículas nucleares) Donald Arthur Glaser Estadounidense

1953 Máser Charles Townes Estadounidense

1954 Batería solar Científicos de Bell Telephone Laboratory Estadounidenses

1954 Vacuna contra la poliomielitis Jonas Salk Estadounidense

1955 Diamantes sintéticos Científicos de General Electric Estadounidenses

1955 Datación mediante carbono W.F. Libby Estadounidense

1956 Aerodeslizador (hovercraft) Christopher Cockerell Inglés

1956 Primer prototipo de motor rotatorio Felix Wankel Alemán

1956 Videocinta Charles Ginsberg y Ray Dolby Estadounidenses

1956 Fregona Manuel Jalón Corominas Español

1957 Reactor atómico enfriado por sodio Científicos del gobierno de EEUU Estadounidenses

1957 Satélite terrestre artificial Científicos del gobierno de la URSS Soviéticos

1958 Satélite de comunicaciones Científicos del gobierno de EEUU Estadounidenses

1959 Circuitos integrados Jack Kilby y Robert Noyce Estadounidenses

1960 Láser Charles Hard Townes, Arthur L. Schawlow y Gordon Gould Estadounidenses

1960 Síntesis de la clorofila Robert Burns Woodward Estadounidense

1960 Píldora anticonceptiva Gregory Pincus, John Rock y Min-chueh Chang Estadounidenses

1962 Diodo emisor de luz (LED) Nick Holonyak, Jr. Estadounidense

1964 Pantalla de cristal líquido George Heilmeier Estadounidense

1966 Corazón artificial (ventrículo izquierdo) Michael Ellis DeBakey Estadounidense

1967 Transplante de corazón humano Christiaan Neethling Barnard Surafricano

1970 Primera síntesis completa de un gen Har Gobind Khorana Estadounidense

1971 Microprocesador Ted Hoff Estadounidense

1971 Generación de imágenes por resonancia magnética nuclear Raymond Damadian Estadounidense

1972 Calculadora electrónica de bolsillo J.S. Kilby y J.D. Merryman Estadounidenses

1972 Primer generador de energía magnetohidrodinámico Científicos del gobierno de la URSS Soviéticos

1973 Laboratorio espacial orbital Skylab Científicos del gobierno de EEUU Estadounidenses

1974 ADN recombinante (ingeniería genética) Científicos estadounidenses Estadounidenses

1975 TAC (tomografía axial computerizada) Godfrey N. Hounsfield Británico

1975 Fibra óptica Bell Laboratories Estadounidense

1976 Supercomputadora J.H. Van Tassel y Seymour Cray Estadounidenses

1978 Síntesis de los genes de la insulina humana Roberto Crea, Tadaaki Hirose, Adam Kraszewski y Keiichi Itakura Estadounidenses

1978 Transplante de genes entre mamíferos Paul Berg, Richard Mulligan y Bruce Howard Estadounidenses

1978 Corazón artificial Jarvik-7 Robert K. Jarvik Estadounidense

1978 Vacuna sintética contra la malaria Manuel Patarroyo Colombiano

1979 Disco compacto Joop Sinjou Toshi Tada Doi Holandés Japonés

1979 Reparación de defectos genéticos en células de ratón mediante técnicas de ADN recombinante y micromanipulación W. Francés Anderson y colegas Estadounidenses

1981 Sistema de transporte espacial (lanzadera espacial) Ingenieros de la NASA Estadounidenses

1981 Microscopio de túnel de barrido Gerd Binnig Heinrich Rohrer Alemán Suizo

1986 Superconductores hipertérmicos J. Georg Bednorz Karl A. Müller Alemán Suizo

1989 El Satélite Explorador de Fondo Cósmico (COBE) mostró que las irregularidades en la radiación de fondo de microondas son restos de regiones no uniformes presentes en el universo poco después del Big Bang Equipo dirigido por George Smoot Estadounidenses

1993 Telescopio Keck, el mayor telescopio reflector del mundo Universidad de California, California Instituto de Tecnología Estadounidense

 

1994 Pruebas de la existencia del quark top Fermi National Accelerator Laboratory, Illinois (Fermilab) Estadounidense

Choque en el Río Potomac Accidente Aereo Tragedias Aereas

La Tragedia del Río Potomac: Accidente Aéreo

La tormenta que se había formado sobre Nueva 0Rleans, remolineando desde una hondonada de baja presión sobre el Golfo de México, abarcó el noreste del la noche a la mañana dejando a los estados del su bajo una capa extraordinariamente espesa de nieve.  En Alabama, un hombre murió cuando las ramas congeladas de un árbol cayeron sobre él.  Atlanta y Chicaz registraron las temperaturas más bajas del Siglo.

Para la mañana del 13 de enero de 1982, las tempestades d nieve llegaron a la capital, Washington, D.C. A la p.m., la Autoridad Federal de Aviación cerró durante 73 minutos el Aeropuerto Nacional, a kilómetro y me dio de la Casa Blanca’ para que las máquinas quita nieves pudieran limpiar las pistas de una capa de más d 12 centímetros.

En las oficinas de gobierno de la ciudad, los jefes d servicio civil escudriñaban ansiosamente los cielos cargados de nubes, y poco después del almuerzo con vinieron en dejar que el personal regresara temprano a su casa para evitar las ventiscas que se esperaban.  Pronto, todas las carreteras que salían de la capital estaban congestionadas de carros que avanzaban cuidadosamente a vuelta de rueda a través de la niebla cegadora.

Una enorme culebra de tráfico atravesaba el congelado río Potomac por el puente de dos carriles de la calle 14, parte de la autopista Jefferson Davis, la ruta más transitada entre Washington y los suburbios de Virginia.  Luego, exactamente a la 4 p.m., el terror salió rugiendo del cielo en un desastre que habría de cobrar 78 vidas y pasmar a una nación.

El vuelo 90 de Áir Florida había estado programado para salir del Aeropuerto Nacional hacia Fort Lauder da le y Tampa a las 2:15 p.m., pero dieron las 3 p.m. antes de que los 71 pasajeros (tres de ellos cargando bebés) dejaran la sala de salida y ocuparan las 21 filas de asientos del jet Boeing 737 de dos motores.  Cuarenta y un asientos quedaron vacíos.  El capitán Larry Wheaton, de 35 años, y el copiloto Roger Pettit verificaron sus tableros de instrumentos y pidieron disculpas por los retrasos mientras los trabajadores del aeropuerto deshelaban las alas con glicol líquido.  Aun cuando la visibilidad seguía restringida a menos de un kilómetro, el aeropuerto fue reabierto, y los dos hombres observaron que un avión llegaba a la terminal y notaron los enormes carámbanos que colgaban de sus alas.

“Me alegro deveras de que haya gente rondando en el mismo lugar adonde quiero ir, dijo Wheaton.  No puedo ver la pista sin estas banderas.  Tal vez más arriba…” La sobrecargo en jefe, Donna Adams, miró el paisaje blanco y dijo: “Me encanta, miren todas las huellas de llantas en la nieve”.  Pettit estaba más preocupado por cosas prácticas: “Hombre, ésta es una batalla perdida, tratar de deshelar esas cosas’ murmuró observando a los hombres que trabajaban en las alas.  Te da una falsa sensación de seguridad, eso es todo”.

A las 3:58 p.m. el Boeing por fin rodó para despegar sobre la pista 36 de 2,230 metros, la más larga del Nacional.  Los pasajeros sintieron alivio por que su larga espera terminaba.  El sol de Florida parecia aún más atractivo en este clima ártico.  Los dos pilotos vieron la pista lodosa a través de la nieve que todavía caía, y eligieron levantar la nariz antes que de costumbre para ayudar al despegue.  Justo después de las 3:59 p.m., el avión despegó.

En 30 segundos, la tripulación supo que algo estaba muy mal: “Dios, mira esa cosa… no parece bien”, dijo Pettit.  “Tranquilos los dos, adelante, adelante, urgió Wheaton.  Vamos adelante… adelante… sólo levanta un poco…” continuó.  El avión temblaba y se movía mu cho.  Un tripulante gritó: “Caemos, estamos cayendo”.  Pettit se volvió al capitán: “Larry, estamos bajando, Larry…” Wheaton respondió con frialdad: “Lo sé”.  A las 4:01 el vuelo 90 se estrelló.

En el puente de la calle 14, a un kilómetro del Aero puerto Nacional, los conductores atrapados en el embotellamiento de tráfico oyeron al jet que caía antes de verlo.  “Oí un estruendo pero no pude ver nada por la nieve, dijo el empleado del Departamento de justi cia Lloyd Creger.  Los motores hacían un ruido tan fuerte que debían ir a toda máquina.  No podía oírme a mí mismo gritar.  Luego vi el avión salir del cielo.  Estaba cayendo, pero no parecía que le pasara nada malo.  La nariz estaba levantada y la cola abajo.  Luego pare ció que no había ningún ruido”.  Otro conductor sollozó: “Oí el ruido del jet más y más fuerte.  Abrí la portezuela y corrí para salvar la vida.  No me detuve para voltear hacia atrás, sólo oí un golpe seco al chocar el avión contra el puente”.

El avión golpeado apenas libró un puente de ferro carril al sur de los dos trechos de carretera atorados.  Al rugir a poca altura encima de los indefensos automovilistas, una rueda golpeó un camión que iba por la carretera del sur, y el avión cayó pesadamente en el Potomac entre los dos puentes de la carretera.  Arrancó los techos de cinco autos y arrastró a otros al agua he lada.

El hielo que había sobre el río se rompió como un parabrisas golpeado por una roca, y los pedazos volaron por el aire.  Testigos pasmados se dieron cuenta lentamente de la enormidad de lo que había ocurrido.  “Había metal retorcido de los carros chocados por todas partes, dijo el reportero Al Rossiter.  Algunos de los vehículos empezaron a incendiarse, y el camión golpeado colgaba de la orilla en un ángulo de 45 grados.  Vito Maggiolo dijo: “Había cadáveres esparcidos por todo el puente, y también sobre el hielo del río”.  El sargento Jerome Lancaster de la Fuerza Aérea de Estados Unidos dijo: “Conté seis o siete personas vi vas en el agua, pero se hallaban aturdidas.  Lanzamos una cuerda a un pasajero”.

El boeing se había roto en tres secciones por el impacto.  La nariz se hundió bajo la superficie, matan do a los que estaban adentro.  El fuselaje se desplomó de panza y se asentó brevemente, y los horrorizados espectadores pudieron ver a las personas adentro, atadas a sus asientos, mientras el destrozado avión se hundía lentamente.  Pero la cola flotó milagrosamente durante veinte minutos, y la mayoría de los sobrevivientes salieron de allí.  Cinco emergieron, golpeados y sacudidos, se escabulleron a través del hielo y se pusieron a salvo.  Otros fueron arrojados como muñecos al agua helada, y se asían desesperadamente a los restos del naufragio o a témpanos de hielo, gritando, pidiendo auxilio.  Las personas que estaban en el puente les arrojaron todos los cables disponibles, y les gritaban: “Sujétense, la ayuda estará pronto aquí”.

Pero las condiciones de pesadilla (una ciudad atasca da por la nieve y el tráfico) hicieron imposible que los servicios de emergencia reaccionaran con velocidad.  Ambulancias, carros de bomberos y patrullas queda ron atrapados en los embotellamientos, teniendo que meterse en las anchas aceras frente a la Casa Blanca para pasar.

Increíblemente, en cuestión de minutos un segundo accidente aumentó el caos en la capital.  Un tren del metro con mil pasajeros se descarriló a menos de dos kilómetros del puente, dejando tres muertos y muchos heridos.  Los servicios de emergencia tuvieron que ser desviados para dirigirse allí también.

Los primeros vehículos de rescate llegaron al puente de la calle 14 del lado de Virginia al mismo tiempo que el primero de una docena de helicópteros de la policía y de las Fuerzas Armadas llegó por el aire, sobrevolando peligrosamente cerca de los puentes para tratar de izar a los sobrevivientes a un lugar seguro.  Entonces, el desastre tomó proporciones casi grotescas.  Los equipos de televisión, alertados por las llamadas a los servicios de emergencia, llegaron con sus cámaras y empezaron a enviar imágenes en vivo del drama a un público de muchos millones de costa a costa.

Los estadounidenses, endurecidos por las películas de desastre de Hollywood, ahora veían con culpable fascinación cómo la muerte y el heroísmo se desarrollaban ante sus ojos.

La gente moría ahogada o congelada a menos de 17 metros de la orilla, en un agua donde sólo po día sobrevivir diez minutos.  Chapoteaba débilmente hasta que el río entumecedor paralizaba sus músculos y les impedía nadar.  Trataban desesperadamente de alcanzar las cuerdas salvavidas que colgaban de los helicópteros, luego volvían a hundirse bajo la superficie, con las manos demasiado heladas para agarrarse a las cuerdas.  Un oficial de rescate dijo: “Partía el corazón verlos tan cerca y no poder ayu darlos.  Nadie viviría más de cinco minutos en esa agua”.

La sobrecargo Kelly Duncan, de 23 años,  vestida sólo con una delgada blusa de manga corta y la fal da del uniforme, falló repetidamente en el intento de asirse a los aros de rescate.  Parecía estar definitivamente perdida.  Entonces el piloto del helicóptero Donald Usher arriesgó su propia vida y la del tripu lante Gene Windsor colocando su aparato casi en el agua, mientras Windsor se encaramaba en los patines de aterrizaje y sujetaba a la chica poniéndola a salvo.  Fue llevada rápidamente al hospital con una pierna rota e hipotermia (su temperatura había descendido a 32 grados); pero sobrevivió, la única del equipo de cinco.

Priscilla Tirado estaba también en el agua.  Trató de alcanzar un cable, pero no pudo. Su fuerza desvanecida la sumergió bajo la superficie, pero ella surgió de nuevo, y la tripulación del helicóptero le arrojó el cinturón de seguridad atado a una cuerda.  Cientos de personas en el puente y millones de televidentes obervaron su agonía con desesperación.  Pero un hombre reaccionó más positivamente.  Lennie Stutnik, un oficinista de 38 años que se dirigia a su casa de la Oficina del Presupuesto a el Congreso, se quitó la chaqueta y las botas y se lanzó al agua, sin tomar en cuenta su propia seguridad.  La señora Tirado, de 23 años, es taba casi inconsciente, pero Stutnik logró empujarla, jalarla y hasta patearla hasta el borde, donde manos dispuestas los jalaron a la orilla.  Compartieron la ambulancia hacia el hospital, él sufriendo hipotermia y ella gravemente enferma y sin saber que su esposo José y su hijo Jason de dos meses de edad se habían ahogado.

El héroe Stutnik, después encomiado por el presidente Ronald Reagan, fue modesto respecto a su parte en el rescate: “Ella se rindió -dijo a los reporteros-.  Sus ojos se cerraron y había empezado a hundirse cuando la agarré.  Con sólo verla podías decir que no le quedaba ni una onza de energía.  Parecía estar perdiendo la voluntad de vivir.  No noté para nada el frío mientras estaba en el agua.  Sólo lo sentí en la ambulancia en que iba después al hospital.  Noté que los dedos de mis pies estaban fríos, eso fue todo.  No creo ser ningún tipo de héroe.  Sólo fue una reacción automática”.

Otro héroe no vivió para contar su relato.  Cinco veces agarró cuerdas salvavidas lanzadas por los helicópteros, pero en cada ocasión entregó la cuerda a otros que fueron remolcados o levantados a la orilla: “Pudo haber sido el primero -dijo el piloto Usher-.  Le arrojamos un aro, pero él se lo pasó a un hombre que sangraba mucho de una herida en la cabeza.  Volvimos cuatro veces, y cada vez pasó el aro a alguien más, incluyendo a tres damas que colgaban de la sección de cola.  La última vez que volvimos, había desaparecido.  El es el verdadero héroe de todo esto.  Si usted estuviera en su situación, a cien metros de la orilla y sabiendo que cada minuto está más cerca de morir congelado, ¿podría hacerlo?  Realmente no creo que yo pudiera”.

El copiloto Gene Windsor dijo: “El tipo era asombroso, nunca había visto tanto valor.  Me pareció que decidió que las mujeres y el hombre herido necesitaban salir de allí antes que él y aun cuando estaba hundiéndose se aferró a esa decisión.  Después lo buscamos por todas partes, pero había desaparecido”.  Sólo cuando todos los cadáveres fueron recuperados pudo establecerse la identificación del hombre calvo con bigote negro.  Arland Williams, de 46 años, empleado del Gobierno Federal, fue el único que murió sólo ahogado.  Todos los demás tenían miembros fracturados.

Misericordiosamente, la mayoría de los pasajeros del avión murieron instantáneamente con el impacto.  Pero algunas de las 78 víctimas murieron horriblemente despacio.  La historia de un hombre de edad fue relata da por el comandante del Ejército de Salvación Harold Anderson: “Estaba vivo cuando la policía lo vió bajo el hielo y observó a los rescatistas tratando de sacarlo del agua.  Trataba frenéticamente de salir, pero cuando pudieron romper el hielo había muerto.  No pudieron revivirlo”.

Los primeros sobrevivientes fueron internados en el George Washington Medical Center 45 minutos después del choque.  Tres horas y media después del desastre se dijo oficialmente a los hospitales que no esperaran más pacientes.  Sólo cinco pasajeros del avión habían sobrevivido.  Cuatro automovilistas del puente habían muerto.  Dieciséis personas estaban en el hospital.

La espantosa búsqueda de cadáveres siguió mucho después de que oscureció.  Las luces de los proyectores y las luces intermitentes de vehículos de rescate iluminaron una escena pavorosa cuando hombres lanzaban ganchos de botes desde un remolque y botes de hule entre los témpanos de hielo flotantes cerca del jet azul y blanco de Air Florida.  Los helicópteros desviaron su atención del río a la orilla, levantando a los heridos menos graves y alejándolos de la escena trágica.  Los cadáveres fueron tendidos sobre la nieve, y se instaló una morgue improvisada en una tienda de campana.  Llegaron los rompehielos del ejército, y buzos con trajes especialmente gruesos trataron de abrirse camino entre el fuselaje, para llegar a los cuerpos todavía ata dos con el cinturón a los asientos.  Al amanecer, los equipos de rescate fueron recibidos con el espectáculo desgarrador de una mujer y un bebé flotando, congelados y tiesos sobre la superficie del hielo.

Las operaciones de buceo continuaron durante la se mana siguiente, pero fue un proceso lento.  La visibilidad bajo el agua se había reducido a 45 centímetros, y los restos mellados estaban rodeados por corrientes traicioneras y hielo sumergido.  El combustible derramado hizo que los restos se pusieran resbalosos, y el clima ártico nunca cesó.  Un buzo tuvo que ser res catado cuando su válvula de respiración se congeló, y una barcaza que llevaba una grúa fue perforada por el hielo.  Los buzos fueron restringidos a estar sólo 30 minutos en el agua a más de ocho metros de profundidad, a pesar de su ropa protectora.  Tardaron siete días en recuperar las grabaciones de la “caja negra” de vuelo, vitales para la subsecuente investigación respecto a la causa del choque.

Debido a la nieve, nadie, ni siquiera el personal de la torre de control del aeropuerto Nacional, había visto despegar al vuelo 90.  Los investigadores de la Autoridad Federal de Aviación tuvieron que depender de las cintas grabadas antes mencionadas y de la evidencia de los pocos sobrevivientes.

Tanto la sobrecargo Kelly Duncan como el pasajero Burt Hamilton, de 40 años, hablaron de que el avión se estremeció con fuerza poco después del despegue.  El señor Hamilton, cuyo asiento estaba junto a la cocina en la parte posterior del jet, dijo: “Supe que algo andaba mal cuando despegó.  El avión pareció tardar muchísimo en adquirir velocidad.  Realmente empezó a vibrar, dio una sacudida fuerte, tan fuerte que apreté mi cinturón y empecé a rezar mucho”.

El hombre de negocios Joseph Stiley, de 42 años, piloto privado, también declaró que sabía que no todo iba bien.  Revisando sus papeles con su secretaria Patricia Felch, se volvió hacia ella cuando los motores rugieron y dijo: “No vamos a lograrlo, estamos bajando”.  Después, en el hospital con dos piernas fracturadas, dijo: “Las cosas no iban bien cuando empezamos a rodar por la pista.  No teníamos la velocidad.  Pareció que el piloto trató de abortar, pero se le acabó la pista.  Tuvo que tomar la decisión de seguir, así es que despegamos.  Nos elevamos un poquito, pero no subió como un 737 normal.  Conseguimos un ángulo bastante decente, luego el avión se ahogó y bajamos.  Estuvimos en el aire sólo 20 o 30 segundos antes del impacto, cuando me desmayé”.

El desastre fue el primer choque importante desde que el presidente Reagan había despedido a 11,500 controladores de tráfico aéreo en huelga el pasado agosto.  El sindicato de controladores había advertido entonces que a los pilotos que volaban a ciegas en invierno les faltaría la ayuda de tierra de la que usual mente dependían, pero los jefes de la Aviación Federal desecharon el error de control de tráfico aéreo como causa del accidente.

El choque también suscitó preguntas respecto a la seguridad del aeropuerto Nacional, considerado por los pilotos como uno de los aeropuertos más tramposos de Estados Unidos.  Aunque no había habido accidentes desde 1949, el aeropuerto (mantenido por el gobierno principalmente por conveniencia de los congresistas y servidores civiles) está situado en el corazón de un área urbana densamente poblada, y puede ser usado sólo por jets pequeños.  Las aeronaves gran des tienen que salir del Aeropuerto Dulles, 48 kilómetros al oeste de la capital.  Las cortas pistas del Nacional no dejan lugar a que los pilotos lo piensen dos veces, y las rutas de vuelo son difíciles de manejar, en parte porque se requiere que el ruido sea mínimo, y en parte porque los aviones que despegan tienen que hacer un viraje brusco a la izquierda para librar el monumento a Washington de 165 metros de altura.

Pero los investigadores no estaban preocupados por las deficiencias del aeropuerto Nacional, sino por la causa de que el vuelo 90 chocara con el puente de la calle 14 cuando debió haber estado por lo menos 165 metros arriba de él.  Se concentraron en tres posibilidades: contaminación del combustible que causó pérdida de potencia, error del piloto, y la causa más probable del choque, el hielo.

Desde que por primera vez el hombre se lanzó al aire, el hielo en las alas, que restringe la potencia para elevarse, o el hielo en el motor que distorsiona la entrada de aire y reduce la potencia, han sido siempre un peligro.  Y a unos días del desastre del Potomac, se reveló que sólo una semana antes del choque, la Autoridad Británica de Aviación Civil había advertido a sus contrapartes estadounidenses que el Boeing 737,normalmente una de las aeronaves más seguras del mundo, era especialmente vulnerable a las condiciones he ladas.  La Asociación de Pilotos de Aerolíneas Británicas había informado que los jets tendían a inclinarse hacia arriba o a rodar inexplicablemente cuando había hielo en las alas.  Y la secretaria técnica de BALPA, Terence Staples, dijo: “No tiene que ser un gran depósito. Aun una pequeña cantidad, que podría no ser fácil de ver, puede causar dificultades’.

La Boeing inmediatamente dio instrucciones a todas las aerolíneas para que se aseguraran de inspeccionar las alas de los jets 737 antes del despegue, y quitaran todo el hielo.  Y las autoridades británicas ordenaron a los pilotos de 737 que aumentaran sus velocidades de despegue hasta cinco nudos y bajaran el intervalo de tiempo al cual se permite subir a la nariz.

   Volver Arriba 

John Glenn Primer Americano en Orbitar Terrestre Carrera Espacial

John Glenn Primer Americano en Orbitar Terrestre Carrera EspacialEL VUELO DEL CORONEL GLENN:
El 20 de febrero de 1962 los norteamericanos, después de haberlo aplazado varias veces y anunciado sin reserva a todo el mundo, pusieron en órbita el cohete Friendship VII que llevaba una cápsula dentro de la cual se encontraba el astronauta piloto John H. Glenn de 40 años de edad.

A la hora prevista la cápsula se desprendió de los cuerpos del cohete Atlas y entró en órbita. Después de dar tres vueltas a la Tierra, el astronauta pulsó los mandos que le llevaron a descender en aguas del Atlántico donde fue recogido por el destructor “Noah”. El vuelo había durado 4 horas, 55 minutos.

Durante el mismo, millones de espectadores habían podido seguir, gracias a la televisión, todos los detalles del lanzamiento. Glenn había comunicado constantemente sus impresiones y repitiendo muchas veces que se sentía bien. Este vuelo, que causó gran impresión por su preparación, anuncio y exhibición, demostró que el astronauta puede dirigir las fases de marcha y controlar los mecanismos para su propia recuperación y la de la cápsula.
Hasta aquí la historia, con sus datos, sus hechos concretos y sus cifras irrebatibles. Al iniciarse 1962, las dos grandes potencias espaciales, Estados Unidos y la URSS, se preparaban para emprender otras proezas. El presupuesto para investigación espacial y tecnológica para dicho año en los Estados Unidos se elevó a 2.400 millones de dólares.
A partir de este año se suceden en forma ininterrumpida los vuelos espaciales tripulados.

Salida del cohete Atlas-Mercury MA6

Salida del cohete Atlas-Mercury MA6 llevando a bordo al primer astronauta americano John Glenn

1962John Glenn fue el primero en orbitar la Tierra 1998
Aunque fue el tercer norteamericano en el espacio,John Glenn fue el primero en orbitar la Tierra. Aquí algunas cifras sobre su vuelo El año pasado, el senador Glenn regresó a la órbita como miembro de un viaje espacial. Como lo demuestra este informe algunas cosas —no todas— han cambiado.
El astronauta
Altura: 1,80 metro
Color de pelo: colorado

Edad: 40 años

Salario: 12.000 dólares.
Entrenamiento diario:
3,2 kilómetros trote
El astronauta
Altura: 1,80 metro
Color de pelo: blanco

Edad: 77 años

Salario: 136.672 dólares.
Entrenamiento diario:
3,2 kilómetros de caminata rápida
La nave
Nombre:  Friendship 7 (Amistad 7)
Tripulación:         1
Ventanas:   1
Computadoras: 0
Peso:    1,930 kilos
La nave
Nombre:  Discovery
Tripulación:         7
Ventanas:   10
Computadoras: 5
Peso:    69,770 kilos
La misión
Nombre:  Mercury 6

Despegue:  20 de Febrero de 1962.
a las 9h 47, 39″
La misión
Nombre:  STS-95

Despegue:  29 de octubre de 1998
a las 14 h.

 

Duración:
4
h. 55’ 23”.
Velocidad orbital:
28.234 kilómetros por hora
Tiempo por órbita:
1 h.28’29”.
Distancia recorrida:
121 .794 kilómetros
Lugar de aterrizaje:
Océano Atlántico, 800 kilómetros al sudeste de Bermudas
Rescate:
Un barco de la Armada recuperó la nave luego de caer al océano.

  Duración:
Aproximadamente 8 días y 20 h.

Velocidad orbital:
8.164 kilómetros por hora

Tiempo por órbita:
90 minutos

Distancia recorrida:
5.800.000 kilómetros

Lugar de aterrizaje:
Centro espacial Kennedy, Florida

Rescate:
No fue necesario

 

Cronología de las
Misiones Espaciales
 Hitos de la
Carrera Espacial

La mision apolo XI La llegada del hombre a la Luna Neil Amstrong

La Misión Apolo XI La LLegada del Hombre a la Luna

Introducción:  La agencia espacial NASA, sigla que significa National Aeronautics and Space Administration, fue fundada en 1958 como una organización del gobierno de Estados Unidos. La misión era planificar, dirigir y manejar todas las actividades aeronáuticas y espaciales de Norteamérica, exceptuando las que tuvieran fines militares.

LA MISION APOLO XI A LA LUNA NEIL ARMSTRONG PISA LA LUNAEl Presidente John F. Kennedy, el 25 de mayo de 1961, pronunció ante el Congreso de Estados Unidos las siguientes palabras:”Creo que esta nación debe proponerse la meta, antes de que esta década termine, de que el hombre pise la Luna y vuelva a salvo a la Tierra”.

El programa Apolo

Desde ese momento la NASA, tras el desafío impuesto por Kennedy, puso en marcha los programas espaciales Mercury y Gemini. En febrero de 1966, utilizando las investigaciones y experiencias arrojadas por ambas misiones, nace el ambicioso proyecto espacial Apolo. El objetivo: llevar al hombre a la Luna.

En un inicio se barajaban algunas ideas que contemplaban construir una nave que fuese capaz de llevar a la Luna entre dos y cuatro tripulantes. Para lograrlo fue necesario mejorar el cohete lanzador. Los científicos fabricaron los Saturno, de los que se hicieron varios modelos, destacando el Saturno 5.

 LA MISION APOLO XI A LA LUNA NEIL ARMSTRONG PISA LA LUNA

Saturno 5
(ver más en este sitio)

Las naves Apolo basaban su funcionamiento en tres elementos:

1.- El módulo de mando: de forma cónica, contiene el asiento de los astronautas y los paneles de control.

2.- El módulo de servicio: se encuentran los equipos eléctricos, depósitos de oxígeno, hidrógeno, helio y motores de maniobras.

3.- El módulo lunar: con capacidad para dos personas.

El programa Apolo incluyó una serie de vuelos no tripulados y 12 misiones tripuladas. Fueron seis misiones con alunizaje (Apolo 11, 12, 14, 15, 16 y 17). Dos astronautas de cada una de estas últimas caminó por la Luna.

Astronautas en la Luna

Hasta 1968 se realizaron 6 vuelos no tripulados.

El Apolo 7 fue el primer vuelo tripulado, con los astronautas Walter Schirra, Don Eisele y Walter Cunningham a bordo. Después de desarrollar una misión de 260 horas amarizó en el Océano Atlántico el 22 de octubre de 1968.

Neil Armstrong y Edwin Aldrin (Apolo 11)

Charles Conrad y Alan Bean (Apolo 12)

Alan B. Shepard y Edgard Mitchell (Apolo 14)

David Scott y James Irwin (Apolo 15)

John Young y Charles Moss Duke (Apolo 16)

Gene Cernan y Harrison Schmitt (Apolo 17)

Misión Apolo 11

La preparación de la misión espacial Apolo 11 tuvo varios problemas. La hazaña de situar a un hombre sobre la Luna causaba una serie de incógnitas, que por falta de conocimientos e información eran difíciles de disipar. Entre ellas destacan el desconocimiento de los científicos frente a las dificultades que enfrentaría un astronauta al desplazarse sobre la superficie lunar con gravedad menor a la terrestre y los efectos sicológicos que este hecho podría originar. Además existía la posibilidad que los astronautas regresaran portando algún tipo de contaminación, por lo que se dispuso un lugar especial para que cumplieran una cuarentena.

LA MISION APOLO XI A LA LUNA NEIL ARMSTRONG PISA LA LUNA

Objetivos

Los objetivos de la misión Apolo 11 fueron claras y sencillas:

1.- Realizar un viaje espacial tripulado a la Luna que comprendiera alunizaje y regreso.

2.- Desarrollar una inspección a la superficie lunar y realizar toma de muestras. Se incluían experimentos científicos y fotografías.

Se evaluaron muchos sitios para el lugar del alunizaje hasta que se llegó a recomendar el “Mar de la Tranquilidad”. Ese fue el lugar elegido.

Los astronautas seleccionados para realizar este viaje fueron Neil Armstrong, Edwin E. Aldrin y Michael Collins.

El día para el despegue fue el 16 de julio de 1969, la llegada a la Luna el 21 y el retorno a la Tierra el 24. En total serían 8 días.

¿Cómo llegó el hombre a la Luna?

El objetivo principal de la misión fue llevar al hombre a la Luna, recoger muestras de la superficie selenita y dejar equipos experimentales que funcionaran después que los astronautas regresaran a la Tierra.

Los relojes marcaban en Argentina las 10:32 de la mañana del miércoles 16 de julio de 1969. La cuenta regresiva había culminado y la gran hazaña del hombre -poner un pie en la superficie de la Luna- recién comenzaba.

El módulo lunar “Águila” descendió a la Luna y se posó sobre su superficie el 20 de julio de 1969, en la zona llamada Mar de la Tranquilidad.

La llegada del hombre a la luna paso a paso:

* La preparación

* El despegue

* La llegada

La preparación previa al despegue

Mientras se realizaban y afinaban los últimos preparativos, el “mono astronauta” bautizado como Bonny, seguía dando vueltas alrededor de la Tierra. El 4 de julio a bordo del Biosatélite III, la misión recibió la aprobación de completar los 30 días. Bonny pesaba cerca de 7 kilos y fue elegido por los científicos por su habilidad para manejar un tablero de botones.

El viernes 4 de julio los tres astronautas que viajarían en la Apolo 11 subieron a la nave para realizar el último ensayo del despegue. Faltaban 2 semanas para iniciar la travesía.

Neil Armstrong, Michael Collins y Edwin “Buzz” Aldrin, vistieron sus trajes espaciales y ensayaron las tareas que realizarían en el espacio.

El compartimento que alojó a los astronautas se encontraba a 75 metros del suelo. Armstrong, comandante de la misión, fue el primero en ingresar al módulo. Eran las 6:50 A.M.

La cuarentena

Los tres astronautas se encontraban en una cuarentena impuesta por los médicos del proyecto. El objetivo era evitar que se contaminaran con bacterias.

Cuando realizaron una conferencia de prensa se presentaron frente a los periodistas en una jaula plástica, rodeados por fuerte corrientes de aire que formaban una especie de “muro de viento”, medidas que evitaban la transmisión de cualquier germen.

En aquel encuentro con la prensa, realizado el 6 de junio, Armstrong comentó que el mombre del módulo lunar o nave auxiliar, con la cual él y Aldrin se desprenderían de la Apolo para descender a la superficie de la Luna, llevaría el nombre de “Eagle” (Águila), por ser el símbolo del escudo de Estados Unidos. Y el módulo orbital llevaría, en homenaje del descubridor Cristóbal Colón, el nombre de “Columbia”.

Plan de trabajo

El plan de trabajo tenía estipulada una preparación de entre 12 y 14 horas diarias, utilizando aparatos especiales que simulaban las condiciones del viaje espacial. Armstrong y Aldrin se entrenaron especialmente en el manejo del módulo lunar o nave auxiliar, que se desprendería el 20 de julio de la nave madre para descender sobre la superficie selenita.

Falla en la Apolo 11

El 10 de julio, en Cabo Kennedy se descubre una falla en el sistema de presión de la Apolo 11. Las primeras informaciones que se tenían era que el problema se relacionaba con el sistema de presión del oxígeno líquido a base de helio, en la primera etapa del cohete Saturno 5. Sin embargo, este hecho no retrasó el inicio de la cuenta regresiva que comenzaba ese mismo día a las 20 horas. Los astronautas continuaban los preparativos de la gran aventura.

Examen físico

El viernes 11, los astronautas de la Apolo 11 fueron sometidos al último “gran examen físico” antes de iniciar el vuelo. El científico espacial alemán y director del Centro Marshall de Aeronáutica, Werner von Braun señaló que “Confiamos en que resultará un éxito total como el del Apolo 10 (…) Ya está a punto de terminar la etapa de los jóvenes héroes del espacio (…) Tendremos estaciones espaciales habitadas por toda clase de gente, que viajará a órbita en calidad de pasajeros, aunque la tripulación estará formada por pilotos debidamente entrenados”. Mientras el personal de lanzamiento llenaba la nave de mando “Colombia” con helio y oxígeno además de someter a presión los tanques de combustibles del módulo “Eagle”.

Ensayan la “Operación descenso”

Descender controladamente el vehículo de alunizaje de la Apolo 11 era una tarea difícil. Armstrong y Aldrin ensayaron miles de veces las fases más críticas de su vuelo dentro del módulo lunar. Michael Collins, que no descendería en la Luna, voló un avión a retropropulsión T-38 que afinó su experiencia para el viaje. La cuenta regresiva o “count dawn” fue detenida como estaba previsto. El receso fue de 12 horas. En total, la cuenta regresiva duró 93 horas

El despegue

Los experimentados astronautas se levantaron de madrugada y después de chequeos médicos de rigor, desayunaron y fueron asistidos para introducirse en los complejos trajes espaciales. Luego fueron conducidos a la plataforma de lanzamiento, donde entraron a la cápsula.

Los relojes marcaban en Argentina las 10:32 de la mañana del miércoles 16 de julio de 1969. La cuenta regresiva había culminado y la gran hazaña del hombre, poner un pie en la superficie de la Luna, recién comenzaba.

El cohete Saturno 5 y sus tres tripulantes, Neil Armstrong, Michael Collins y Edwin Aldrin, dejaron la Tierra acompañados por un ensordecedor sonido y una gigantesca llama roja. Los cinco motores del vehículo espacial en conjunto alcanzaron una velocidad de 40 mil kilómetros por hora, impulso necesario para vencer la fuerza de gravedad.

El Saturno 5 impulsó la nave a 160 metros de altura, colocándola en la órbita del planeta, y desechando luego las tres etapas del cohete en la medida que cada una agotaba su combustible de oxígeno e hidrógeno líquidos. El lanzamiento del Saturno 5 no revistió ningún problema.

En Cabo Kennedy, ex Cabo Cañaveral, el mar de turistas se retiraba (se dice que fue más de un millón de automóviles que crearon uno de los tacos más grandes de la historia) y los medios de comunicación trabajaban frenéticamente tratando de relatar lo sucedido.

El día presentaba las condiciones climáticas características de la zona: caluroso, húmedo y algo nublado.  La nave entró en órbita a una altura de 185 kilómetros sobre la superficie terrestre cuando la cosmonave madre alcanzaba una velocidad de 27.300 kilómetros por hora.

La nave espacial permaneció volando en torno a la Tierra hasta las 13:16 hrs (Argentina). La Apolo 11 hizo funcionar el cohete de la tercera etapa. En ese instante aumentó la velocidad, a casi al doble de la que llevaba, para iniciar el viaje de 400 mil kilómetros, aproximadamente a la Luna. El objetivo era salir de la gravedad terrestre.

Con impecable precisión los astronautas iban directo a la Luna. Cuando habían transcurrido 21 horas desde que dejaron la plataforma de despegue ya habían recorrido 170.000 km. La velocidad era de 7.100 kilómetros por hora.

Un día después del lanzamiento, con una tripulación mucha más relajada y bromista, la misión cruzó el punto medio del viaje. La velocidad promedio era casi de 5.800 kilómetros por hora. El motor principal de la Apolo 11 se encendió por espacio de tres segundos y se colocaron en una trayecto más preciso hacia la Luna.

El 19 de julio el Centro Espacial de Houston anunció que la misión Apolo entró en la fuerza gravitacional de la Luna, cobrando aún mayor velocidad. Los astronautas durmieron tranquilos, no presentando problemas de ningún tipo. Se encontraban a unos 15.000 mil kilómetros del objetivo.

El desayuno estuvo compuesto de tocino y puré de manzanas.

El 20 de julio, Edwin Aldrin pasó por la compuerta que comunica la cápsula del “Columbia” con el módulo de alunizaje “Águila”, iniciando las maniobras de control final para el descenso. La operación comenzó cuando se encontraban sobrevolando la parte no visible de la Luna. Luego Neil Armstrong pasó a reunirse con Aldrin. Mientras este último se ponía su traje espacial, el comandante de la misión hizo funcionar las baterias solares

LA MISION APOLO XI A LA LUNA NEIL ARMSTRONG PISA LA LUNA

Etapas del viaje de ida y vuelta Tierra-Luna

El hombre en la Luna

El 16 de julio de 1969 Neil Armstrong, Michael Collins y Edwin “Buzz” Aldrin, comenzaban la aventura más importante de sus vidas, que tendría como escenario la Luna. Aquel día despegó la histórica nave Apolo 11.

El viaje hacia la Luna no presentó dificultad alguna. Todo se desarrollaba con tal precisión y normalidad, que la tripulación del Apolo 11 incluso tuvo el ánimo de bromear con los controladores de Houston.

El domingo 20 de julio, ya en la órbita lunar, Aldrin y Armstrong se trasladaron al módulo “Águila”. Michael Collins cerró la compuerta y permaneció pilotando el módulo de control “Columbia”, esperando la separación de la cápsula y apoyando las maniobras del módulo lunar.

Cuando el “Águila” sobrevoló la superficie de la Luna levantó polvo lunar lo que restó visibilidad a las maLA MISION APOLO XI A LA LUNA NEIL ARMSTRONG PISA LA LUNAniobras de aproximación que el comandante Neil Armstrong había asumido de forma manual para evitar el riesgo de vuelco del alunizaje automático. Habían transcurrido 4 días desde el comienzo del viaje.

El “Águila” descendió a la Luna y se posó sobre su superficie el 20 de julio de 1969, en la zona llamada Mar de la Tranquilidad.

Cuando el comandante descendió por la escalerilla de 9 peldaños, tiró de un anillo que abrió una compuerta de la cual salió una cámara de televisión que transmitió a la Tierra las primeras imágenes desde el satélite.

Eran exactamente las 10:56 P.M. cuando Armstrong descendió por una escalerilla con su traje espacial y puso el pie izquierdo sobre la Luna. Sus primeras palabras fueron “Estoy al pie de la escalerilla. Las patas del Águila sólo han deprimido la superficie unos cuantos centímetros. La superficie parece ser de grano muy fino, cuando se la ve de cerca. Es casi un polvo fino, muy fino. Ahora salgo de la plataforma”. Luego diría la frase histórica:“Este es un pequeño paso para el hombre; un salto gigantesco para la Humanidad”.

LA MISION APOLO XI A LA LUNA NEIL ARMSTRONG PISA LA LUNA

FICHA RESUMIDA DE LA MISIÓN APOLO XI

COMANDANTE DE LA MISIÓN: Neil A. Armstrong, 38 años, civil

PILOTO DEL MODULO DE COMANDO: Michael Collins, 38 años, teniente coronel de La Fuerza Aérea de Los Estados Unidos

PILOTO DEL MÓDULO LUNAR: Eugene “Buzz” Aldrin, 39 años, coronel de La Fuerza Aérea de los Estados Unidos

FECHA DE LANZAMIENTO: 16 de julio de 1969 13:32:00 UTC

FECHA DE ALUNIZAJE:  20 de julio de 1969 20:17:40 UTC

PRIMER PASO EN SUPERFICIE: 21 de julio de 1969 02:56:15 UTC

LUGAR DEL ATERRIZAJE: Mar de La Tranquilidad (Mare Tranquilitatis)

COORDENADAS LUNARES: Latitud 8.5 N, longitud 31.4 E, diámetro 873 Km.

TIEMPO DE ACTIVIDAD FUERA DEL VEHICULO ESPACIAL: 2 horas 31 minutos

ÁREA RECORRIDA: 250 metros

MUESTRAS DE ROCAS RECOLECTADAS: 21,7 kilos

CARGAMENTO ESPECIAL: placa conmemorativa, dos banderas de Estados Unidos, banderas (tamaño sin precisar) de otros países y de los estados de la Unión Americana.

DURACIÓN TOTAL DE LA MISIÓN: 195 horas 18 minutos 35 segundos

MINERAL CONMEMORATIVO: La armalcolita es un compuesto de magnesio, hierro, titanio y oxígeno. El mineral es una muestra de la zona del Mar de la Tranquilidad recolectada por la misión Apolo 11. Fue bautizado con las primeras letras de los apellidos de la tripulación: Armstrong Aldrin y Collins. La fórmula química es (Mg,Fe++) Ti205. También en la Tierra, por ejemplo, en Islandia se encuentra este mineral.

ANÉCDOTA: El desplazarse dentro de la gravedad lunar dificultaba los movimientos. Así, cuando a Aldrin se le resbaló de las manos un rollo de película, tuvo el privilegio de decir la primera palabrota’ enel satélite: “Damnl” (maldita sea). Él también posee otro récord curioso, fue el primero en orinar en la Luna, aunque lo hizo dentro de un contenedor en su traje.

EQUIPO PESADO : El trole para la caminata espacial modelo A-7L fue construido por la International Latex Corporation (ILC), de Dover, Estados Unidos. El peso total combinado con la mochila del equipo de sustentación era de 80 kilos. LO trabajó en el proyecto desde 1962, empleado como subcontratista de la Hamilton Standard, con un total de 50 personas dedicadas tiempo completo al diseño. Entre otros productos, ILC se dedicó a fabricar cascos para bomberos, policías y motociclistas.

INTELIGENCIA ARTIFICIAL: Las computadoras a bordo del módulo lunar fueron construidas por Raytheon. contratista militar del gobierno de los Estados Unidos, en colaboración con el Laboratorio de Instrumentación del Instituto Tecnológico de Massachusetts (MIT). Las denominadas Apolo Guidance Computer (AGC) fueron las primeras en la historia en emplear circuitos integrados. El software de aplicación para efectuar las rutinas de vuelo fue diseñado por Peter Adler y Don Eyles, del Laboratorio Drapler del MIT, en aquel momento eran las personas más jóvenes involucradas en el proyecto.

BLOQUEADOR SOLAR: Con el objetivo de proteger a los pilotos de las temperaturas extremas, en los años cincuenta, el doctor Carl Marvel produjo, para la Fuerza Aérea de Estados Unidos, el primer polibenzimidazol(PH) sintético. Después de la tragedia del Apolo 1, en enero de 1967 a NASA dirigió sus esfuerzos en el desarrollo de una línea de textiles fabricados con este polímero para uso en vehículos y trajes espaciales. El resultado fue una fibra sintética no inflamable, que mantenía su fuerza y flexibilidad ante la exposición a las llamas, resistente a las altas temperaturas, abrasivos y químicos. A partir de 1978, esta tecnología se aplicó al diseño de trajes para bomberos, pilotos de automovilismo deportivo y aviación militar.

EN CASO DE EMERGENCIA: Debido a los peligros inherentes de la misión, la NASA y el gobierno de Estados Unidos estaban preparados para enfrentar cualquier situación inesperado incluyendo una catástrofe. El plan de emergencia contemplaba cortar la comunicación con los astro nautas y dejarlos morir dignamente.

PRUEBA FEHACIENTE: La leyenda urbana de que el alunizaje es un elaborada fraude carece de sustento. Una de las prueba es la naturaleza única de las rocas que los astronautas trajeron de vuelta. Éstas no contienen agua en la estructura de sus cristales y tampoco otras sustancio comunes en la Tierra, asimismo, poseen partículas de vidrio ‘fresco’ producido por actividad volcánica. Las rocas lunares están salpicadas de cráteres provoca dos por el impacto de meteoritos –algunos de 3.000 millones de años de antigüedad– algo que sólo puede suceder en un lugar con poca atmósfera.

ESENCIA SELENITA. después de la caminata lunar y de reingresar al Interior del módulo de exploración, los astronautas percibieron un olor a pólvora o ceniza de fogata, el Aroma del polvo lunar.

FRASE CÉLEBRE: las famosas palabras “éste es un pequeño paso para el hombre, un gran salto para la humanidad’, atribuidas a Neil Armstrong al momento de apoyar un pie en la Luna, son producto de un afortunado error de comunicación. En realidad, lo que dijo fue “éste es un pequeño paso para un hombre…”. Sin embargo, durante la transmisión, la interferencia electrostática omitió el artículo indefinido ‘a’ (un, en español) de la frase “thas one small step faro man; one giant leap for mankind’, cambiando así el sentido de la oración y, en cierta forma, mejorándola.

REY DE LOS COHETES: El Saturno y, tan alto como un edificio de 36 pisos, estaba Constituido por tres millones de piezas y fue desarrollado en el Centro Espacial Marshall bajo la dirección de Werhner von Braun. Se construyeron y lanzaron 15 de ellos: ninguno falló.

A LA HORA DE HACER CUENTAS: El costo total del programa Apolo en 1969 fue de 25.400 millones de dólares, el equivalente a 135.000 millones de dólares actuales. En el desarrollo de lo nave se destinaron 28.000 millones de dólares de hoy: 17.000 millones en los módulos de comando y servicio, y 11.000 en el módulo de exploración.

TODAS LAS MISIONES APOLO A LA LUNA

Apolo 1-6 1966-1968:

Vuelos de prueba sin tripulantes de los sistemas Saturno y Apolo.

Apolo 7 Octubre 1968 Walter Schirra (comandante)

Primer vuelo tripulado del módulo de Don Eisele comando (sólo en órbita terrestre). Walter Cunningham

Apolo 8 Diciembre 1968 Frank Borman (comandante)

Primera prueba del módulo de comando 1968 James Lovell en órbita lunar; primer vuelo tripulado
William Anders alrededor de la Luna.

Apolo 9 Marzo 1969 James McDivitt (comandante) MC—Gumdrop Russel Schweickart (piloto ML) ML—Spider David Scott (piloto MC)

Primera prueba de vuelo del aparato espacial Apolo completo, con inclusión de! módulo lunar; se probó con éxito e! encuentro y el acople sólo.™ en órbita terrestre.

Apolo 10 Mayo 1969 Tom Stafford (comandante) MC—Charlie Brown

Primer vuelo del aparato espacial Eugene Cernan (piloto ML) ML— Snoopy Apolo completo, en órbita lunar; el John Young (piloto MC) encuentro y el acoplamiento se probaron exitosamente alrededor de la Luna.

Apolo 11 Julio 1969 Neil Armstrong (comandante) MC—Columbia

Primer descenso tripulado en la Luna Edwin Aldrin (piloto ML) ML-Eagle (20 de julio de 1969, en el Mar de la Michael Collins (piloto MC) Tranquilidad). 21 1/2 horas sobre la Luna; se recolectaron muestras de rocas y se realizaron experimentos fundamentales durante la caminata lunar de 2 1/2 horas

Apolo 12 Noviembre 1969 Charles Conrad (comandante) MC—Yankee Clíper Segundo descenso en la Luna, en el 1969 Alan Bean (piloto ML) ML—Intrepid Mar de las Tormentas cerca del Richard Cordón (piloto MC) Surveyor 3; 31 1/2 horas en la Luna; se recolectaron muestras de rocas y se realizaron experimentos durante dos caminatas lunares de 3 horas cada una; se visitó el Surveyor 3 y un trozo de sonda espacial retornó a la Tierra.

Apolo 13 Abril 1970 James Lovell (comandante) MC—Odyssey Fred Raise (piloto ML) ML—Aquarius John Swigert (piloto MC)

El descenso en la Luna se desechó después de una explosión en el módulo de servicio; se utilizó el módulo lunar como habitáculo durante la mayor parte del resto del viaje y el artefacto espacial voló alrededor de la Luna y retornó a la Tierra utilizándose el motor de! módulo lunar; la tripulación aterrizó ilesa en el móduio de comando

Apolo 14 Febrero 1971 Alan-Shepard (comandante) Edgard Mítchell (piloto ML) Stuart Roosa (piloto MC) MC—Kitty Hawk

Tercer descenso en la Luna en la ML—Aníares región de Fra Mauro. 33 1/2 horas sobre la Luna; se recolectaron muestras de rocas y se realizaron experiencias en dos caminatas lunares que duraron un total de 9 horas; se visitaron cráteres a un kilómetro y medio de distancia.

Apolo 15 Julio-Agosto 1971 David Scott (comandante) James Irwin (piloto ML) Alfred Worden (piloto MC) MC—Endeavour

Cuarto descenso en la Luna en los ML—Falcon Montes Apeninos cerca de Hadley Rule; 3 días en la Luna; se hicieron visitas a Hadley Rule y al pie de los Apeninos con el vehículo Lunar Rover durante 3 excursiones que duraron 20 horas en total.

Apolo 16 Abril 1972 John Young (comandante) MC—Casper Charles Duke (piloto ML) ML-Orion Tomas Mattingly (piloto MC)

Quinto descenso en la Luna, en la meseta de Descartes; 3 días en la Luna; 3 excursiones que duraron en tota! 19 horas hechas con el Lunar Rover a las montañas y cráteres alejados varios kilómetros.

Apolo 17 Diciembre 1972 Eugene Cernan (comandante) MC—Challenger 1972 Harrison Schmitt (piloto ML) ML-America Ronald Evans (piloto MC)

Sexto descenso en la Luna en el valle de las montañas Taurus Littrow. Schmitt, un geólogo, fue el primer científico astronauta sobre la Luna; última misión del proyecto Apolo.

Los diferentes Viajes a la Luna

Nave País Misión Fecha
Sputnik1 Unión Soviética Satélite artificial 4 de octubre de 1957
Explorer 1 Estados Unidos Satélite norteamericano en órbita. 31 de enero de 1958
Lunik 2 Unión Soviética Primera nave que impacta la superficie lunar. 12 de septiembre de 1959
Lunik 3 Unión Soviética Toma la primera fotografía del lado oscuro de la Luna. 4 de octubre de 1959
Ranger 4 Estados Unidos Vehículo norteamericano impacta en la Luna. 21 de abril de 1962
Lunik 9 Unión Soviética Alunizaje en forma controlada de la nave automática. 3 de febrero de 1965
Lunik 10 Unión Soviética Primer vehículo puesto en órbita lunar. 31 de marzo de 1966
Apolo 4 Estados Unidos Vuelo de prueba (cápsula sin tripulación a bordo). 28 de febrero de 1968
Apolo 7 Estados Unidos Viajan los astronautas Walter Schirra, Don Eisele y Walter Cunningham 11 de octubre de 1968
Apolo 8 Estados Unidos Llegan a órbita lunar los astronautas Frank Bormann, William Anders y James Cowell. 24 de diciembre de 1968
Apolo 11 Estados Unidos Los astronautas Neil Armstrong, Buzz Aldrin y Michael Collins llegan a la Luna. 20 de julio de 1969
Apolo 12 Estados Unidos Alunizan Charles Conrad y Alan Bean. 19 de noviembre de 1969
Apolo 13 Estados Unidos Se suspende la misión. En el viaje a la Luna explota un depósito de oxígeno. 11-17 de abril de 1970
Apolo 15 Estados Unidos Los astronautas David Scott y James Edwin recorren 30 kilómetros de la superficie lunar en el vehículo eléctrico “Bel Jeep”. Se toman las primeras imágenes a color. 8 de febrero de 1971
Apolo 16 Estados Unidos Es la quinta expedición a la Luna. John Young y Charles Duke permanecen tres días en la superficie selenita. 20 de abril de 1972
Apolo 17 Estados Unidos Sexta y última expedición a la Luna, realizada por los astronautas Eugene Cernan y Harrison Smith 11 de diciembre de
Von Braun y el Saturno 5

Etica del Desarrollo Tecnologico del Siglo XX Cuestionamiento al Avance

Etica del Desarrollo Tecnológico del Siglo XX

Durante la Segunda Guerra Mundial el avance técnico y científico se desarrolló sorprendentemente y fue aplicado además a todas las esferas del conocimiento humano, las manifestaciones artísticas, la comunicación, los transportes y la mercadotecnia. Todo se ha permeado, y no podemos explicarnos un mundo sin estos elementos. Avanzan tan rápido que los conocimientos actuales serán obsoletos en un corto tiempo.

El uso de la ciencia y la técnica nos ha llevado también a reflexionar sobre cuestiones éticas. Han sido utilizadas para construir presas, puentes y ciudades; para curar enfermedades; para hacer rápidos y eficaces los medios de comunicación; para acelerar y mejorar los cultivos y la producción de satisfactores. Sin embargo, también han sido utilizadas en las guerras recientes para producir armas de alto poder, tanto químicas como biológicas.

Además, han aumentado la brecha que separa a los países desarrollados de los subdesarrollados, convirtiéndose en la diferencia del poder y la riqueza de unos, y la sumisión y pobreza de otros. Pero, ¿ hasta qué punto pueden ser utilizados los conocimientos técnicos y científicos?

Nace la sociedad de consumo, y el mismo se infiltró en todas las esferas, transformando hábitos y normas ancestrales, de manera incluso revolucionaria, tanto en el mundo occidental como oriental. Obviamente, las generaciones jóvenes fueron las que más resintieron el impacto de esta cosmovisión y del consumismo general, que llenó todo el horizonte de su existencia histórica.

Lo anterior fue sustentado por diferentes desarrollos tecnológicos que pasaron a formar parte de la vida cotidiana, entre ellos:

• La computadora: que en cierta forma se puede considerar el invento más significativo de la segunda mitad del siglo XX. Hace 50 años comenzaron a comercializarse los primeros modelos de computadoras. En su mayoría grandes aparatos que ocupaban habitaciones enteras y eran capaces de realizar sólo tareas rudimentarias. A partir de los últimos años de la década de los años 70, fue cuando la computadora se introdujo en los hogares y su uso revolucionó el estilo de vida de la sociedad.

Esta red de redes abrió las posibilidades para que las personas, desde diferentes lugares del planeta, pudieran comprar desde un libro hasta un auto, buscar cualquier tipo de información, o conectarse en video al comercializarse los primeros modelos de computadoras.

El rápido desarrollo de los microprocesadores: -el corazón de las computadoras-que aumentaron su capacidad paulatina y rápidamente a través del tiempo, lograron que las computadoras penetraran en todos los aspectos de la vida, desde la simple suma matemática de un alumno en la escuela hasta el complejo diagnóstico de un médico en un hospital.

• Internet, la red de redes: o también conocida como la autopista de la información, el símbolo de la era global, que desde su explotación comercial dejó de ser sólo una tecnología de vanguardia para la transmisión de datos militares y se convirtió en el medio que utilizan decenas de millones de personas para intercambiar toda clase de información, desde datos económicos hasta simples opiniones.

• La radio y la televisión: que desde su invención fueron impactantes, ampliaron su capacidad como medios de comunicación para recibir información de todo el mundo, a todas horas del día, y llegaron a establecer modelos de convivencia de otras culturas. En especial, la televisión fue esencial para el mantenimiento de la sociedad de consumo de masas, por ser un vehículo efectivo para la publicidad. Todos estos medios y canales multiplicaron las posibilidades de informarse; sin embargo, el problema que suscitaron ante el bombardeo masivo de información, fue la dificultad para seleccionarla y analizarla adecuadamente.

Los problemas al inicio del nuevo milenio

A pesar de este mundo tecnológica y científicamente desarrollado, la humanidad enfrenta graves problemas, entre los que fueron trascendentes:

• La existencia de un mundo dual: por un lado, la diferencia entre países ricos y pobres; por otro, la desigualdad de riqueza en el seno de las sociedades de los países ricos. Más de las tres cuartas partes de la humanidad vivía en países de América Latina, Asia y África, que no habían alcanzado un grado de desarrollo suficiente y la mayoría de sus habitantes apenas podían sobrevivir. Entre ellos existían grandes diferencias: algunos se encontraban en vías de desarrollo, pero otros vivían sumidos en la pobreza. El hambre, la enfermedad y el analfabetismo continuaban siendo graves carencias sociales.

• Una nueva sociedad internacional: más vertebrada, en la medida en que se fueron institucionalizando las relaciones internacionales multilaterales, y más compleja por la incorporación de nuevos actores, como los organismos internacionales, las organizaciones no gubernamentales, las multinacionales o las internacionales de los partidos. En última instancia, una sociedad internacional que expresaría en su totalidad la interdependencia y la globalidad de los fenómenos y los acontecimientos del mundo contemporáneo.

• Las sociedades de los países ricos: vieron surgir en su seno un conjunto de graves problemas entre los que destaca la marginación social. En las sociedades desarrolladas la pobreza afectaba fundamentalmente a los desempleados, los inmigrantes (sobre todo los procedentes de los países sub-desarrollados) y las mujeres.
Paradójicamente, un elevado número de emigrantes se concentraban en las fronteras de los países ricos, en busca de mejores condiciones de vida. El aumento de la intolerancia y del racismo en los países desarrollados convirtió a muchos extranjeros inmigrantes en grupos marginados.

• Los graves problemas del consumo y el tráfico de drogas: alcanzaron cotas inimaginables entre los sectores jóvenes de muchos países desarrollados. Junto a ello, el temor a enfermedades nuevas, como el caso del síndrome de inmunodeficiencia adquirida (SIDA), afectaron de forma dramática a los países desarrollados y subdesarrollados. A estas nuevas epidemias se sumaron otras tradicionales, como la malaria, que ocasionó casi tres millones de muertos cada año en las poblaciones africanas, asiáticas y sudamericanas.

• El peligro de un desarrollo industrial: desenfrenado provocó graves problemas ecológicos, y sigue siendo en este nuevo siglo un riesgo que amenaza con una degradación irreparable del medio ambiente.

• Políticamente, aunque el sistema democrático: se consideró como el “menos malo” de los sistemas políticos, los países bajo este régimen no lograron satisfacer las demandas de sus ciudadanos. Las críticas a lo anterior, realizadas en gran medida por destacados representantes de la política y por muchos de los militantes en los nuevos movimientos sociales, se basaron en el deseo de re-definir los principios de la participación política, de la gestión de los asuntos del Estado y de la construcción de sociedades más justas.

Al comienzo del tercer milenio, los aspectos más destacados fueron la globalización de las relaciones entre los pueblos, los progresos en la técnica y la ciencia y la revolución de las comunicaciones, pero también las profundas desigualdades, con conflictos endémicos y con un crecimiento industrial que puso en peligro el medio ambiente, por lo que se inició una esforzada labor a favor de la aplicación de las teorías de desarrollo sostenible.

Pero, sobre todo ello, cabe destacar el progresivo aumento de la solidaridad humanitaria que surgió de forma espontánea ante la presencia de los graves problemas que afectaban al mundo contemporáneo.

La combinación entre una verdadera actitud solidaria e igualitaria y la constante crítica ante todo exceso de poder y ante la injusticia sería la que permitiera construir un mejor siglo XXI.

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

El desarrollo cientifico y grandes inventos en el siglo XX Carrera Espacial

Los inventos en el siglo XX:  Desde el siglo XVII, momento en que se sitúa el nacimiento de la ciencia moderna, el progreso científico ha sido continuo. Pero es a lo largo del siglo XX cuando la investigación y la aplicación técnica de los conocimientos científicos se han desarrollado a un ritmo tan acelerado que ha transformado radicalmente la vida de los seres humanos.

En los últimos 20 años se han realizado más descubrimientos que en el resto de la historia de la Humanidad y la incorporación de principios científicos a tecnologías aplicables a la vida cotidiana se está produciendo a una velocidad incomparable con la del pasado.

La primera mitad del siglo veinte se caracterizó por el empleo de las mismas fuentes energéticas que en el siglo anterior, con el desarrollo adicional de la electricidad industrial y la búsqueda del dominio de la energía atómica.

En este periodo, las principales innovaciones tecnológicas fueron: en la industria, la invención creciente de aparatos domésticos, la obtención de nuevos materiales de construcción como el hormigón armado y el cristal, de fibras sintéticas para la producción textil, y de accesorios plásticos; en medicina, el hallazgo de sustancias contra las infecciones, como la penicilina y otros antibióticos; la mejora de los conocimientos en agricultura, alimentación y técnicas de conservación de alimentos; en el transporte la producción en serie del automóvil, que se convirtió en el medio predominante de locomoción, la invención del aeroplano; en los medios de comunicación el desarrollo de la cinematografía así como de la televisión creada a partir del invento del cinescopio en los años veinte.

En su segunda mitad, se ha roto con la división entre la ciencia abstracta y la aplicación técnica, con lo que la investigación científica deriva rápidamente en aplicaciones prácticas, primero en campos reducidos y, posteriormente, en la producción industrial de bienes de consumo. Así, los progresos científicos están cada vez más en el origen de los progresos técnicos, que constituyen uno de los principales motores del crecimiento económico. Además, la ciencia ha ampliado sus campos de investigación. El desarrollo, por ejemplo, de la estadística y de la informática, ha permitido transformar los métodos de cálculo y de análisis, que cada vez son menos lineales, con mayor atención a la multiplicidad de variables, con intervención de lo aleatorio y con análisis complejos. Todo ello permite aplicar métodos científicos también en las ciencias humanas (demografía, lingüística, estadística aplicada al análisis sociológico, etc.).

Desde finales de la Segunda Guerra Mundial los estudios sobre energía atómica procedente del uranio y el plutonio, desencadenaron una acelerada carrera armamentista protagonizada principalmente por Estados Unidos y la Unión Soviética, con la consecuente amenaza para la vida en el planeta que inauguró una época de temores ante una posible destrucción masiva, pero también amplió las posibilidades de desarrollo para la ciencia, con proyectos tecnológicos a gran escala. La Guerra Fría impulsó la carrera espacial y con ella la colocación de satélites artificiales que, aparte de su función militar, revolucionaron la tecnología de telecomunicaciones y prepararon el camino para la exploración del espacio donde se ha producido un logro tecnológico espectacular, al permitir que por primera vez los hombres pudieran abandonar la biosfera terrestre y regresar a ella.

Microelectrónica. En los primeros años de la década de 1950 comenzó a desarrollarse la microelectrónica como efecto de la aparición del transistor en 1948. Sin embargo, la microelectrónica sólo fue utilizada por el público en general hasta los años setenta, cuando los progresos en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la exploración del espacio, llevó al desarrollo del circuito integrado. El mayor potencial de esta tecnología se encontró en las comunicaciones, particularmente en satélites, cámaras de televisión y en la telefonía, aunque más tarde la microelectrónica se desarrolló con mayor rapidez en otros productos independientes como calculadoras de bolsillo y relojes digitales.

Tecnología computacional. En relación con la microelectrónica fue de gran importancia el surgimiento de la industria computacional; con la caída de los precios y el perfeccionamiento del chip de silicio producido en serie, surgieron las computadoras personales que, al poder colocarse sobre un escritorio sin necesidad de estar vinculadas a una unidad de procesamiento mayor, pudieron realizar muchas de las tareas de las computadoras centrales que eran mucho más caras.

Al contrario del impacto social negativo que algunos temían sobre el empleo laboral, las computadoras personales exigieron una capacidad de producción totalmente nueva y crearon nuevas fuentes de trabajo, en las ventas al menudeo, en la formación y apoyo técnico, en programación de sistemas tanto para el mercado de consumo como para las tareas especializadas para servicio a clientes individuales.

Durante la cuarta generación de computadoras (1982-1989), la medicina y la comunicación lograron un avance significativo. El hardware mejoró sustancialmente con los llamados sistemas circuitales distribuidos, las memorias de burbujas y los discos ópticos, obteniendo imágenes para uso médico y creando poderosísimas herramientas para la auscultación del paciente. En la quinta generación (1990-) o generación de las máquinas inteligentes se utiliza el concepto de inteligencia artificial (lA), con velocidades enormes por segundo.

REDES E INTERNET: El medio de comunicación conocido como Internet, que ha revolucionado el nutricio de las telecomunicaciones gracias a su capacidad de transmitir y obtener información de manera instantánea a través de computadoras personales, comenzó a desarrollarse a finales de los años sesenta, en el contexto de la Guerra fría, como una red informática que a su vez conectaba redes de computadoras de varias universidades y laboratorios de investigación en Estados Unidos, bajo el patrocinio de la Agencia de Programas Avanzados de Investigación (ARPA, de acuerdo a sus siglas en inglés) del Departamento de Defensa de Estados Unidos. En 1989 fue desarrollado World Wide Web por el informático británico Timothv Berners-Lee para el Consejo Europeo de Investigación Nuclear.

En los años noventa, gracias a los avances de la llamada “supercarretera de la información” se ha dado un vertiginoso crecimiento en la cantidad de usuarios de Internet, que ha cambiado de forma sorprendente la comunicación a distancia y ha colaborado a satisfacer las necesidades creadas por el mundo globalizado, al permitir que personas e instituciones puedan compartir información y trabajar en colaboración. El contenido disponible en Internet ha aumentado con gran rapidez y variabilidad, lo que permite encontrar fácilmente cualquier información, además de que posibilita la realización de transacciones económicas de forma segura, lo que ha tratado lluevas grandes oportunidades para el comercio.

Sin embargo, el crecimiento explosivo de Internet ha hecho que se planteen importantes cuestiones relativas a los riesgos que implica. El aumento de las páginas de Web conteniendo textos y gráficos en los que se denigraba a las minorías étnicas, se fomentaba el racismo o se exponía material pornográfico, ha suscitado fuertes críticas y ha conducido a peticiones de censura dirigidas a los suministradores de Internet para que voluntariamente cumplieran con determinados criterios. Otro elemento negativo de Internet se ha manifestado en la amenaza, hecha realidad en varias ocasiones, de que personas irresponsables inserten “virus” en la red causando graves daños en los equipos computacionales en el ámbito mundial.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letras escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museos, estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuentan con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y listo.

La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza. Internet constituye un instrumento importante para la movilización de capitales, ya que éstos pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Fibras ópticas: En la llamada “era de la información” no puede dejarse de lado el papel que desde los años ochenta ha tenido en diversas aplicaciones el uso de Fibras ópticas de cristal. Dada su capacidad para transmitir imágenes, las fibras ópticas se utilizan mucho en instrumentos médicos para examinar el interior del cuerpo humano y para efectuar cirugía con láser.

En telefonía, las fibras ópticas han sustituido progresivamente a los cables coaxiales utilizados anteriormente; los mensajes se codifican digitalmente en impulsos de luz y se transmiten a grandes distancias, de manera que ofrecen mayores posibilidades para transportar un volumen mucho mayor de información con mayor velocidad de transmisión.

La aplicación más característica de los cables de fibra óptica para la transmisión de luz se da en el campo de la medicina; específicamente, en la iluminación de instrumentos como los endoscopios, destinados al examen visual de cavidades o conductos internos del organismo. Los haces dé fibra óptica constituyen, en este caso, sistemas flexibles. Su principal ventaja es la posibilidad de hacer llegar la luz hasta el punto deseado, sin que ello implique una aportación de calor.

Biotecnología. En el desarrollo de la biotecnología la técnica más importante es la ingeniería genética. Ésta se originó a partir de las investigaciones sobre la estructura del ADN realizadas por Francis Crick y James Dewey Watson en 1953. En la década de 1970 se llevó a cabo la transferencia de genes, es decir, la posibilidad de insertar genes de un organismo en otro, técnica de gran potencial que ha traído importantes beneficios en la lucha contra enfermedades como la hemofilia, la diabetes, la hepatitis o el SIDA. En 1973, 20 años después de que james Watson y Francis Chick publicaron el estudio de las bases moleculares del código genético, se insertó ADN extraño en la célula de un huésped, lo cual se conoce como donación de genes. El nacimiento de la oveja Dolly en 1997 fue posible gracias a la combinación del núcleo de una célula adulta de glándula mamaria con un óvulo sin núcleo, un proceso denominado “clonación

Los avances de la ingeniería genética que sin duda son de gran importancia para la ciencia médica, han provocado reacciones contrarias por parte de personas y grupos que advierten sobre los riesgos de orden ético que implica la donación aplicada a los seres humanos, como también se ha cuestionado otra innovación biotecnológica, la fertilización in vitro, debido a lo que puede significar para los valores religiosos la manipulación de embriones humanos, situación que en algunos países ha llevado al establecimiento de restricciones de carácter legal.

La biotecnología se divide en cuatro grandes áreas: alimentación, salud, medio ambiente e industria. En el campo de la salud, uno de los más importantes resultados es la fabricación de insulina humana a partir de una bacteria (1978). La insulina es una hormona proteica que se genera en el páncreas, y por su ausencia el azúcar se concentra en la sangre; a esta deficiencia se le conoce como diabetes, enfermedad que padecen millones de personas en el mundo. Actualmente se buscan nuevos tratamientos para la curación de ciertas enfermedades, sobre todo del cáncer.

MEDICINA: La medicina es un buen ejemplo del desarrollo científico y tecnológico de nuestro tiempo. Los beneficiarios de tales adelantos no dependen del país al que pertenecen, sino de su situación socioeconómica, geográfica o hasta racial. Los estudios e implantación de órganos se deben a la aclaración de los complejos fenómenos de la inmunología, lo cual permite el uso médico de los transplantes de órganos desde 1954, fecha en que se realizó el primer transplante de riñón. En la actualidad es posible el transplante de cualquier órgano.

En 1895 se utilizaron los rayos X para estudiar internamente al paciente. Son los precursores de la imagenología actual, utilizada en la resonancia magnética y nuclear, la tomografía axial computarizada, el ultrasonido diagnóstico y la medicina nuclear en todas sus formas. Técnicas importantes son también la angiografía por sustracción digital y otras de tipo terapéutico como la angioplastía, el marcapaso artificial que se instaló por vez primera en Suecia en 1958, la circulación y la diálisis extra-corpóreas.

Otro gran avance fueron las innovaciones en endocrinología, especial el descubrimiento de la insulina, que permitió salvar a muchos diabéticos de una muerte segura. También fue decisivo el hallazgo de la cortisona, que constituye un poderoso agente antiflamatorio y antialérgico.

Con el descubrimiento de los grupos sanguíneos y su tipificación, la transfusión de sangre se convirtió en un procedimiento seguro y eficaz, completada con el desarrollo de una sustancia -la heparina– que impide la coagulación sanguínea. Comenzaron también a aplicarse terapias efectivas para trastornos neurológicos, como la epilepsia y el mal de Parkinson.

En 1955, el estadounidense Jonas Salk descubrió una vacuna contra la poliomelitis a partir del trabajo con virus muertos. Diez años después, su compatriota Albert Sabin produjo una vacuna segura de virus vivos que sustituyó a la cíe su predecesor, erradicando así la última gran plaga infantil. También se descubrió que el sistema inmune era el causante de la enfermedad por factor RH y responsable del fracaso de los transplantes de órganos, técnica intentada en 1902 por Alexis Carrel pero que cobró fuerza en 1967, cuando el doctor Christian Barnard realizó en Sudáfrica el primer trasplante de corazón.

Los trasplantes, la sustitución de huesos y tejidos, los medicamentos antirrechazo y los avances en general de la tecnología médica -aplicaciones del rayo láser, la computación y la robótica-, junto a los éxitos de la anestesiología, ofrecieron un gran desarrollo de la cirugía y, en especial, de la microcirugía. También apareció la biotecnología moderna, aplicada al desarrollo de sustancias que elevan las defensas en caso de patologías cancerígenas. Sin embargo, la revolución sanitaria ha estado marcada por la desigualdad: sólo un 16% de la población mundial goza plenamente de sus éxitos. Según la Organización Mundial de la Salud, los países industrializados, que representan un 10% de las enfermedades, consumen el 90% de los recursos sanitarios.

El descubrimiento de la fisión del uranio culminó un proceso iniciado en 1896, cuando Henri Becquerel descubrió la radioactividad. Este fenómeno físico-químico mostró que algunos elementos -llamados radiactivos-se transformaban en otros, cercanos a ellos en la tabla periódica. El gran salto cualitativo lo dio el descubrimiento, en 1938, de que la fisión, o sea, la escisión del núcleo de un átomo en otros elementos, libera gran cantidad de energía.

El estudio de esta “transmutación” posibilitó el descubrimiento de la reacción exotérmica que genera la división de un núcleo atómico en otros de menor masa por el choque con ciertas partículas, como el neutrón. Por la fisión nuclear, un núcleo pesado como el Uranio 235 se divide en dos núcleos más ligeros cuando choca con él un neutrón. Al dividirse, el núcleo del uranio libera más neutrones, que colisionan a su vez con otros átomos de uranio, creando una reacción en cadena de gran poder radioactivo y energético.

En la Segunda Guerra Mundial, estos estudios se orientaron hacia su aplicación militar. De este modo, Estados Unidos obtuvo la mayor arma de destrucción masiva: la bomba atómica.


La gran hazaña: pisar la Luna En julio de 1969, la misión espacial estadounidense Apolo 11, llevando a bordo tres astronautas, llegó a la Luna. Para dar sus primeros pasos en el satélite de la Tierra, el hombre hubo de realizar un esfuerzo tecnológico sin precedentes: fabricar un potente cohete y diseñar un módulo lunar capaz de funcionar en el espacio. El astronauta Neil Armstrong camina sobre la superficie lunar.

Efectos negativos de la tecnología

Durante las últimas décadas, algunos observadores han comenzado a advertir sobre algunos aspectos destructivos y perjudiciales derivados de la tecnología, y se argumenta que ello es consecuencia de la incapacidad de los gobiernos y las industrias para predecir o valorar los posibles efectos negativos del desarrollo acelerado de los productos tecnológicos.

La contaminación atmosférica, que proviene de muchas fuentes, principalmente de las centrales térmicas que queman combustibles fósiles, de los desastres nucleares y de los tubos de escape de los automóviles, está provocando el “efecto invernadero” o calentamiento de la superficie;

• los recursos naturales, incluso los no renovables como el petróleo, se están usando por encima de sus posibilidades;

• la destrucción masiva de selvas y bosques, que puede tener a largo plazo graves efectos en el clima mundial.

• los gases contaminantes, emitidos por los automóviles y las industrias, están provocando el adelgazamiento de la capa de ozono, lo que conduce a intensificar la radiación ultravioleta con graves peligros para la salud.

• pesticidas como el DDT amenazan la cadena alimenticia;

• la caza y pesca indiscriminadas, así como los derrames de petróleo en el mar, amenazan la supervivencia de especies animales en vías de extinción, como es el caso de la ballena;

• los residuos minerales usados por la industria están contaminando ríos, lagos y mares, así como las reservas de agua subterránea;

• el medio ambiente ha sido tan dañado por los procesos tecnológicos que uno de los mayores desafíos de la sociedad moderna es la búsqueda de lugares para almacenar la gran cantidad de residuos que se producen;

• en el aspecto social, la amenaza a ciertos valores, como la calidad de vida, la libertad de elección, la igualdad de oportunidades y la creatividad individual

Los grupos de presión ecologistas. La grave situación producida por los efectos negativos de la tecnología, ha provocado reacciones entre grupos ecologistas cada vez más influyentes, que en diversas formas se han manifestado en contra de las amenazas al medio ambiente y a la vida en el planeta. Aunque desde el siglo XIX se empezó a ejercer presión de estos grupos, logrando en Gran Bretaña la aprobación de leyes que limitaran la contaminación, en la segunda mitad del siglo veinte estos grupos comenzaron a exigir leyes más restrictivas, aunque en ocasiones eran poco realistas.

La acción de los ecologistas ha dada origen a un nuevo fenómeno político, la aparición de los partidos “verdes”, que en diversos países intentan atraer al electorado en relación al tema de la conservación del medio ambiente, concentrando su atención sobre todo en la producción de energía, cuyas industrias han presionado de dos maneras. Por un lado, han criticado a las centrales térmicas convencionales que utiliza combustibles fósiles como el petróleo, bajo el argumento de que los humos generados (compuestos sobre todo de dióxido de carbono y óxidos de nitrógeno) producen “lluvia ácida” que, a su vez, causan graves perjuicios a la vida vegetal y contaminan los ríos, además de que han sido señalados como causantes del efecto invernadero. Por otra parte, los ecologistas han organizado una tenaz resistencia contra el uso de cualquier forma de energía nuclear, sobre todo después del desastre de Chernobil.

Los gases desprendidos por el tubo de escape de los automóviles han sido señalados como otro grave factor de riesgo, con el peligro adicional de que su contenido de plomo puede afectar el desarrollo de las facultades mentales en la población infantil. Como consecuencia, muchos países han aprobado leyes destinadas a reducir gradualmente el contenido de plomo de la gasolina, con el propósito de llegar a eliminarlo totalmente.

Las constantes advertencias de estos grupos a través de los medios de comunicación, han obtenido algunas respuestas de los gobiernos a favor de reducir los contaminantes y cambiar la actitud hacia la vida animal y vegetal, buscando protegerla y detener su explotación indiscriminada.

Una alternativa que ya se ha hecho realidad en muchos países para resolver la problemática del agotamiento de los recursos naturales es el reciclado, que consiste en la transformación de los materiales sólidos o semisólidos que generan las actividades humanas, en nueva materia prima para uso industrial. Tales residuos se dividen en cuatro categorías: agrícolas, industriales, comerciales y domésticos. Además de la ventaja que el reciclado de residuos proporciona a favor de evitar el agotamiento de los recursos de la tierra, favorecen a las empresas industriales al mejorar los procesos de producción y reducir los costos de inversión.

A pesar de todas las alternativas planteadas y puestas en práctica para reducir los efectos negativos del avance tecnológico, aún falta mucho por hacer y se debe insistir una y otra vez en concientizar no sólo a los gobiernos y a las grandes empresas industriales, sino también al ciudadano común que de manera irresponsable abusa de la utilización de recursos naturales como el agua, arroja desperdicios a la vía pública y a los ríos, o por descuido provoca incendios forestales.

Es necesaria una profunda toma de conciencia sobre los graves riesgos que conlleva todo ese tipo de amenazas contra la vida en el planeta; sería paradójico y terrible que ésta llegara a su fin ya no por el estallido de una tercera guerra mundial desencadenada por los gobiernos poseedores de energía nuclear, como tanto se temió durante la Guerra fría, sino por un injustificable y fatal descuido de la especie humana en su conjunto.

Cuestionamientos al Progreso Tecnológico del Siglo XX

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros

Porque la Luna Tiene Fases? Formacion de las fases lunares

Fases de la Luna
Su revolución completa la real iza la Luna en 27 días (la tercera parte de las que efectúa en un año).
Tanto ésta como la Tierra carecen de luz propia y reflejan la que reciben del Sol. Por ello hay siempre en ellas una cara iluminada que en la Tierra denominamos día, y otra obscura, que llamamos noche. Combinados los movimientos lunar y terrestre se produce el ocultamiento permanente de una cara del satélite. Hasta octubre de 1959 ningún terrícola había podido ver la parte oculta. Pero en esa fecha fue fotografiada mediante un satélite artificial lanzado por la Unión Soviética.

Las variaciones que experimenta la Luna se denominan fases: en ocasiones vemos el disco lunar completo, en otras sólo una especie de hoz, y a veces nos resulta totalmente invisible, cuando se halla en con junción con el Sol decimos que se halla en fase de Luna nueva. Al otro día surge por occidente cual un delgado creciente luminoso cuya convexidad está siempre del lado del Sol en el ocaso.

El ancho creciente va aumentando hasta que, transcurridos seis días, aparece en forma de semicírculo cuya parte luminosa termina en una línea recta. En tal situación se dice que está en cuarto creciente (dicótoma). Se la observa con facilidad durante la tarde y en el anochecer. A medida que sigue su camino y se va alejando del Sol adquiere figura oval y su brillo va en aumento, hasta que al cabo de siete u ocho días se torna completamente circular. Esta fase se I lama de Luna llena, después de la cual la parte iluminada comienza a disminuir y las mismas fases se van repitiendo en sentido inverso. Es decir que, primeramente, toma la forma oval y después la de semicírculo en que llega al cuarto menguante, fácilmente observable al alba.

Por último, tras haber dado una vuelta completa al cielo, sale por la mañana un poco antes que el Sol, y ya cerca de éste, se pierde entre sus rayos y vuelve a la posición original de Luna nueva. Esta posición oculta se denomina conjunción, porque en ella se encuentra entre la Tierra y el Sol. De manera similar, las épocas de la Luna llena reciben el nombre de sicigias y las de los cuartos creciente y menguante, cuadraturas.

Movimientos lunares
Dijimos que la Luna emplea 27 días y cuarto en dar una vuelta en torno de la Tierra: es su revolución sidérea. Pero como durante este lapso el Sol está en movimiento, transcurren 29 días y medio hasta que la Luna vuelve a ocupar el mismo lugar respecto del Sol y repetir sus fases: es su revolución sinódica.

Resultado de la gran lentitud en la rotación lunar es la enorme duración del día y de la noche en su superficie, los cuales son casi quince veces más largos que los nuestros. La ausencia de atmósfera da lugar a que durante el día, con el Sol en el cénit, la temperatura llegue a 100°C. Al pasar del día a la noche, ésta desciende rápidamente hasta los 150°C bajo cero. La órbita que sigue el satélite de la Tierra en torno de ella es elíptica.

El punto en que la Luna está más cerca de la Tierra se denomina perigeo. Por consiguiente, ésta la atrae más que cuando se halla mas lejos (apogeo). Así, para contrarrestar la mayor atracción terrestre se traslada a más velocidad, la cual es mínima cuando se halla en su apogeo.

Su movimiento de traslación varía; en cambio, el de rotación es uniforme y por tal razón desde la Tierra se advierte un balanceo merced al cual se perciben, en el borde occidental del astro cuando pasa del perigeo al apogeo, detalles que van apareciendo hasta una amplitud máxima de 8° en el momento en que su velocidad y su distancia a la Tierra son las promedias. Ello ocurre también en el borde oriental, cuando pasa del apogeo al perigeo. Este fenómeno se denomina libración en longitud o transversal.

El plano de la órbita de la Luna forma un ángulo de 5° con el terrestre. Desde la Tierra se descubre un ancho de 6° 30′ del suelo lunar más allá de cada polo: del Polo Norte si la Luna está en la parte sur de su órbita, y del sur cuando se halla en su parte norte. Este fenómeno recibe el nombre de libración en latitud. Las dos libraciones citadas y una tercera llamada diurna, que solamente alcanza un grado, dan origen a que se reconozca el 59% de la superficie lunar en lugar de la mitad exacta que se vería si aquéllas no existiesen.

Información sobre La Luna
La Luna, que gira alrededor de la Tierra, es su vecino espacial más cercano, y el único otro cuerpo solar sobre el cual han caminado los seres humanos.

El tamaño de la Luna es solamente 1/4 del de la Tierra. La gravedad lunar es sólo 1/6 de la terrestre. Esto hizo a los astronautas norteamericanos 5/6 más ligeros durante sus paseos lunares, de lo que eran sobre la Tierra. Una persona que pesase 90 Kg. en la Tierra, pesaría únicamente 15 Kg. en la Luna. Debido a esta débil atracción gravitatoria, el campeón de salto de altura Dwight Stones, que superó los 2,30 m en la Tierra (Munich, Alemania Occidental, 1973) hubiese saltado 13,80 m si hubiera estado en la Luna.

Puesto que la gravedad lunar es demasiado débil para capturar y retener una atmósfera, en la Luna no hay en absoluto fenómenos meteorológicos —en realidad, ni viento, ni sonido, ni vida.

Durante un día lunar, el calor en la superficie de la Luna alcanza la temperatura del agua hirviente. Pero con la llegada de la noche lunar, desciende hasta los 160° C bajo cero.

La Luna tarda 27,3 días aproximadamente en recorrer una órbita alrededor de la Tierra.

Solamente el 5 9 % de la Luna es visible para los habitantes de la Tierra.
Desde la Tierra, se han observado 32.000 grandes cráteres en la Luna. Uno de los mayores cráteres visibles, Clavius, tiene 235 Km. de diámetro.

El meteorito que golpeó la Luna y excavó Clavius se cree que pesaba 200 mil millones de t. De todas las muestras de suelo traídas desde la superficie por los astronautas de EE.UU., la mas antigua revela una edad de unos 4.600 millones de años.

La Comida de los Astronautas Misión Apolo Comida en el Espacio

La Comida de los Astronautas – Misión Apolo

Los exploradores de todos los tiempos han tenido siempre el problema de llevar suficiente comida para su viaje. Siempre tuvieron que limitar el tamaño de su carga y también encontrar métodos para evitar que  la comida se echara a perder. La cuestión fue especialmente importante durante los días de las largas travesías por mar.

No solo era necesario que los víveres se mantuvieran en buenas condiciones durante el- viaje sino que conservaran su valor nutritivo. Lo mismo ocurre cuando el hombre se aventura al espacio exterior. Solo que además debe llevar consigo hasta él aire que respira y el agua que bebe: Por eso la cápsula Apolo es un mundo -en miniatura, Y este articulo nos explica cómo se alimenta un astronauta.

Una larga experiencia ganada durante las misiones Mercury y Géminis, permitió desarrollar la técnica de preparación, manipuleo y consumo de la comida en el espacio para el proyecto Apolo. Los alimentos que lleva la Apolo 11 en esta histórica misión son similares a los productos “rehidratables” y del tamaño de un “bocado” utilizados durante el programa Géminis, con algunos agregados para dar a los astronautas una mayor variedad en la preparación de sus menúes.

comida de los astronautasPara aumentar el gusto de lo que se come, la espacionave Apolo está equipada para proveer tanto agua caliente como fría para reconstituir las comidas o bebidas deshidratadas. El agua potable de los tanques puede ser calentada a gran temperatura (casi 70 grados) en un recipiente de un par de litros de capacidad, cada media hora, para utilizarla es la preparación de comidas calientes.

El agua helada se obtiene de un congelador que enfría un litro y medio de líquido cada 24 minutos. A una temperatura de menos de 10 grados, el agua se carga en un “dispensador” de mano con capacidad para un cuarto litro, que permite “inyectarla” en las raciones y preparar comidas o bebidas frías.

El menú que acompaña esta nota es un ejemplo de la selección hecha para dos ellas por un astronauta, de la misión Apolo. Pero los expertos de la NASA han analizado cada uno de los componentes de estas comidas para establecer su exacto valor calórico y nutritivo, empleando la información obtenida en la elaboración de un menú balanceado.

Esta información también proporciona una base para calcular la absorción nutritiva de cada hombre, diariamente y a lo largo de una misión completa. Se estableció que, por  ella, un hombre en el espacio debe recibir aproximadamente 2.800 calorías. El do nutritivo se balancea para que suministre 20 por ciento de proteínas, 62 de hidratos de carbono y 18 de grasas. La distribución calórica es del 17 por ciento de las proteínas, 51 de los hidratos de carbono y 32  por ciento de las grasas.

Todos los envases de alimento y de bebida para, una comida de un solo hombre están envueltos en una sobrecubierta especial de aluminio. Estos paquetes llevan una identificación de color para identificar las comidas seleccionadas por cada astronauta. De esa manera se evitan confusiones y cada cual puede dedicarse a sus manjares predilectos sin búsquedas engorrosas.

Además, los miembros de la tripulación van provistos de los tradicionales elementos de higiene personal, que Incluyen goma de mascar (para después de las comidas), cepillo de dientes, paños secos y mojados y toallas.

Todo esto —tanto la comida como los elementos de higiene— es conservado en. gabinetes a prueba de Incendios dentro de la cápsula Apolo.

Los estudios de- nutrición, llevados, a cabo por los laboratorios de Investigación Médica Aeroespacial de la:•base de Wright-Patterson, para la NASA, han demostrado que la comida que lavan los astronautas de la Apolo U ‘es en todo equivalente a los alimentos frescos que se consumen en la Tierra. Cada ración ha sido probada largo tiempo, hasta que no quedaron dudas de sus cualidades.

El mismo gusto de la comida fue objeto de especiales cuidados, para lograr que los sabores atrayentes y variados proporcionándoles el atractivo que la presentación de los alimentos les niega. El hacer de los momentos dedicados a la alimentación en el espacio una “pequeña fiesta gastronomita”, según el decir de uno de los expertos, ha costado también años de esfuerzos.

Otro dietista de laboratorios de Wright-Pattersoh lo definió así: “Queremos que cuando uno de nuestros muchachos regrese de una excursión por el espacio a la cápsula que es su hogar, encuentre en la comida apetitosa y caliente el, mismo sabor al  que se acostumbró en la -Tierra”.

Ejemplo del menú seleccionado por uno de los astronautas de la Apolo XI para los dos primeros días de la misión.
(R):reidratable y (B):bocado – de 6 a 8 por ración –

La Ciencia en la Edad Moderna Teorias Cientificas del Universo

La Ciencia en la Edad Moderna: Teorías Científicas del Universo

biografias de grandes astronomos

Biografía
Copérnico
Biografía
Johanes Kepler
Biografía
Tycho Brahe
Biografía
Galileo Galilei

LOS AVANCES DE LA CIENCIA: A partir del siglo XV comenzaron a producirse transformaciones significativas en la vida económica, política, social y cultural de Europa occidental, que fueron modelando lo que se conoce como Modernidad. Sin embargo, al abordar este período es importante advertir que no hubo un corte tajante con la Edad Media. Por el contrario, persistieron algunos aspectos de la Baja Edad Media, que marcaron una continuidad con el pasado.

En el plano cultural, el pensamiento de los humanistas –con su interés por el pasado-. las traducciones de los sabios de la Antigüedad y la nueva forma de concebir al hombre desplazaron el saber escolástico medieval. Se revalorizó la experiencia como fuente de conocimiento, en desmedro de la tradición que primaba durante la mayor parte de la Edad Media. La imprenta permitió difundir ampliamente no sólo el conocimiento de la Antigüedad sino también las obras de los eruditos medievales y la de los hombres del Renacimiento. En el arte surgieron nuevas formas de representación.

El desarrollo de la ciencia y de la técnica trajo consigo nuevas formas de concebir el universo que modificaron la imagen de los mundos conocidos. La evolución de los medios de transporte favoreció la expansión del comercio marítimo y los viajes de exploración. Con el descubrimiento de América y la profundización del conocimiento de África se amplió el horizonte geográfico de los hombres europeos.

Los adelantos científicos
Durante los tiempos del Humanismo y el Renacimiento, los estudios científicos cobraron gran importancia. Surgió un gran interés por las investigaciones en matemática, botánica, zoología, astronomía, medicina, historia, física, y demás ramas científicas.

La ciencia no era autónoma, sino que debió construir paulatinamente su independencia. Tuvo que despegarse del ámbito religioso, que frenaba los adelantos que se opusieran eran al dogma. Cada ciencia se preocupó por el problema del conocimiento: ¿Es posible conocer? ¿Cómo puede adelantar el conocimiento en cada rama científica?

A partir del siglo XV, aproximadamente, se operó un cambio radical en la concepción del mundo, que culminaría en los siglos XVI y XVII con una revolución científica. El logro más importante de la generación que estableció las bases de la nueva ciencia fue darle una mayor importancia al lenguaje matemático, comprender que era el empuje científico por excelencia. En adelante no se buscaría la comprensión de la naturaleza por la reservación inmediata sino por las estructuras matemáticas y mecánicas. Comprendieron que el universo no se movía por “carácter divino”, como se pensaba en e Medievo.

En física, astronomía y matemática se realizaron descubrimientos trascendentales. Entre ellos Nicolás Copérnico (1473-1543) demostró que la Tierra gira sobre su eje y que los planetas se mueven alrededor del Sol (teoría heliocéntrica). Sus ideas, combatidas por la iglesia de la época, fueron confirmadas años después por el alemán Kepler (1571-1630), quien perfeccionó el telescopio, y finalmente por Galileo Galilei (1564-1642).

En medicina también hubo importantes adelantos: investigaciones sobre anatomía humana (Andrés Vesalio, 1514-1564), estudios sobre infección (Jerónimo Francastori, quien recibió el nombre de “padre de la patología moderna”), y descubrimientos sobre la circulación de la sangre (Miguel Servet, 1511-1553, y Guillermo Harvey, 1578-1658).

También a partir del siglo XV, mediante sucesivas expediciones marítimas se descubrieron nuevas tierras y abrieron nuevas rutas. En poco más de dos siglos, civilizaciones hasta entonces desconocidas, y otras con las que solamente se habían establecido contactos a través de comerciantes y caravaneros, quedaron sólidamente unidas a Europa por mar.

La demanda de objetos de lujo -seda, marfil, joyas- y de costosas especias, así como de metales preciosos necesarios para la creciente actividad mercantil, se acentuó con la recuperación económica de mediados del siglo XV. Pero estos productos llegaban de Oriente a Europa a través de multitud de intermediarios que los encarecían, sin contar con que el flujo se vio bloqueado por el dominio turco en el Mediterráneo oriental a partir de la toma de Constantinopla (1453).

Fue la necesidad de buscar nuevas rutas para conseguirlos, junto a los avances en navegación y en la elaboración de los mapas, los que se combinaron para hacer posible la sucesión imparable de descubrimientos y conquistas.

Portugal y España lideraron esta búsqueda, cuyos éxitos más notorios fueron conseguidos por Vasco de Gama, al alcanzar la India a través del mar, y por Cristóbal Colón, en pos del mismo objetivo, al encontrar por error un continente desconocido en Europa. Las ansias de riqueza de reyes, mercaderes y aventureros, más los deseos evangelizadores de la Iglesia, inauguraron un nuevo escenario mundial en el que Europa colonizaría vastas zonas del mundo. (ver revolución científica siglo xv)

Avances Técnicos:
Los mayores avances técnicos durante el Renacimiento se legraron en el campo de las. industrias prácticas -como la textil o la imprenta- y en aquellas que permitían alcanzar riqueza o pode: -como la minería, la metalurgia o la navegación-. Muchos de los progresos técnicos alcanzados durante este período fueron posibles gracias a la importancia otorgada al estudio de la química ; de la física y a la aplicación de sus propiedades.

• Distintas innovaciones aceleraron el desarrollo de la actividad textil: el perfeccionamiento de los telares permitió que aumentara el número de tejidos producidos y, a partir del siglo xv. se generalizó el cardado de lana -operación que desenreda la fibra formando hilos-. También se difundieron nuevas telas, más baratas, más livianas y con mayores variaciones de color.

• La imprenta, introducida en Europa a mediados del siglo xv, trajo consigo el desarrollo de la industria del papel. Mediante la palabra escrita y las ilustraciones, la industria editorial contribuyó a la divulgación de la cartografía y de los tratados técnicos, como los de agricultura, de metalurgia y de arte militar.

• Las necesidades de los estados y de los comerciantes de contar con una mayor cantidad de metales preciosos -oro y plata-aceleraban los avances en el campo de la metalurgia. A mediados del siglo xv, se descubrió el método de amalgama, que permitía separar la plata del mineral en bruto extraído del yacimiento. Se impulsó también la metalurgia del hierro.

• Las guerras frecuentes entre los estados llevaron a aplicar los avances en la manipulación de los metales también en la mejora del armamento: se perfeccionó, por ejemplo, el uso del cañón, de la balística y del granizado de pólvora. Frente a la utilización de las armas de fuego, como el arcabuz, las tradicionales armaduras se volvieron inútiles, si bien los nobles continuaron utilizándolas en los torneos y los combates. La aplicación de las nuevas técnicas en la guerra obligó a la construcción de nuevas fortificaciones para aumentar las posibilidades de defensa de las ciudades y proteger a los civiles. El mayor uso de la artillería hizo necesario realizar muros de menor altura pero de mayor grosor. También se modificó la forma de estas fortificaciones para mejorar la capacidad de tiro.

• Con respecto a la navegación, uno de los logros más importantes fue el empleo de la brújula a partir del siglo xrv. Junto al antiguo astrolabio, necesario para medir la latitud, la brújula facilitó la orientación en la tierra y en el mar. También se llevaron a cabo importantes mejoras en las embarcaciones.

• Con respecto a los transportes terrestres, se introdujo el eje delantero móvil que, además de mejorar el diseño de los carruajes, permitió disminuir el riesgo de accidentes.

Los progresos técnicos desarrollados desde fines de la Edad Media permitieron a los comerciantes incrementar sus actividades, sobre todo a partir del auge alcanzado por el comercio marítimo. Para aumentar sus ganancias y realizar un mejor control de sus empresas, los comerciantes debieron perfeccionar el sistema económico. Entre los avances relacionados con la técnica de los negocios, la contabilidad fue muy importante porque permitió ordenar las operaciones contables. Al mismo tiempo, para efectuar transacciones en distintas ciudades y evitar el manejo de dinero al contado, se generalizó el uso de dos documentos: el cheque y la letra de cambio. También aparecieron los seguros comerciales como una forma de cubrir los riesgos, ante las posibles pérdidas de mercaderías y de barcos.

Avances en navegación
Con los aportes de los árabes, la ciencia náutica se había enriquecido de forma considerable. El Almagesto, manual cosmográfico debido al alejandrino Ptolomeo, las obras de Aristóteles sobre el espacio celeste y las del cardenal francés Fierre d’Ailly -que hablaban de la posibilidad de dar la vuelta al mundo por mar, y que eran conocidas por Colón- alumbraban nuevas teorías en numerosos campos de la ciencia.

Desde finales del siglo XV, los portugueses realizaron sus navegaciones fijando su posición marítima por medio de la Estrella Polar y, más tarde, por la altura del Sol a mediodía. Desde 1508, el rey Fernando el Católico hizo que sus capitanes se adiestrasen en el manejo del cuadrante y del astro-labio en la Casa de Contratación de Sevilla. Las tablas astronómicas, desde la Edad Media hasta bien entrado el siglo XVIII, fueron fundamentales para orientarse en el mar. La brújula, necesaria para la navegación, era conocida en China desde finales del siglo XI y usada desde mediados del siglo XIII.

Las cartas marítimas o portulanos trazados por los cartógrafos desde 1300 registran en un principio únicamente el Mediterráneo o el Báltico, pero estos mapas fueron perfeccionados bien pronto. El Atlas de los Mediéis, de 1351, señalaba ya la costa occidental de la India. Faltaba todavía un conocimiento exacto de África, pero era ya conocida como un continente rodeado de mares. Hacia 1300, españoles e italianos situaban en sus mapas universales países e islas ya conocidos o sospechados.

ALGUNOS AVANCES: 1543-1727: A finales del siglo XV y durante el XVI se produce una auténtica revolución en la ciencia y la filosofía. Nicolás Copérnico (1473-1543) rechaza la visión tradicional del Universo. Tycho Brahe (1546-1601) y Johannes Kepler (1571-1630) continúan su trabajo. Kepler aplica las observaciones de Brahe a la formulación de sus tres leyes del movimiento planetario.

Galileo Galilei (1564-1642) lleva más lejos todavía las teorías de Copérnico en Diálogo sobre los dos sistemas del mundo (1632). Sus trabajos principales están relacionados con el estudio del movimiento y la inercia.

Isaac Newton (1642-1727) publica sus leyes sobre la gravitación universal y ensayos sobre óptica. Asimismo desarrolla un cálculo diferencial e integral al que llega también Gottfried Leibniz(1646-1716). Jean Napier (1550-1617) inventa los logaritmos (1614). Rene Descartes (1596-1650) define la geometría analítica y Blaise Pascal formula una teoría de la probabilidad y una ley de la presión sobre fluidos, e inventa una máquina sumadora (1642) y una prensa hidráulica. Miguel Servet (h.1511-1553) descubre la circulación pulmonar y su papel en la circulación de la sangre. Willian Harvey( 1578-1657) describe la circulación de la sangre y la función del corazón (De motu coráis, 1628).

La invención del microscopio permite a Antón von Leeuwenhoek (1632-1723) estudiar los microorganismos. Christian Huygens (1629-95) formula una teoría ondulatoria de la luz, describe los anillos de Saturno e inventa el reloj de péndulo. Robert Boyle (1627-91) establece las propiedades físicas de los gases. William Gilbert (1540-1603) estudia el magnetismo (De magnete).

Robert Hooke (1635-1703) establece una ley de la elasticidad de los cuerpos. Francis Bacon(1561-1626)y Rene Descartes proveen de bases filosóficas a las nuevas ciencias. El Novum organum de Bacon se publica en 1620 y en 1637 el Discurso del método de Descartes. Otros filósofos importantes son Leibniz, Spinoza, Hobbes y John Locke, que aplica los nuevos adelantos a la psicología humana. Hugo Grocio (1583-1645) aboga por un sistema de derecho internacional (De jure
belli acpacis, 1625). Se funda en Toscana la primera academia científica (1657), a la que pronto siguen otras similares en Inglaterra (1662), Francia (1666) y Berlín (1670).

Biografia de Astronomos del Renacimiento Kepler Copernico Galileo

Biografía de Astrónomos del Renacimiento Kepler Copérnico Galileo

biografia de grandes astronomos antiguos

Biografía
Copérnico
Biografía
Johanes Kepler
Biografía
Tycho Brahe
Biografía
Galileo Galilei

Los mayores logros en la Revolución Científica de los siglos XVI y XVII tuvieron lugar en los campos más dominados por las ideas de los griegos: la astronomía, la mecánica y la medicina. Las concepciones cosmológicas, a finales de la Edad Media, se habían formado sobre una síntesis de las ideas de Aristóteles, Claudio Ptolomeo (el mas grande astrónomo de la antigüedad, quien vivió en el siglo II de C.) y la teología cristiana.

En la concepción ptolomeica o geocéntrica resultante, el universo se veía como una serie de esferas concéntricas con una Tierra fija o inmóvil en su centro. Compuesta de las sustancias materiales de tierra, aire, fuego y agua, la Tierra era imperfecta y se hallaba en cambio constante. Las esferas que la rodeaban estaban hechas de una sustancia cristalina y transparente, y se movían en órbitas circulares alrededor de ella.

El movimiento circular, de acuerdo con Aristóteles, era la clase de movimiento más “perfecta” y, por ende, apropiada para los “perfectos” cuerpos celestes que  creía estaban compuestos de una “quinta esencia” inmaterial e incorruptible. Estos cuerpos celestes, orbes puros de luz estaban incrustados en las esferas móviles y concéntricas, y en 1500 eran diez. Partiendo de la Tierra, las ocho esferas contenían la Luna, Mercurio, Venus, el Sol, Marte, Júpiter, Saturno y las estrellas fijas.

La novena esfera impartía su movimiento a la octava esfera de las estrellas fijas, mientras que a la décima esfera se le describía frecuentemente como  impulsora primaria, que se movía a sí misma e impartía movimiento a las otras esferas. Más allá de la décima esfera estaba el Empíreo o Cielo: el lugar de Dios y de todas las almas salvadas. Así, este universo ptolomeico cristianizado era finito.

Tenía un fin fijo en armonía con el pensamiento y las expectativas cristianos. Dios y las almas salvas estaban en un extremo del universo, mientras que los humanos estaban en el centro; a éstos se les había dado poder sobre la Tierra, pero su propósito real era alcanzar la salvación.

Sin embargo, esta visión no satisfacía a los astrónomos profesionales, que querían determinar las trayectorias precisas de los cuerpos celestes a través del cielo. Al encontrar que sus observaciones no siempre correspondían al esquema aceptado, los astrónomos trataban de “cubrir las apariencias” elaborando un detallado sistema de dispositivos.

Proponían, por ejemplo, que los cuerpos planetarios viajaban en epiciclos, esferas concéntricas dentro de esferas, que permitían a las trayectorias de los planetas corresponder más precisamente a las observaciones, a la vez que se adherían a las ideas de Aristóteles del movimiento circular planetario.

CopernicoCopérnico
Nicolás Copérnico (1473-1543) había estudiado tanto matemáticas como astronomía primero en Cracovia, en su nativa Polonia, y después en las universidades italianas de Bolonia y Padua. Antes de salir de Italia, en 1506, había tenido conocimiento de antiguos puntos de vista que contradecían la visión ptolomeica geocéntrica del universo. Entre 1506 y 1530 terminó el manuscrito de su famosa obra Sobre las revoluciones de las órbitas celestes, pero su propia timidez y temor al ridículo ante sus colegas astrónomos lo contuvieron de publicarla hasta mayo de 1543, poco antes de su muerte. (seguir leyendo…)

Tycho Brahe  Tycho (o Tyge)Tycho Brahe Brahe nació el 14 de diciembre de 1546 en Knudstrup, Escania; hoy Suecia pero entonces perteneciente a Dinamarca. Hijo del gobernador del castillo de Helsingborg, fue apadrinado por su tío Joergen.  El tío Joergen era un gran terrateniente y vicealmirante que había pedido a su hermano que cuando tuviera un hijo quería apadrinarlo y adoptarlo hasta el punto de considerarlo como hijo suyo. El gobernador le prometió a su hermano que así sería pero un incidente vino a postergar la promesa. (seguir leyendo…)

Johannes Kepler: El teólogo, profesor de matemáticas. Los estudios de Kepler, que siempJohannes Keplerre realizó con becas gracias a su precoz inteligencia, se encaminaban a la teología. También amaba las matemáticas, según él mismo nos dice y en la Universidad de Tubinga, su profesor Michael Maestlin, le ayudó a descubrir lo que sería el objetivo de su vida. Maestlin era un competente astrónomo. En las clases no podía enseñar el sistema copernicano, considerado en la Facultad de Teología contrario a las Escrituras, pero en privado iniciaba a unos pocos alumnos escogidos en la cosmología de Copérnico. El joven Kepler se entusiasmó desde el primer momento y, más osado, proclamaba públicamente su copernicanismo. (seguir leyendo…)

Galileo GalGalileo Galileiilei: Profesor de matemáticas, pero también de mecánica, astronomía y arquitectura militar, Galileo atrajo a numerosos estudiantes, especialmente a los cursos de astrología que dictaba. Aprovechando el descubrimiento que probablemente había hecho un desconocido óptico holandés de Middelburg, de nombre Hans Lippershey, Galileo construyó el primer telescopio. En Venecia, desde lo alto del campanil de San Marcos, el científico se volcó a sus primeras observaciones de los cuerpos celestes, comenzando por la Luna. El 7 de enero de 1610 remitió el resultado de sus largas vigilias nocturnas al gran duque de Toscana, Ferdinando de Medicis.  (seguir leyendo…)

Galaxia Via Lactea-Sistema Solar-Planeta Tierra-Astronomia Elemental

Galaxia Vía Láctea – Sistema Solar – Planeta Tierra Astronomía Elemental

Estructura

astronomia, planetas del sistema solarEl Sol, y el Sistema Solar con el, se encuentra en la galaxia llamada Vía Láctea. Se trata de una galaxia espiral catalogada como SII consistente en una agrupación de estrellas y gas y polvo interestelar con una mása de cien mil millones de veces la del Sol (lO(ll) Mo).

Una gran parte de esta materia (en torno al 90%) solo puede detectarse a través de los efectos gravitacionales que produce, no por la luz que emite; se trata por tanto de “materia oscura” que puede estar constituida por enanas blancas que ya se han enfriado (enanas negras), planetas gigantes (del tipo de Júpiter) que no tienen la mása suficiente como para brillar con luz propia, micro-agujeros negros (como los que postula Hawking que pudieron formarse en las primeras fases del Big Bang) o en forma de otros tipos de materia a la que no estamos acostumbrados en nuestro Sistema Solar (estrellas Q, …).

La estructura de la Galaxia consta de dos partes bien diferenciadas: el disco y el halo. Ambas presentan diferente simetría y composición estelar.

El halo galáctico esta formado por estrellas viejas, con unos 10 mil millones de años, llamadas “de la población II” agrupadas en cúmulos globulares. Se trata de estrellas con una baja proporción de elementos pesados, entendiendo por elementos pesados (o metales) todos aquellos que sean más masivos que el Helio (peso atómico superior a 4). La composición química de estas estrellas es prácticamente la misma que la que tenia el Universo primordial después del Big Bang (80% de Hidrogeno y 20% de Helio).

El material del que estan formadas no ha sido procesado anteriormente por otras estrellas y por eso mantienen la proporción de elementos químicos primordial. La distribución de cúmulos globulares presenta simetría esférica respecto al centro de la Galaxia, con una mayor densidad en la zona central (en la dirección de Sagitario). Estos cúmulos tienen órbitas muy elípticas cuyo periodo es de varios cientos de millones de años. La simetría esférica es un indicativo de que el halo se formo antes de que la materia que los constituye participara del proceso de “achatamiento” que origino más tarde el disco galáctico. La edad de estos cúmulos se puede obtener trazando el diagrama H-R de sus estrellas; en el vemos como las únicas estrellas que permanecen en la Secuencia Principal se corresponden con las menos masivas, que son las que más tiempo necesitan para abandonarla.

Por su parte, el disco galáctico se halla distribuido en un plano más o menos definido en el que se pueden distinguir dos partes: El bulbo central o núcleo y los brazos espirales. El diámetro del disco se estima actualmente en unos 25 Kpc con una anchura de 1 Kpc. Las estrellas muy jóvenes y las regiones de polvo interestelar se sitúan en la parte central de este disco en una zona de anchura no superior a 100 pc.

En el se encuentran las estrellas de la población I así como gas y polvo interestelar. Las estrellas de la población I son más jóvenes que las de la población II. Su contenido en elementos pesados es no despreciable, debido a que se han formado a partir de materia que ha sido reciclada por estrellas anteriores que ya evolucionaron, y que en los últimos estadios de su vida, liberaron los resultados de la nucleosíntesis al espacio interestelar.

En el núcleo, el disco galáctico se hace más abultado y puede considerarse una región más o menos esférica con un diámetro de unos 5 Kpc. Las estrellas que pueblan esta región son también de la población II, aunque la gran concentración de materia allí existente, no les ha permitido evolucionar de la misma manera que a las del halo.

La zona más externa del disco galáctico esta dominada por la presencia de los brazos espirales. Se trata de regiones en las que se agrupa la materia: estrellas, gas y polvo interestelar. En los brazos espirales es donde se encuentran los núcleos más activos de formación de estrellas. Perturbaciones de diferentes tipos hacen colapsar inmensas nubes de gas y polvo que, después de fragmentarse en otras más pequeñas, dan lugar al nacimiento de estrellas en grupos o cúmulos (estos cúmulos se conocen con el nombre de cúmulos abiertos o galácticos). El más famoso de estos cúmulos abiertos son las Pleiades en Tauro.

A la Galaxia se le conocen cuatro brazos espirales: el de Sagitario-Carina (el brazo Mayor), el de Escudo-Cruz (brazo Intermedio), el de Norma (brazo Interno) y el de Perseo (brazo Externo). El Sol se encuentra en una región intermedia entre el brazo de Sagitario Carina y el de Perseo, a unos 10 Kpc de distancia del centro galáctico, cerca por tanto, del borde de la Galaxia. La extinción que provoca la materia interestelar es la causante de que no veamos una luminosidad mayor en la dirección del centro (podemos decir que, en el visible, nuestro campo de visión hacia el centro es similar al que tenemos hacia el exterior), no obstante, la distribución espacial de los cúmulos globulares y, sobre todo, las observaciones radioastronómicas en la linea de 21 cm y las infrarrojas, nos indican claramente la posición del centro de la Vía Láctea.

El núcleo galáctico

Mención aparte merece el estudio del centro galáctico debido a los violentos sucesos que se supone que ocurren allí. La absorción interestelar lo hace inobservable en el visible (produce una disminución del brillo en unas 30 magnitudes) pero la luz emitida en el infrarrojo y en el dominio radio nos llega hasta aquí, permitiéndonos su estudio.

A partir de estas observaciones encontramos que en una región de 1 pc de diámetro se encuentra concentrada una cantidad de mása equivalente a entre uno y cuatro millones de veces la del Sol, en forma de un cúmulo estelar superconcentrado o de un agujero negro súper masivo. Sea cual sea el objeto allí existente, lo que parece claro es la existencia de un viento de gas y polvo hacia afuera a una velocidad de 750 km/seg.

Este viento ha formado una región con forma de anillo que rodea el centro galáctico, con un diámetro interno de 3.4 pc. Este anillo esta rotando a una velocidad de unos 90 km/seg. Además, se ha detectado una fuente compacta (menos de 20 U.A. de diámetro) de ondas de radio, a un segundo de arco del objeto en el que se supone que se sitúa el centro de la Galaxia. El problema que presenta la explicación del núcleo galáctico mediante la hipótesis del agujero negro, es que con uno de cien masas solares seria suficiente para producir la emisión de radiación gamma observada.

Por otro lado, todavía no esta claro si nuestra galaxia tiene una barra de materia cruzando el núcleo o no, es decir, si se trata de una espiral barrada o de una espiral normal. Para nosotros, situados en su interior, nos resulta mucho más fácil determinar la estructura global de otras galaxias situadas a millones de años-luz, que la de la galaxia en la que nos encontramos. Podemos determinar la estructura fina, los detalles más concretos, pero no verla en su totalidad.

EL UNIVERSO A GRAN ESCALA

Clasificación de Hubble de las galaxias

La clasificación de galaxias más aceptada en la actualidad proviene de la efectuada en 1925 por Edwin Hubble, el padre de la Cosmología moderna. Esta clasificación distingue cuatro tipos principales de galaxias: Las elípticas, caracterizadas por su forma esférica o elipsoidal, apariencia uniforme y luminosidad regularmente distribuida.

El polo opuesto serian las galaxias espirales, que presentan dos componentes, una parte central (el bulbo, similar a primera vista a las galaxias elípticas) y un disco plano sobre el que se puede observar una estructura espiral. Las galaxias espirales pueden ser divididas en dos grupos, espirales ordinarias y espirales barradas, dependiendo de si tienen una barra de materia atravesando el centro o no.

Las galaxias lenticulares (o SO) también tienen un bulbo central y un disco, pero este no presenta estructura espiral. Finalmente, como su propio nombre indica, las galaxias irregulares no presentan una estructura bien definida; no presentan un bulbo y tienen una presencia caótica.

Cada una de estas clases se divide en grupos. Las galaxias elípticas se clasifican de 0 a 7 de acuerdo con su elipticidad (E0 para las esféricas, E7 para las más achatadas). Las espirales varían desde la Sa hasta la Sd (se incluyen también las del tipo Sm) atendiendo a la disminución del tamaño relativo entre el bulbo y el disco y a la separación de los brazos espirales. La misma división se aplica a las espirales barradas SB.

Esta clasificación cubre diferencias físicas además de las puramente morfológicas. Las galaxias elípticas son más rojas que las espirales, esto es interpreta como una diferencia en sus constituyentes estelares. Además, en las galaxias elípticas la emisión de luz esta dominada por la que proviene de estrellas, del tipo de las gigantes rojas.

La población estelar de estas galaxias parece similar a las de los cúmulos globulares, a las estrellas de la población II. En contraste, en las galaxias espirales todavía existe una cierta actividad en la formación de estrellas; pueden encontrarse estrellas jóvenes con una emisión dominante en el azul. Las galaxias lenticulares tienen población estelar similar a las elípticas.

Mientras que para las galaxias elípticas y lenticulares se aprecia más o menos, la misma población estelar, cualquiera que sea su tipo, para las espirales, la población relativa de estrellas jóvenes aumenta de los tipos Sa a Sm y para las irregulares es todavía mayor.

En lo que respecta al contenido de materia interestelar (gas y polvo), se aplican las mismás consideraciones; las galaxias elípticas no contienen prácticamente nada de esta material mientras que en las espirales e irregulares se detectan grandes cantidades (en las irregulares, la fracción de gas neutro alcanza entre el 10 y el 20% del total de la materia de la galaxia).

Las S0 son un tipo intermedio entre las elípticas y las espirales; dos terceras partes no contienen nada de gas, y el resto tienen tanto como las espirales. De esta forma, la clasificación morfológica se corresponde bastante bien con las diferencias físicas entre las galaxias. No obstante hay que tener presente que esta clasificación no responde a todos los fenómenos observados, ya que se encuentran galaxias de los mismos tipos que presentan fenómenos físicos bien diferenciados.

Grupos de galaxias

Las galaxias no se encuentran uniformemente distribuidas a lo largo del espacio sino que aparecen en grupos. El ejemplo más cercano lo constituyen las Nubes de Magallanes, dos galaxias irregulares, difusas satélites de la Vía Láctea. La interacción gravitacional entre la Vía Láctea y sus dos satélites da lugar a la Corriente de Magallanes, una corriente de Hidrogeno neutro arrancado de las Nubes de Magallanes por las fuerzas de marea ejercidas por nuestra propia Galaxia, que forma un puente de materia que une la Galaxia a sus satélites.

Las galaxias gigantes a menudo están acompañadas por un numero más o menos numeroso de pequeños satélites gravitando en torno a ellas. Así, la galaxia de Andrómeda M31, tiene por satélites a M32, NGC 147 y NGC 205, tres bonitas galaxias elípticas rotando en torno a ella con un periodo de unos 500 millones de años. M31 es una espiral gigante con una masa de una vez y media la de la Galaxia.

A una escala un poco mayor advertimos la presencia de varias galaxias en un radio de 1.3 Mpc y una ausencia total de las mismas en una distancia de entre 1.4 y 2.4 Mpc. Esto induce a pensar en la existencia de un grupo de galaxias, el llamado Grupo Local, compuesto por dos espirales gigantes (la Galaxia y M31), dos espirales medias (la galaxia del Triángulo M33 y la Gran Nube de Magallanes), una galaxia elíptica con núcleo (M32), media docena de galaxias irregulares pequeñas, una docena de galaxias elípticas enanas y unos cuantos objetos muy débiles con apariencia de cúmulo globular. Según van mejorándose las técnicas astronómicas, se añaden nuevos objetos a este Grupo Local.

Por otro lado, es muy posible que la lista este bastante incompleta ya que las galaxias elípticas enanas, por ejemplo, no son observables a una distancia mayor que la que nos separa de la M31, lo que significa que podrían existir unas cien galaxias de este tipo que todavía no se han detectado.

El Grupo Local no presenta una condensación central de materia, más bien esta se concentra en dos núcleos principales: en torno a la Vía Láctea y en torno a M31. La ligazón gravitatoria del Grupo Local no esta todavía muy clara, aunque parece claro que las galaxias se agrupan en este tipo de “pequeñas estructuras”.

Actualmente se han catalogado más de 50 grupos en un radio de 16 Mpc, cada uno con varias decenas de miembros. Se trataría de las estructuras básicas de las que constituyen el Universo a media y gran escala. La definición que se adopta para Grupo de Galaxias es la de una asociación de galaxias, de las que una docena son más brillantes de magnitud absoluta -16 en un volumen de alrededor de un Mpc cubico (esto equivale a una densidad de galaxias diez veces superior a la media fuera de los grupos).

La pregunta que nos hacemos a continuación es si todas las galaxias pertenecen a un grupo o a una estructura mayor del Universo. Observacionalmente se encuentra que entre el 10 y el 20% de las galaxias no pertenecen a ningún grupo. A estas galaxias se las conoce como galaxias de campo.

La determinación de la mása de un grupo de galaxias se realiza por dos procedimientos diferentes: por un lado se estudian los efectos gravitacionales (obteniéndose la mása dinámica) y por otro se analiza la luz que nos llega de las galaxias (dando lugar a la mása luminosa). Comparando ambos resultados se comprueba que la mása dinámica es entre cuatro y diez veces superior a la luminosa. Esto significa que una gran parte de la materia que compone los grupos de galaxias “no brilla”, es decir, no emite luz suficiente para ser observada desde la Tierra o bien esta en una forma de materia que no emite luz. A esta mása se le suele llamar “materia oscura”.

Cúmulos y supercumulos de galaxias

Parece existir una tendencia natural de la materia a juntarse en unidades cada vez más grandes. Los quarks (uno de los constituyentes básicos de la materia) se agrupan para formar bariones, los cuales a su vez forman los átomos junto con los electrones. Los átomos se juntan en estrellas y estas son los constituyentes básicos de las galaxias, quienes, como hemos visto, se juntan en grupos de unas decenas para formar los Grupos de galaxias. Los grupos de galaxias constituyen los cúmulos de galaxias los cuales a su vez se agrupan en supercúmulos de galaxias, las estructuras más grandes del Universo conocido.

A la vista de las observaciones astronómicas no parece una labor fácil decidir una definición clara de lo que se entiende por cumulo de galaxias. Para intentar clarificar este termino, se ha recurrido a una herramienta utilizada en Estadística: las funciones de correlación. Se parte de la idea de que si las galaxias se encuentran en un cumulo, la distancia media que las separa es bastante menor que si estuvieran distribuidas uniformemente. El calculo de las funciones de correlación es bastante complicado.

En primer lugar se necesita disponer de un catalogo de galaxias que nos de su posición aparente. Este catalogo fue elaborado en el observatorio de Lick y representa un total de un millón de galaxias (hasta magnitud 18.7). La esfera celeste se divide en cuadraditos de 1 grado cuadrado sobre los que se cuentan las galaxias que estan dentro de cada uno, comparándose este numero con la densidad media.

Este análisis muestra la existencia de un fondo uniforme de unas 50 galaxias por grado cuadrado, sobre el que se superponen un gran numero de cúmulos con densidades que rondan las cien galaxias por grado cuadrado. Esta tendencia a la agrupación de las galaxias disminuye drásticamente para escalas de distancias mayores de 20 Mpc, correspondiéndose con las dimensiones de los mayores cúmulos observados.

No obstante, las funciones de correlación no nos dicen nada acerca de cual es el nivel de concentración de galaxias necesario para que tengamos un cumulo. La definición es bastante más arbitraria. Normalmente se llama cumulo de galaxias a aquellas agrupaciones que, en un volumen como el del Grupo Local (una esfera de unos pocos Mpc) contienen un numero de galaxias comprendido entre varios cientos y varias decenas de miles. La densidad de galaxias en los centros de los cúmulos muy ricos, puede llegar a ser de miles a millones de veces superior a la densidad media del Universo.

Los dos cúmulos de galaxias más cercanos a la Vía Láctea son el cumulo de Virgo, a una distancia de 20 Mpc en la dirección del Polo Norte Galáctico y el Cumulo de Coma, en la constelación de la Cabellera de Berenice a 100 Mpc de nosotros.

Del estudio del catalogo de galaxias de George Abell, realizado con la cámara Schmidt de Monte Palomar y que comprende galaxias hasta magnitud 21, se ha podido detectar la existencia de dos tipos principales de cúmulos de galaxias: los cúmulos regulares, muy concentrados y los irregulares, con una concentración y un numero de miembros menor y por lo tanto con una mayor dispersión.

Los cúmulos regulares de galaxias tienen simetría esférica y una gran concentración de galaxias en su parte central (a menudo, el centro del cumulo lo ocupa una galaxia elíptica supergigante). Las velocidades de rotación de las galaxias del núcleo son del orden de 1000 Km/seg. La mayoría de las galaxias en estos cúmulos son elípticas o lenticulares, con muy poca materia interestelar, El diámetro de estos cúmulos oscila entre 1 y 10 Mpc, sus másas son del orden de 10l5 Mo, equivalente a diez mil galaxias como la Vía Láctea. El cercano Cumulo de Coma es el prototipo de cumulo galáctico regular.

Los cúmulos irregulares no muestran simetría ni una concentración en la distribución de las galaxias que lo forman. Las velocidades orbitales de la galaxias son muy pequeñas, sus tamaños varían entre 1 y 10 Mpc y el rango de másas entre 10(12) y 10(14) Mo. Un exponente claro de cumulo irregular es el Cumulo de Virgo. También pueden considerarse dentro de esta categoría al Grupo Local y a todos los grupos de galaxias distribuidos en nuestras inmediaciones.

El problema de la materia oscura que vimos en el punto anterior persiste cuando hablamos de cúmulos de galaxias, es decir, la mása dinámica del cumulo no coincide con la mása luminosa, siendo esta ultima inferior.

Los ricos cúmulos de galaxias de 10 Mpc de diámetro no son las estructuras más grandes del Universo. De hecho, su distribución consiste en un fondo más o menos uniforme de cúmulos separados 55 Mpc de promedio, sobre los que se superponen cúmulos de cúmulos, los llamados Supercúmulos de galaxias.

Por ejemplo, nuestro Grupo Local, junto con algunas docenas más de grupos cercanos de galaxias, es un miembro de un sistema mucho mayor de 15 Mpc de radio, centrado en el cumulo de Virgo, conocido como Supercúmulo Local. Por otro lado, este supercúmulo es relativamente pobre; contiene únicamente un cúmulo rico (en su centro) y varios grupos de galaxias.

En la actualidad se han encontrado más de 50 supercúmulos, cada uno con un promedio de unos doce cúmulos ricos y varias decenas de cúmulos más pequeños. El diámetro de estas estructuras es del orden de 100 Mpc.

Se cree que la jerarquía de las estructuras del Universo se detiene en los supercúmulos de galaxias. De hecho, se obtiene que a escalas mayores de 1000 Mpc, la variación en la densidad de galaxias se reduce a la mitad de la densidad media del Universo, lo que significa que, a escala muy grande, el Universo es homogéneo e isótropo.

En la actualidad se cree que la distribución de cúmulos y supercúmulos de galaxias en el Universo no es homogénea. Se ha observado que esta distribución tiene lugar en grandes “burbujas” de espacio de forma que la materia se encuentra en las paredes de estas estructuras, quedando la parte central constituida por un vacío (de materia) casi absoluto. En los puntos de contacto entre las burbujas se localizarían las grandes distribuciones de materia antes mencionadas, la más cercana de las cuales se conoce como “la Gran Muralla”.

Sea como sea nuestro Universo, parece factible hoy en día, que en un plazo de tiempo razonablemente corto (en escala humana) podremos contar con una visión bastante aproximada de como es la distribución global de materia en la parte del Universo en la que nos encontramos.

EL BIG BANG

Las observaciones nos indican que el Universo se esta expandiendo, es decir, las galaxias se estan separando unas de otras. Echando la vista hacia atrás, esta expansión significa que antes, el Universo era más pequeño, las galaxias estaban más juntas.

La expansión del Universo no hay que entenderla como la clásica imagen de una artefacto que ha explotado y sus piezas se separan unas de otras en el espacio exterior, ajeno a la propia explosión, más bien se trata de una expansión del propio espacio-tiempo, que arrastra a los objetos materiales en el inmersos. En este sentido, el punto en donde se produjo la Gran Explosión (Big Bang) no es ninguno en concreto, sino más bien es todo el Universo (aquí, en Logroño, en Canopo y en cualquier lugar del Universo).

Daremos aquí un pequeño repaso a lo que se conoce como Modelo Estandar del Big Bang. Para ello comenzaremos una centésima de segundo después del comienzo de la expansión, hace entre 13 y 20 mil millones de años. Lo anterior a esa primera centésima de segundo inicial y hasta 10-47 segundos después del Big Bang pertenece al dominio de la Mecánica Cuántica (alguna de cuyas predicciones ya han sido confirmadas observacionalmente mediante el satélite COBE) y de ahí hasta el cero, corresponde al dominio de las teorías de Gran Unificación (que pretenden configurar una teoría capaz de explicar la Gravitación y las otras tres fuerzas conocidas, Electromagnetismo, interacción Débil y fuerza Fuerte, como distintas facetas de esa única “Superfuerza”).

En t = 0.01 seg. el Universo tenia una temperatura de unos cien mil millones de grados K, con una densidad de cuatro mil millones de veces la del agua. En estas condiciones, la materia y la radiación se encuentran acopladas y ni siquiera los neutrinos eran capaces de escapar a esta interacción.

Un tercio de segundo después, los neutrinos dejaron de interactuar apreciablemente con la materia y se desacoplaron. A partir de ese momento evolucionaron de forma independiente. Esos neutrinos llenan todo el Universo desde entonces, constituyendo un baño de partículas que no ha podido ser detectado.

En t = 1.1 seg. comenzó la aniquilación de pares e+ e-: la destrucción de materia y antimateria para dar luz. Un pequeñísimo exceso de la materia sobre la antimateria fue el que permitió más tarde que se formaran las galaxias y con ellas las estrellas y los planetas.

A los 3 minutos y 46 segundos comienza la nucleosíntesis primordial: la formación de núcleos de Deuterio, Helio y una pequeñísima proporción de Litio.

En t = 4 min. ya se había producido todo el Helio observado actualmente en el Universo, quedando una composición de un 75% de Hidrogeno y un 25% de Helio aproximadamente.

El hecho de que la explicación vaya tan despacio en esta primera fase se debe a que en esa época, el tiempo necesario para que un evento tuviera carácter cosmológico, es decir, para que afectara a una parte significativa del Universo, era muy pequeño debido a su reducido tamaño.

En la actualidad, para que un evento tenga carácter cosmológico, hay que esperar un tiempo igual a 10 veces la vida del Universo. Esto se resume diciendo que el Tiempo Característico del Universo primigenio era mucho menor que ahora (Tiempo Característico = Tiempo necesario para que una región dada del Universo doble su tamaño por la expansión cosmológica). De esta forma, en Cosmología, el tiempo se mide con potencias de 10 (tanto positivas como negativas).

Al cabo de media hora, se habían aniquilado todos los pares electrón-positrón apareciendo el estado de vacío que encontramos hoy. De esta aniquilación se salvaron uno de cada mil millones de electrones, suficiente para neutralizar la carga eléctrica positiva de los protones y constituir un Universo globalmente neutro en carga eléctrica.

En este momento había mil millones de fotones por cada nucleón. A esta época se le llama “época de la radiación” ya que la alta energía de la misma impedía la formación de los átomos. La temperatura había descendido a unos 300 millones de grados K y la densidad era del 10% de la del agua.

Para que se formaran átomos había que esperar a que la temperatura descendiera por debajo de los 4000 K. Entre t = 300000 años y un millón de años, prácticamente toda la materia paso a formar parte de átomos, produciéndose el desacoplamiento materia radiación. Antes de que esto ocurriera, el Universo se parecía a la superficie del Sol:

Caliente, opaco y lleno de luz amarillenta. Después se hizo transparente, al tiempo que la mayor parte de la energía pasaba a formar parte de la materia. Terminaba así la era de la radiación y comenzaba la “era de la materia” en la que nos encontramos actualmente.

La radiación del Universo dejo de interactuar apreciablemente con la materia neutra, desacoplándose ambos y evolucionando a partir de entonces de manera independiente (como había ocurrido anteriormente con los neutrinos). La radiación lleno todo el Universo mientras que la materia tendía a configurar grandes agrupaciones.

La radiación que se desacoplo en aquella época es la que descubrieron Pencias y Wilson en 1965 como un fondo cósmico de microondas. Este baño de radiación es altamente isótropo, es decir, presenta las mismás características en todas las direcciones en las que se observe. Su espectro corresponde al de un cuerpo negro a 2.7 K, siendo esta la temperatura actual del Universo.

Al final de la era de la radiación, la densidad era de unos 10 millones de átomos por cada litro de Universo, mientras que en la actualidad se encuentra, en promedio en 1 átomo por cada 1000 litros.

En la época dominada por la radiación debieron crearse las irregularidades que más tarde darían lugar a la formación de las estructuras a gran escala del Universo, en las que se hallan incluidas las galaxias y en ellas las estrellas. Este proceso no esta bien comprendido en la actualidad, existiendo dudas de que se formo antes, si las grandes estructuras y a partir de ellas las pequeñas, o al revés.

Actualmente, entre 13 y 20 mil millones de años después, se han formado unos cien mil millones de galaxias, cada una de ellas con un promedio de unos cien mil millones de estrellas, lo que hace un total de diez mil millones de billones de soles, repartidos a lo largo y ancho de un Universo observable de entre 10 y 20 mil millones de años luz de radio.

La Astronomia en la Exploracion Espacial Estudio del Universo

La Astronomía en la Exploración Espacial: Estudio del Universo

En la investigación astronómica, el descubrimiento de nuevos tipos de estrellas es análogo al descubrimiento de nuevos tipos de partículas en la física atómica. La radioastronomía reveló la existencia de discretas fuentes de radio en el universo, y en 1960, en Estados Unidos, A.R. Sandage consiguió un importante adelanto al identificar una de estas fuentes con un objeto tenuemente visible mediante un telescopio óptico. Era el primero de los quásars fuentes pequeñas pero sumamente energéticas, caracterizadas por una peculiaridad en sus espectros que indica que se mueven a una velocidad cercana a la de la luz.

astronautaEn 1967, Anthony Hewish y Jocelyn Bell descubrieron el primer pulsar, otra fuente de ondas de radio que fluctúa periódicamente. Por un momento, pensaron que podían proceder de alguna forma distante de vida inteligente que trataba de comunicarse, pero esta posibilidad fue descartada cuando se descubrieron otros ejemplos del mismo fenómeno. La frecuencia de las ondas de radio de los púlsars  varía entre unas pocas centésimas de segundo y alrededor de cuatro segundos.

Al parecer, los púlsars son estrellas neutrónicas colapsadas, es decir, objetos originalmente masivos donde la materia ha llegado a concentrarse tanto que los electrones y los protones se han unido para formar neutrones. Probablemente, no tienen más de unos pocos kilómetros de diámetro, y la pulsación se debe aparentemente a su rápida rotación, del mismo modo que la cabeza giratoria de un faro produce un haz de luz a intervalos regulares en todas direcciones.

En 1962, el espectro astronómico se amplió aún más gracias a las originales investigaciones de B.B. Rossi sobre los rayos X procedentes del espacio. Más concretamente, Rossi identificó una fuente de rayos X en Escorpión X-l. Dos años más tarde, las ondas de radio proporcionaron más indicios sobre los mecanismos del universo.

Con una gigantesca antena diseñada para recibir las señales de los satélites, A.A. Penzias y R.W. Wilson, de la empresa Bell Telephone, en Estados Unidos, registraron una radiación de fondo en la región de las ondas de radio, procedente de todas direcciones, correspondiente a las emisiones de un cuerpo negro a una temperatura de 3,5 °K. En la Universidad de Princeton, R.H. Dicke y P.J. Peebles pudieron ofrecer una explicación teórica para este fenómeno.

Según la teoría del «big bang» sobre el origen del universo, la radiación liberada en la explosión inicial debe haberse distribuido y enfriado progresivamente. Los cálculos indicaban que la temperatura actual del universo debía ser de unos 5 °K, con cierto margen para una serie de incertidumbres. Era razonable suponer que la radiación observada por Penzias y Wilson era la radiación natural de fondo del universo enfriado. Los cosmólogos consideran este fenómeno como una de las pruebas más convincentes en favor de la teoría del «big bang».

Los experimentos de Rossi se efectuaron mediante sondas instaladas en cohetes, lo cual nos recuerda que para 1960 se habían logrado considerables progresos en el campo de los satélites de observación no tripulados. Sus posibilidades se habían presagiado con cierta confianza ya en 1955, cuando tanto la URSS como Estados Unidos los incluyeron provisionalmente entre sus contribuciones al Año Geofísico Internacional (AGÍ).

Sus ventajas sobre los cohetes-sonda, como los utilizados por Rossi, residían en su capacidad para registrar y transmitir informaciones durante largos periodos, no solamente durante unos pocos minutos. Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el AGÍ, pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.

Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958. Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960. A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Sondas Espaciales Lunik Surveyor Envio de Sondas a la Luna

La Sondas Espaciales: Lunik Surveyor Envio de Sondas a la Luna

El nacimiento de la astronáutica: ¿Qué es una sonda?

En la terminología espacial se llama sonda a todo ingenio lanzado al espacio por medio de cohetes y provisto de los instrumentos de medición y radiocomunicación que le permiten la exploración automática del espacio. Algunas sondas disponen de aparatos fotográficos o de televisión para tomar vistas de las superficies de los astros que exploran; otras son dirigidas de forma que lleguen a posarse en la superficie del astro (como las enviadas a la Luna, Venus y Marte).

La técnica de navegación de las sondas es algo más que una simple extrapolación de la empleada en los satélites artificiales: las distancias de, a lo sumo, miles de kilómetros de éstos, se convierten en decenas de millones en el caso de una sonda destinada a Marte, por ejemplo, lo que complica extraordinariamente los sistemas de navegación y seguimiento.

Sin embargo, los problemas de la investigación por medio de sondas se centran en la dificultad de poder emitir imágenes lejanas suficientemente detalladas, ya que la energía disponible a bordo para su transmisión es muy limitada. Por otra parte, las sondas que se envían hasta la superficie de otros astros deben posarse en ellos con suavidad y quedar en una posición de reposo adecuada para su buen funcionamiento.

El empleo de sondas espaciales ha proporcionado importantes avances en el conocimiento científico de la superficie de la Luna, Venus y Marte, y muy recientemente de Mercurio y Júpiter, desbancando totalmente a los más modernos observatorios astronómicos terrestres en la investigación de los planetas y astros menores del Sistema Solar.

Sondas lunares: Los datos suministrados por las sondas enviadas a la Luna han sido fundamentales para realizar los programas tripulados y para el envío de sondas profundas destinadas a estudiar otros astros del Sistema Solar.

Pueden dividirse en cuatro grandes grupos o familias:

1) Sondas de vuelo abierto.

2) Sondas de alunizaje, divisibles a su vez en sondas de impacto y de alunizaje suave.

3) Sondas de alunizaje con órbita intermedia alrededor de la Luna.

4) Satélites artificiales lunares.

Entre las del primer grupo cabe destacar el Lunik 1, soviético, por el impacto que causó en la opinión pública, en tanto que el primer lanzamiento de un ingenio destinado a nuestro satélite, pasó a unos 7.400 kilómetros de éste y entró en órbita solar. Los tres Pioneer estadounidenses que lo habían precedido constituyeron un absoluto fracaso. El Lunik 3 (octubre de 1959) fue un importante éxito de la tecnología astronáutica soviética: circunvalé la Luna y transmitió por primera vez fotografías de su cara oculta.

La sondas espaciales Lunik Surveyor Envio de Sondas a la Luna

Sonda Lunik, destinada a la astronáutica soviética a la exploración de la Luna. Con el programa Lunik la U.S. demostró la posibilidad de explorar automáticamente el satélite, sin arriesgar vidas humanas.

En este grupo debe incluirse también la serie Zond soviética (1965 1970), en principio destinada a la investigación de los planetas cercanos y después cambiada radicalmente de objetivo: a partir del Zond 4 todos los vehículos de esta serie parecen haber sido modelos derivados de las cápsulas habitadas Sojuz, y dedicados exclusivamente a la investigación lunar.

El Zond 5 fue el primer vehículo recuperado tras un vuelo circunlunar, mientras que los Zond 6, 7 y 8 permitieron ensayar las técnicas de reentrada en la atmósfera con “rebote” sobre las capas intermedias de la misma. Todos ellos iban equipados, además, con equipos fotográficos automáticos e instrumentos registradores de diversos parámetros.

En el segundo grupo debe incluirse el Lunik 2 (septiembre de 1959), que fue el primer objeto fabricado por el hombre que estableció contacto con otro cuerpo en el espacio.

La contrapartida estadounidense la constituyó la serie Ranger, destinada a fotografiar la Luna de cerca, pero en los años 196162 los deseos superaban las propias posibilidades y los seis primeros Ranger fallaron total o parcialmente.

Sólo consiguieron su objetivo los tres últimos de la serie. Por esta razón, mientras preparaba el ambicioso programa Lunar Orbiter, Estados Unidos intentó ganar la partida a los soviéticos con la serie Surveyor, destinada a lograr alunizajes suaves.

Sin embargo, una vez más se adelantaron sus oponentes con el Lunik 9 (enero de 1966), gran éxito tras cinco fracasos parciales que lo precedieron en otras tantas misiones Lunik. Cuatro meses más tarde, en mayo de 1966, el Surveyor 1, primero de una serie afortunada, lograba alunizar y obtener fotografías de gran calidad del suelo lunar.

En el tercer grupo hay que incluir los Lunik de los números 16 al 21. Cabe destacar el Lunik 16 (septiembre de 1970), cuya cápsula de descenso, equipada con un brazo articulado, tomó muestras de la superficie lunar en el Mar de la Tranquilidad y regresó a la Tierra. Con esta misión y las posteriores los soviéticos demostraron la posibilidad de explorar la Luna por medio de aparatos automáticos, evitando así los riesgos y las costosas inversiones que tuvieron que afrontar los estadounidenses con el programa Apolo.

El Lunik 17 (noviembre de 1970) alunizó en el Mar de las Lluvias y de su interior salió un vehículo lunar teledirigido, el Lunojod 1, que disponía de varios equipos de televisión, un telescopio de rayos X, detectores de radiación, un analizador químico por dispersión de partículas y un penetrómetro. La mayor parte de estos dispositivos iban encerrados en un compartimiento estanco mantenido a la presión atmosférica y con temperatura regulada. Como fuente de energía durante los períodos de noche lunar se utilizaba un reactor isotópico. 

La vida útil del Lunojod 1 fue de nueve meses, durante los cuales recorrió un total de 10 kilómetros transmitiendo más de 180.000 imágenes de televisión. El Lunik 18 (septiembre de 1971) se estrelló en una región próxima al Mar de la Fertilidad. Mientras que el Lunik 19 estudió las irregularidades del campo gravitatorio lunar, el Lunik 20 (febrero de 1972) realizó una misión similar a la del 16, recogiendo muestras lunares y trayéndolas a la Tierra.

La serie de investigaciones lunares soviéticas finalizó con el Lunik 21, lanzado el 8 de enero de 1973, llevando a bordo el Lunojod 2, casi cien kilogramos más pesado que su antecesor (840 frente a 756), y que construyó, cómo éste, un gran éxito de la exploración automática.

Entre los satélites artificiales lunar destacan los Lunik 10, 11 y 12 y la serie Lunar Orbiter estadounidense, cuyas fotografías fueron imprescindibles para la preparación de las misiones Apolo.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Que es un satelite artificial? Uso y Funciones de Satelites Artificiales

¿Qué es un satélite artificial? Uso y Funciones de Satélites Artificiales

El nacimiento de la astronáutica: Satélites artificiales

Se entiende por satélite artificial todo cuerpo fabricado por el hombre y puesto por él en órbita terrestre, lunar o alrededor de otro astro del Sistema Solar. No debe confundirse con las sondas interplanetarias, de las que nos ocuparemos más adelante.

satelite artificial

En teoría, el principio fundamental en que se basa la comunicación vía satélite es bastante simple, pero resulta muy complejo de llevar a la práctica. Una vez situado en órbita, el satélite de telecomunicaciones es un punto fijo en el espacio que puede ser utilizado para reflejar o retransmitir una señal de radio de alta frecuencia.

La señal audio, vídeo o de datos que se transmite se envía al espacio y es recibida por el satélite, que la amplifica y la retransmite a la Tierra. Esto permite que la señal, que solamente puede viajar en línea recta, «rebote» a lo largo de miles de kilómetros hasta unas localidades situadas en todo el mundo.

Salvo raras excepciones, los satélites de telecomunicaciones son geoestacionarios o están colocados en una órbita especial, a casi 36.000 km. de altura sobre el ecuador, con una velocidad angular igual a la terrestre, por lo que se mantienen fijos respecto a un punto cualquiera de la superficie de la Tierra. Los satélites geoestacionarios ofrecen a las telecomunicaciones las ventajas siguientes:

tres satélites son suficientes para cubrir toda la superficie terrestre (excluidos los casquetes polares)
en conjunto, el sistema de telecomunicaciones (satélites y estaciones terrestres) tiene una configuración fija, lo que simplifica considerablemente el modo de operar y hace que las interferencias puedan controlarse mejor; todo ello permite la instalación en el espacio de una gran capacidad de comunicación.

Los satélites artificiales se mueven con arreglo a las mismas leyes que gobiernan el movimiento de los planetas alrededor del Sol.

Describen, por tanto, órbitas elípticas, generalmente de escasa excentricidad; los puntos de sus órbitas que están más cerca y más lejos de la Tierra se denominan, respectivamente, perigeo y apogeo (perigeo y apogeo cuando se trata de un astro cualquiera); el tiempo que emplean en dar una vuelta completa es el período, que, en la mayor parte de los satélites terrestres, oscila alrededor de una hora y media.

Su velocidad varía a lo largo de la órbita, alcanzando un valor máximo en el perigeo y mínimo en el apogeo.

La puesta en órbita de un satélite requiere básicamente dos operaciones: elevarlo hasta la altura prefijada y comunicarle una velocidad orbital adecuada para que se mantenga en ella. Por lo general, es conveniente que el perigeo sea lo más elevado posible, ya que la fricción con la atmósfera impone una seria limitación a la vida de los satélites; los hay que sólo han permanecido una pocas horas en órbita, mientras que otros tienen asegurada una permanencia de centenares de años, muchos más de los que puede durar el funcionamiento de los aparatos que contienen.

La forma, estructura y características mecánicas de un satélite artificial dependen de muchos factores. El más importante es el volumen de que se dispone cuando se proyecta, el cual está en función de los equipos que debe albergar, y muy especialmente de la potencia del lanzador en cuya ojiva ha de instalarse.

Un segundo factor condicionante viene dado por la aceleración que debe soportar, las vibraciones a que está sometido y la temperatura que debe resistir. Finalmente, los métodos de estabilización y alimentación de energía imponen una nueva limitación: la concepción de un satélite alimentado por medio de baterías eléctricas será muy distinta de la de otro que deba utilizar la energía solar por medio de paneles de células fotoeléctricas.

copernico, astronomo

La forma , estructura, y características mecánicas de un satélite dependen de su volumen y de su aceleración, las vibraciones y las temperaturas que debe resistir, como asi también del método de estabilización y de alimentación de energía. Vista del satélite ruso Protón, el de mayores dimensiones de los construidos por la Unión Soviética.

Actualmente, existen más miles satélites o restos de ellos en órbita alrededor de la Tierra, de los cuales un buen número no emiten ya ningún tipo de datos. otros funcionan sólo en parte y un centenar, aproximadamente, están en pleno rendimiento. Los fines a que han sido destinados cubren un amplio campo de aplicaciones, desde los satélites científicos o militares hasta los de comunicaciones, meteorológicos, de ayuda a la navegación, etcétera.

Su puesta en órbita ha representado un paso importante en el conocimiento del cosmos, y constituyen la solución casi perfecta para obtener información de lo que pasa alrededor de la Tierra, aunque, probablemente, será con los laboratorios espaciales tripulados, como el Skylab, con los que el hombre podrá llevar a cabo las más perfectas tomas de datos del espacio que nos rodea.

grafico de una órbita geoestacionaria

USO EN TELEFONÍA Y TELEVISIÓN: En una primera fase, los satélites nacionales estadounidenses se utilizaron principalmente para comunicaciones telefónicas de larga distancia; las transmisiones televisivas aparecían sólo esporádicamente. En 1975. un servicio estadounidense de televisión de pago, con menos de 60.000 abonados, anunció que utilizaría un satélite nacional para distribuir sus programas a las redes de TV vía cable de todo el país. El 30 de septiembre de 1975, Home Box Office Inc. (HBO) distribuyó a redes vía cable afiliadas, de Florida y Mtssissippi, la retransmisión en directo del encuentro de boxeo, válido para el campeonato mundial de los pesos pesados, entre Muhammad Alí y Joe Frazier.

Poco después, otros servicios se unieron a HBO a bordo del satélite Satcom e iniciaron el desarrollo de miles de redes vía cable en todo Estados Unidos. Mientras HBO organizaba su sistema de distribución vía satélite, la NASA se dedicaba a llevar su satélite experimental ATS-6 a una órbita temporal sobre el océano índico. Había prestado el ATS-6 a la India como parte del Satellite Instructional Televisión Experiment (SITE), para mostrar cómo la tecnología de los satélites podía servir para distribuir programas educativos directamente a terminales de comunicaciones distribuidos por zonas del Tercer Mundo.

USO EN METEREOLOGÍA: Aunque las imágenes del tiempo proporcionadas por el Meteosat aparecen todos los días en las televisiones europeas, la mayoría de nosotros no nos damos cuente de hasta qué punto dependemos de las previsiones meteorológicas precisas. Solamente en términos de ahorro de recursos, la contribución de la meteorología europea es considerable.

La importancia de la meteorología en muchos campos de la actividad humana hizo comprender rápidamente a Europa que, para las previsiones del tiempo, no era posible depender de otros países. Así, uno de los primeros empeños de la Agencia Espacial Europea fue precisamente lanzar satélites meteorológicos.

El primero de la serie fue puesto en órbita en noviembre de 1977. Se trataba del Meteosat-1, seguido del Meteosat-2 en junio de 1981. El Meteosat-3 fue llevado al espacio en junio de 1988; en marzo de 1989 le tocó el turno al Meteosat-4, llamado también MOP-1; en marzo de 1991 partió el Meteosat-5 o MOP-2 y, en noviembre de 1993, el Meteosat-6 o MOP-3. Actualmente, tres de ellos todavía están en activo: el MOP-1, el MOP-2 y el MOP-3, que giran alrededor de la Tierra a 36.000 km de altura en órbita geoestacionaria.

USOS CIENTÍFICOS: para estudio del universo y de los cuerpos celestes, para fotografías la superficie terrestre y analizar suelos, relieves, recursos naturales y cualquier tipo de otra información que sea complicado su acceso. (ampliar este uso desde aquí)

USO COMO G.P.S.: El Global Positioning System es una red de satélites que identifica con extrema precisión cualquier posición, y gracias a la cual es imposible perderse. Hasta no hace mucho, todo aquel que se aventuraba en pleno océano sólo disponía para calcular su posición de la observación de las estrellas o del uso de la brújula y el sextante. Ahora, gracias a la moderna tecnología de los satélites, es posible efectuar esta operación de un modo más sencillo.

Con la simple presión de un botón de un pequeño instrumento portátil, el Global Positioning System (Sistema de Posicionamiento Global), podemos determinar nuestra posición con un error de pocos metros. Esta tecnología va destinada a pilotos, marinos, alpinistas y a cualquier individuo que desee o deba conocer su propia posición con un margen de error muy pequeño.

El empleo de satélites para la navegación o la determinación de localizaciones no es nuevo. En 1959, la Marina militar norteamericana lanzó su primer satélite Transit para uso de los submarinos lanzamisiles Polaris y de los buques de combate de superficie; este sistema permitía determinar la posición con un error de 150 metros.

El Global Positioning System es todavía más preciso. Establecido y controlado por las fuerzas armadas estadounidenses, utiliza una red de 24 satélites Navstar, 21 de los cuales están en activo y tres son de reserva, colocados en seis planos orbitales que se cruzan a una altura de 20.000 km. El primero de estos satélites fue lanzado en 1978, pero el sistema no llegó a ser operativo hasta 1987, cuando hubo en órbita 12 satélites; en diciembre de 1993, la red quedó completada.

Fuente Consultada:
Los Viajes Espaciales Salvat Tomo 53
El Universo Enciclopedia de la Astronomía y El espacio Tomo IV

Propulsion de Satelites al Espacio Sistema Propulsor de Sondas Espaciales

Propulsión de Satélites al Espacio: Sistema Propulsor de Sondas Espaciales

Lanzadores y satélites: La propulsión

En su obra Principios matemáticos de la filosofía de la Naturaleza (1687), Isaac Newton estableció las bases axiomáticas de la mecánica moderna, que, para nosotros, son de gran interés para asimilar el fenómeno de la propulsión. Newton comprendió que la fuerza de la gravedad —es decir, la atracción mutua que ejercen unos cuerpos sobre otros, y que es la responsable, no sólo de la caída de los cuerpos sobre la superficie terrestre, sino también del movimiento de los astros— no cesa en ningún punto: su alcance es ilimitado, si bien disminuye progresivamente con la distancia.

A partir de las leyes enunciadas por Kepler sobre el movimiento de los planetas, Newton dedujo el valor de la acción del Sol sobre éstos, y estableció que el Sol atrae a cada planeta con una fuerza, dirigida del centro del segundo al del primero, cuya intensidad es directamente proporcional a la masa del Sol e inversamente proporcional al cuadrado de la distancia que separa a ambos. Pero la fuerza con que el Sol atrae al planeta es igual y de sentido contrario a la fuerza con que el planeta atrae al Sol (principio de la acción y la reacción), por lo que la atracción Sol-planeta no depende tan sólo de la masa del Sol, sino también de la del planeta.

El principio de la acción y la reacción tiene una validez universal: a toda fuerza (acción) que un cuerpo ejerce sobre otro, éste ejerce sobre el primero otra fuerza (reacción) de igual intensidad, pero de sentido contrario. El funcionamiento de los cohetes se basa precisamente en este principio. En este caso, la acción la constituye el chorro de gases (jet) que es expulsado por la tobera de escape, y que determina la aparición de una reacción de sentido opuesto al flujo del gas, la cual impulsa al cohete.

Sistemas propulsores

La retropropulsión o reacción es un método para producir movimiento mediante la eyección de una masa, generalmente en forma gaseosa, desde el interior del cuerpo propulsado. Los gases desprendidos proceden de una combustión y poseen elevada temperatura y gran velocidad.

Se llama cantidad de movimiento de un sistema al producto de su masa por su velocidad. En la retropropulsión la cantidad de movimiento de los gases expulsados determina un incremento igual de la misma en el cohete. Pero la masa del cohete es siempre muchísimo mayor que la de los gases que expulsa, razón por la cual éstos deben ser emitidos con gran velocidad.

Con objeto de corregir el enorme inconveniente que supone la masa del cohete, la mayoría de éstos se construyen en varias etapas o gases acopladas: en el momento del lanzamiento el cohete debe desarrollar una Titán III: nueva generación de lanzadores gran fuerza para contrarrestar la atracción de la Tierra, lo que supone el consumo de gran cantidad de combustible; al alcanzar tina determinada altura se desprende la tapa del cohete que ha servido para iniciar su elevación, y en este instante entran en funcionamiento los motores de la segunda etapa, favorecidos por la circunstancia de tener que impulsar una masa mucho menor y también por tener que vencer un valor más pequeño de la gravedad terrestre; muchos cohetes constan todavía de una tercera etapa para las operaciones de puesta en órbita o para dirigirse a otro astro.

Un motor-cohete consta esencialmente de los siguientes elementos: una cámara de combustión, un sistema que suministra el combustible y una tobera o conducto de eyección de los gases al exterior. La reacción química de los agentes combustible y comburente (en la tecnología de los cohetes este conjunto recibe el nombre de propergol) situados en la cámara de combustión, produce gases que son expulsados a través de la tobera.

Imagen Izq: Titán III constituyó una nueva generación de
lanzadores en la que se destacan los dos boosters acoplados

El motor-cohete tiene su propio combustible y oxidante, de aquí que según la naturaleza de los propulsantes utilizados para producir el chorro de gases se distinga entre cohetes con propulsante sólido, líquido y mixto o híbrido, cuya importancia es cada vez mayor.

En los cohetes con propulsante sólido, el combustible y el comburente —a los que suele ir incorporada una sustancia afín a ambos con objeto de que su mezcla sea homogénea y bien repartida— están almacenados en la cámara de combustión. La combustión puede ser restringida o ilimitada. La primera se realiza de manera análoga a la de un cigarrillo, o sea, a partir del extremo de la carga que se encuentra más próxima a la tobera y progresando hacia el extremo anterior de la misma.

La combustión ilimitada o sin restricciones se realiza simultáneamente en todos los puntos de las superficies interior y exterior de la carga. Aunque los cohetes con propulsante sólido son, en general, de construcción relativamente sencilla, presentan el inconveniente de requerir una cámara de combustión grande y pesada, y de que. en ocasiones, la combustión no es correcta; generalmente, se emplean como auxiliares los de combustión restringida para ayudar al despegue de aviones, y los de combustión ilimitada en cohetes auxiliares que se desprenden una vez han sido utilizados (su nombre inglés, booster, ha sido universalmente aceptado). Tienen la ventaja de que su lanzamiento es más fácil y de que pueden ser almacenados sin dificultades; su uso es básicamente militar.

En los cohetes con propulsantes líquidos, combustible y comburente están almacenados en depósitos distintos y pueden ser inyectados en la cámara de combustión por medio de dos sistemas: el de alimentación a presión, para los pequeños, y por medio de bombas, en los grandes. Presentan la ventaja de que, cerrando o abriendo a voluntad la alimentación, se puede regular el impulso; además, permiten el apagado y reencendido de los motores cada vez que ello es necesario, sin lo cual difícilmente se hubiesen conseguido las maniobras de cita y atraque en pleno cosmos, indispensables para los programas Gemini, Apolo, Sojuz, etc.

Aún actualmente, la manipulación de los líquidos (hidrógeno y oxígeno licuados, etcétera) constituye siempre un difícil problema, debido a que con frecuencia deben conservarse a temperaturas extraordinariamente bajas, o son muy inflamables. La “anatomía” de los cohetes con propulsantes líquidos es muchísimo más complicada que la de los sólidos; respecto a ello se cuenta que el primer ingeniero estadounidense que vio el interior de una V-2 exclamó, ante la complicación de los dispositivos: “Esto es la locura de un fontanero!

La propulsión en el futuro: Aunque empleando hidrógeno como combustible se han obtenido importantes valores del impulso, la limitación de la energía extraída de reacciones químicas es evidente. Para poder llevar a cabo misiones espaciales a distancias extremas es necesario desarrollar nuevos sistemas propulsores, que permitan la total exploración del Sistema Solar e incluso ciertos viajes espaciales.

La propulsión nuclear se basa en una planta de energía que utiliza el enorme calor desarrollado en la fisión nuclear para calentar un “líquido operante”, que podría ser un gas licuado, el cual se canaliza a través de la tobera. La construcción de un motor-cohete nuclear se ha demostrado factible merced al proyecto Kiwi (nombre de un pájaro de Nueva Zelanda que no vuela), al cual han seguido el Febo y otros, con el nombre genérico de NERVA (Nuclear Engine for Rocket Vehicle Application Ingenios nucleares para su aplicación en lanzadores).

La propulsión iónica, cuya idea es original de Ciolkovskij, consiste, a grandes rasgos, en la eyección de partículas elementales cargadas (protones, electrones, etcétera), las cuales adquirirían gran velocidad gracias a la acción de un campo electromagnético. Con una diferencia de potencial de 1.000 voltios entre los electrodos se obtienen velocidades de eyección del orden de 40.000 metros por segundo, diez veces superiores a las obtenidas mediante propulsantes líquidos. El empuje producido por los motores iónicos es reducido, pero merced a su escaso consumo de combustible pueden mantenerlo durante períodos de tiempo más largos.

En el terreno de las técnicas futuristas, pero teóricamente posibles, cabe imaginar un motor-cohete impulsado por la presión ejercida por los fotones o partículas de luz (propulsión fotónica). Quedan aún otros procedimientos que, al igual que éste, son todavía materia de especulación: aceleradores de plasma, motores eléctricos e iónicos combinados, etc.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Satelites Militares Durante la Guerra Fria Usos y Características

Satélites Militares Durante la Guerra Fría: Usos y Características

GUERRA FRÍA: Luego de la segunda guerra mundial Nada quedó sin ser afectado: ni puentes, ni ferrocarriles, ni caminos, ni transportes.  La mano de obra se resintió y grandes extensiones de tierras se perdieron para el cultivo.  La actividad industrial se atrasó, faltaban materias primas, herramientas apropiadas, tecnología moderna y energía.  Ante esta realidad, Europa perdió su papel decisivo en la política internacional, y surgió entonces, un nuevo orden mundial representado por la hegemonía de los Estados Unidos y de la Unión Soviética, alrededor de los cuales, y formando dos bloques enfrentados, el bloque occidental y el bloque oriental, se alinearon los restantes países del mundo.  La tensión entre ellos, dio lugar a la llamada “Guerra fría” que dominó por completo las relaciones internacionales en la última mitad del siglo XX. 

satelite militar

Los Primeros Satélites Artificiales de Uso Militar:
Usos y Características

Aunque los datos existentes son muy escasos, se calcula que más de la mitad de los satélites situados en órbita hasta 1973 estaban destinados a aplicaciones militares o paramilitares. Por sus misiones se pueden agrupar en cinco clases :

1) de reconocimiento fotográfico;
2) de alarma contra proyectiles balísticos ;
3) de detección de pruebas nucleares;
4) de bombardeo orbital;
5) de apoyo táctico.

A pesar del secreto que rodea a estos experimentos, los satélites de reconocimiento constituyen la clase mejor conocida y también la más numerosa. En líneas generales, se trata de plataformas muy bien estabilizadas, sobre las que van instalados equipos tomavistas de gran precisión. Las imágenes se envían a la Tierra por técnicas de televisión o en forma de negativo fotográfico, a bordo de cápsulas recuperables.

Los primeros ensayos de reconocimiento orbital se efectuaron en el marco del programa Discoverer y promovieron una oleada de protestas por parte de la Unión Soviética; pero meses después, también ésta disponía de sus propios satélites fotográficos. Desde entonces, entre las do; grandes potencias existe una especie di acuerdo tácito respecto a la legalidad del espionaje espacial recíproco.

No se conocen demasiadas características de estos primeros satélites, aunque se supone que la resolución de sus cámara, no alcanzaba más allá de los ocho o diez metros. La primera serie de satélites estadounidenses de reconocimiento propiamente dichos entró en servicio en 1961, con el lanzamiento del Samas 2. Su principal no vedad era que en vez de ir provisto de cápsula sula recuperable, como los Discoverer, las imágenes eran transmitidas a la Tierra por radio.

Las características de este sistema de transmisión constituyeron un secreto militar durante varios años. Tan sólo hacia 1964 la USAF (United States Air Force) Fuerzas Aéreas de los Estados Unidos) accedió a facilitarlas a la NASA para que pudieran ser empleadas en tareas civiles Su primera aplicación se llevó a cabo a bordo de las naves Lunar Orbiter, para confeccionar un plano detallado de la superficie de nuestro satélite. Pero entonces tales cámaras estaban consideradas como material anticuado y los satélites militares empleaban ya tomavistas de nuevo diseño, de definición muy superior.

Las cámaras de los Orbiter disponían de dos objetivos fotográficos: un gran angular y un tele. Ambos apuntaban en la misma dirección y se disparaban simultáneamente, impresionando cada uno un fragmento distinto de la misma película. En las misiones lunares (a unos 50 Km. sobre el suelo, aproximadamente) el gran angular cubría un cuadrado de 30 Km. de lado, mientras que el tele estaba enfocado hacia el centro de esa zona, sobre un campo de 16 por 4 Km. El resultado eran dos imágenes: una abarcaba una considerable extensión de terreno, escasamente detallada, en tanto que la otra presentaba un aspecto mucho más completo y minucioso de una pequeña parte de la misma región.

El Orbiter utilizaba película especial para fotografía aérea, de 70 milímetros de anchura y sin perforaciones laterales. La carga estándar de cada nave era de 90 metros de filme, suficientes para registrar unos doscientos pares de fotografías. El revelado se producía automáticamente a bordo, y los negativos ya tratados se recogían en una bobina de almacenamiento, en espera de que todo el carrete hubiese sido utilizado.

Una vez completada la toma de fotografías, se invertía el movimiento de avance de la película, que al deslizarse hacia atrás, pasaba ante el convertidor de imagen. Este dispositivo constaba de un foco luminoso muy concentrado que se desplazaba transversalmente sobre la película, explorándola por franjas de 2 milímetros de anchura. Al pasar a través de los diferentes grados de gris del negativo, la intensidad de luz variaba y esas oscilaciones eran recogidas por un foto multiplicador que las convertía en señales eléctricas.

Estas, convenientemente codificadas, eran enviadas a la Tierra. Más tarde, siguiendo un proceso inverso al descrito, podía reconstruirse la imagen con todo detalle. Aunque el sistema de transmisión era muy lento (para enviar una doble imagen requerían unos 40 minutos), tenía la ventaja de proporcionar una extraordinaria calidad de imagen. En muchas fotografías enviadas por los Orbiter se distinguen detalles de la superficie lunar de apenas un metro de diámetro.

La resolución obtenida por los satélites Samas equipados con estas mismas cámaras debió ser algo menor, pues éstos, forzosamente, tenían que estar a mayor altura que los Orbiter: 200 Km. como mínimo, en el perigeo; y también debido a la presencia de la atmósfera que con sus turbulencias y contaminantes en suspensión debió producir cierta degradación en la calidad de las fotos. Por tanto, teniendo en cuenta estos dos factores, cabe afirmar que, en la práctica, el poder de resolución de las cámaras de los Samas era por lo menos cinco veces inferior a la de los Orbiter, por lo que estos satélites “espías” sólo eran capaces de fotografiar detalles superficiales de cuatro a cinco metros de diámetro.

En 1963 apareció el primero de una nueva serie de satélites recuperables que venía a sustituir a los derivados del Discoverer.

Para lanzarlos se utilizaba un nuevo modelo de cohete, el Agena D, capaz de reencender su motor en pleno vuelo, lo que permitía al satélite ejecutar diversas maniobras, alterando las características de su órbita inicial. El equipo óptico se hallaba instalado en la sección media del vehículo, pues su enorme tamaño no permitía acomodarlo en el reducido espacio disponible en la cápsula de retorno.

La carga de película virgen también se encontraba en la sección media del satélite. A través de unas ranuras especiales, el filme penetraba en la cámara, donde era impresionado; a continuación, salía de nuevo al exterior y pasaba, a través de unos conductos a prueba de luz, al interior de la cápsula de reentrada, donde lo recogía una bobina de almacenamiento.

Al finalizar la misión, el motor del Agena D se encendía a contramarcha y el satélite empezaba a caer. Segundos más tarde se producía la separación de la cápsula, que efectuaba la maniobra de reentrada, mientras el resto del equipo, incluida la cámara fotográfica, se desintegraba al contacto con la atmósfera.

No se conocen muchos detalles acerca de la cámara usada en estos satélites; sin embargo, ésta pesaba más de doscientos kilogramos e iba equipada con un teleobjetivo en el que podían detectarse objetos de sólo un metro de diámetro, incluso desde alturas superiores a los 200 Km.

Hasta 1966, los satélites de reconocimiento estadounidense se habían utilizado para determinar de cuántos proyectiles se componía el arsenal balístico soviético y localizar las plataformas de disparo. El objetivo se había cumplido, pero las últimas fotografías transmitidas por los satélites demostraban que los técnicos militares soviéticos habían empezado a construir silos subterráneos; este descubrimiento iba a forzar una nueva estrategia en cuanto a reconocimiento aéreo. Un silo subterráneo es casi invulnerable a un ataque nuclear, a menos que reciba un impacto directo.

El objetivo de la tercera generación de satélites americanos de reconocimiento era levantar un mapa completo de la Unión Soviética, especificando la situación de cada rampa o silo de lanzamiento. Para ello hubo que diseñar tomavistas especiales, provistos de un sistema de estabilización que los mantenía enfocados hacia el suelo en perfecta vertical, a fin de reducir los errores por distorsión.

Para asegurar aún más la exactitud del trabajo, las nueve cámaras incorporadas a los satélites eran dobles: mientras un objetivo fotografiaba el terreno, el otro, enfocado en dirección opuesta, registraba una imagen de un fragmento de la bóveda celeste. Luego, en el laboratorio, los técnicos en cartografía analizaban la posición en que aparecían las estrellas y constelaciones en la segunda fotografía y determinaban, a partir de ellas, la posición en que se encontraba el satélite en ese momento y el lugar de la Unión Soviética que estaba sobrevolando.

Algunos de estos satélites de reconocimiento llevaban también a bordo un sistema de cámaras provistas de filtros y película especial, sensible a determinadas longitudes de onda. Estas se disparaban todas a la vez, produciendo cuatro o hasta seis negativos, cada uno correspondiente a una determinada zona del espectro.

Analizando cada juego de fotografías los especialistas podían deducir detalles increíbles. Por ejemplo, llegaban a diferenciar la vegetación viva de las ramas cortadas que se emplean para enmascarar objetivos militares, o identificar parcelas de cultivos afectados por plagas, o incluso descubrir en pleno océano la estela de agua ligeramente recalentada que expulsaban las turbinas de un submarino nuclear en inmersión.

Por su parte, los especialistas soviéticos construyeron también una doble familia de satélites de reconocimiento: los de cápsula recuperable y los de transmisión as fotografías por radio. Ambos suelen lanzarse bajo la denominación de Cosmos.

Los Cosmos de radiotransmisión suelen ser de tamaño bastante reducido. Muchos técnicos occidentales opinan que los primeros modelos de este tipo derivaban del Luna 3, el primer vehículo que fotografió el hemisferio oculto de la Luna.

A lo que parece, estos Cosmos cumplen dos tareas distintas. Algunos son puestos en órbita con perigeo muy bajo (incluso inferior a 200 Km.) y se dedican a fotografiar grandes extensiones de terreno de forma rutinaria. La resolución de sus cámaras es buena, aunque no permite precisar demasiados detalles. Cuando estas fotos revelan signos de actividad militar anormal en alguna zona determinada, su investigación en detalle se confía a otra serie de satélites, los Cosmos recuperables.

El otro tipo de Cosmos, de radiotransmisión, es de características idénticas al primero, excepto en lo que se refiere a la trayectoria que describen, que, por lo general, es bastante más elevada. Entre ellos es frecuente encontrar perigeos superiores a 300 Km.

A esta altura de vuelo las cámaras pierden mucho de su eficacia. La definición disminuye y sólo pueden detectarse objetivos bastante grandes, de quince a veinte metros de diámetro, como mínimo. Por tanto, lo más probable es que estos satélites tengan asignada una misión de vigilancia oceánica, en busca de las largas estelas que dejan tras sí los buques de superficie y, sobre todo, los submarinos Polaris.

Otros de estos mismos Cosmos desempeñan una tarea de apoyo meteorológico, enviando fotografías de las formaciones nubosas existentes sobre territorios que interesa fotografiar. Este dato es de gran importancia a la hora de programar los lanzamientos de satélites “espías”, ya que, evidentemente, si los puntos a fotografiar se encuentran bajo las nubes, la misión estará condenada al fracaso.

Los Cosmos de radiotransmisión se lanzan con bastante regularidad, por lo menos a un ritmo de uno por mes. Al principio, su base de lanzamiento era Tyuratam, junto al Mar de Aral, pero desde 1969 casi todos ellos despegan desde Piesetsk, a 1.000 Km. al norte de Moscú.

La base de Plesetsk es ideal para efectuar disparos en dirección norte sin peligro deque el cohete portador caiga en zonas habitadas. De este modo es posible alcanzar trayectorias polares, desde las que, en el curso de sucesivas revoluciones, se puede explorar la totalidad del globo terrestre.

Los Cosmos recuperables son mayores que los de radiotransmisión. Parece ser que los primeros modelos se basaban en el aprovechamiento de cápsulas tipo Vostok, cuyo peso podía alcanzar fácilmente cuatro o cinco toneladas. El equipo fotográfico incluía una o varias cámaras de gran resolución, capaces de analizar en detalle los objetivos previamente localizados por los Cosmos de radiotransmisión.

Uno de los problemas más serios con que se enfrentaron los técnicos rusos al iniciar este programa fue la recuperación de las cápsulas. Por regla general, éstas I caen sobre territorio soviético, pero su excesivo peso impide “pescarlas” en el aire tal como lo hacían los norteamericanos con sus Discoverer. Los rusos han de recurrir a equipos de recuperación dotados di’ helicópteros y vehículos terrestres.

Durante 1964 se lanzaron doce Cosmos recuperables, lo que da un promedio de uno por mes, a pesar de que durante el invierno la actividad en este campo estuvo casi paralizada. En 1965 su número se elevó a 17, incluyendo un disparo en pleno enero, otro en noviembre y otro en diciembre, lo que demostraba que los especialistas rusos habían dominado ya las técnicas de recuperación y podían dirigir sus cápsulas hacia el lugar más favorable para el aterrizaje.

A partir de entonces, el número de Cosmos recuperables fue aumentando hasta alcanzar un ritmo normal de uno cada quince días; aunque en casos excepcionales han llegado a lanzar un satélite por semana o incluso más.

Los últimos satélites de reconocimiento lanzados por Estados Unidos pertenecen a la serie comúnmente denominada Big Bird. El primero fue puesto en órbita en 1971, iniciando así la cuarta generación de tales ingenios.

Los Big Bird van equipados con cámaras fotográficas y de televisión, así como de varias (tal vez cuatro o incluso más) cápsulas recuperables. Ello permite emplearlos en las dos misiones básicas: inspección de rutina por televisión y, llegado el caso, toma de vistas detalladas con envío de los negativos a tierra. No se conocen muchos detalles, pero parece ser que en buenas condiciones atmosféricas su poder de resolución puede alcanzar medio metro o incluso menos. Ello sería suficiente para diferenciar las ojivas nucleares convencionales de las ojivas múltiples (MIRV) que pueden equipar a ciertos proyectiles intercontinentales.

Muchos satélites de reconocimiento disponen también de cámaras sensibles al infrarrojo, para la toma de fotografías durante la noche. Sin embargo, al igual que ocurría con los satélites meteorológicos, su resolución no es tan buena como la de los sistemas ópticos, pero, aun así, es más que suficiente para las tareas que tienen asignadas.

También está en experimentación el empleo de satélites dotados de radar de visión lateral. Este es un dispositivo que permite la obtención de imágenes del terreno, no por medios ópticos convencionales, sino por el análisis de la reflexión de ondas de radar. La definición es comparable a la de las cámaras fotográficas normales y, además, presenta la gran ventaja de no ser afectado por la cobertura nubosa, por muy densa que fuere.

Hacia 1960 se iniciaron las pruebas de satélites, dotados de detectores infrarrojos capaces de captar la radiación térmica emitida por los escapes de un proyectil balístico enemigo. De este modo podría localizarse su presencia mucho antes de que apareciese sobre el horizonte y fuese detectado por las estaciones de radar.

El desarrollo de estos sensores tropezó inicialmente con serias dificultades, sobre todo a causa de las reflexiones parásitas del Sol en el océano, que eran interpretadas por el satélite como producidas por el chorro de gases de un ICBM. En la actualidad, el problema parece resuelto, aunque las estaciones fijas de radar en el Ártico continúan desempeñando un papel fundamental en las redes de defensa, tanto de Estados Unidos como de la Unión Soviética.

Otro tipo de satélites militares son los destinados a detectar pruebas nucleares llevadas a cabo clandestinamente, en contra de lo establecido en recientes acuerdos internacionales. Las explosiones, bien sean en la atmósfera, en el fondo del mar o en el espacio exterior (las subterráneas no están oficialmente prohibidas), pueden registrarse gracias a los diversos tipos de radiación que emiten.

Los satélites empleados en esta tarea van equipados con detectores de radiaciones X y gamma, así como de protones y partículas subatómicas liberadas en las reacciones nucleares violentas.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53 y 18

Conquista Espacial Historia de la Astronautica Sondas Espaciales

Conquísta Espacial: Historia de la Astronáutica Sondas Espaciales

El nacimiento de la astronáutica: Tras la II Guerra Mundial

Al finalizar la II Guerra Mundial los estadounidenses aprovecharon la experiencia de un buen plantel de técnicos ¿alemanes procedentes de Peenemunde, fu base del Báltico donde se construyeron las V-2, a los que proporcionaron los medios para trabajar en el desarrollo de nuevos cohetes. Inicialmente, los estudios se centraron sobre los planos y proyectiles capturados a los alemanes, pero pronto comenzaron a introducirse modificaciones que llevaron al diseño de nuevos tipos de cohetes.

cohete despegando de la TierraCien V-2 fueron llevadas a Nuevo México para ser ensayadas en el campo de pruebas de White Sands, en el que, en 1949, se lanzó el primer proyectil genuinamente estadounidense, el WAC Corporal, que acoplado a una V-2 y como parte del proyecto Bumper, alcanzó 400 kilómetros de altura.

Lanzamiento de un Aerobee. Mediante este cohete se obtuvieron en 1949 las primeras fotografías en color de la superficie terrestre desde 100 Km. de altura.

A pesar de este éxito era evidente que la V-2, concebida para fines exclusivamente bélicos, no satisfacía las necesidades requeridas. Ello indujo a los técnicos estadounidenses, y a los alemanes que con ellos trabajaban, a desarrollar otros proyectiles: el Viking y el Aerobee, que remplazó al WAC Corporal. cohete, bomba alemana V1

Este último era un cohete relativamente sencillo, de 5,75 metros de longitud, 38 centímetros de diámetro y 450 kilogramos de peso; se lanzaba por medio de una torre de 12 metros de altura, con ayuda de un cohete auxiliar de combustible sólido; en 1949 se obtuvieron mediante el Aerobee las primeras fotografías en color de la superficie terrestre desde una altura de 100 kilómetros.

El Viking, llamado en principio Neptuno, parecía un lápiz plateado de 13,70 metros de longitud, 81 centímetros de diámetro y 5 toneladas de peso. El 15 de diciembre de 1952, un Viking mejorado alcanzaba 217 kilómetros de altura, batiendo el récord que detentaba la V-2 en cohetes de una sola etapa, y desarrollaba una velocidad de 6.560 km/h.

Por su parte el ejército y las fuerzas aéreas construyeron otro cohete, el Hermes, basado también en la V-2.

Imagen derecha: Bomba Alemana V2 (bomba de la venganza)

Por su parte, la Unión Soviética, que ya en 1946 inició el lanzamiento de sondas destinadas al estudio de las capas superiores de la atmósfera, desarrollaba sus propios proyectos astronáuticos.

El desarrollo del cohete como elemento bélico fue muy rápido en los dos países. Los modelos iniciales fueron aumentando su alcance y potencia, y en 1957 los cohetes disponibles hacían ya posible la puesta en órbita de un satélite artificial. Estados Unidos habían hecho público su propósito de realizar un experimento de este tipo con ocasión del Año Geofísico Internacional. Fue, sin embargo, la Unión Soviética la que consiguió realizar con éxito esta operación, al poner en órbita, el 4 de octubre de 1957, el Sputnik 1, con el que se inició la era del espacio.

La rivalidad entre sus tres ejércitos costó a los estadounidenses el tener que resignarse a un segundo papel. Sin embargo, la creación de un organismo civil autónomo, la NASA (National Aeronautics and Space Administration = Administración Nacional de Aeronáutica y del Espacio), el 1 de octubre de 1958, terminaría con esta difícil situación, al pasar a depender del mismo todas las actividades espaciales.

Desde su cuartel general en Washington, la NASA ejerce su dirección sobre los distintos centros de investigación y ensayo, y determina cuáles deben ser los programas y proyectos. Bajo su responsabilidad están los vuelos tripulados, las ciencias espaciales, el seguimiento y adquisición de datos, etc.

La organización y coordinación de los proyectos espaciales soviéticos están parcialmente bajo la supervisión de la Academia de Ciencias de Moscú, aunque, al igual que ocurre en Estados Unidos, existen también programas de características puramente militares.

El nacimiento de la astronáutica:
Cooperación internacional para el estudio del espacio

Al iniciarse la década de los cincuenta, la astronáutica había dejado de ser una ciencia que sólo interesaba a minorías, aunque todavía no estaba englobada en el seno de los grandes organismos internacionales.

La necesidad de regular a escala internacional las relaciones entre los interesados de uno u otro modo por la astronáutica se hacía patente. El primer paso para ello se dio el 22 de junio de 1949, en una reunión de la Sociedad Astronáutica Alemana, una entidad de tipo privado que propuso por primera vez la creación de una Federación Internacional de Astronáutica (IAF), la cual agruparía todas las sociedades de los distintos países interesados en cuestiones espaciales, con el fin de permitir un intercambio de ideas.

En 1950 tuvo lugar en París la primera reunión de sociedades astronáuticas y el 4 de septiembre de 1951, en Londres, la Federación Internacional tomó carta de naturaleza.

Aunque a las reuniones de París y Londres se las llama I y II Congreso Internacional de Astronáutica, de hecho el primero tuvo lugar realmente en Stuttgart, en 1952, y después se han venido celebrando cada año en distintas capitales europeas o americanas.

Los objetivos de la Federación Internacional son: estudiar el desarrollo de la astronáutica con fines pacíficos, facilitando el intercambio de informaciones técnicas y científicas, e interesar al público en general en todos los asuntos relacionados con el espacio.

En agosto de 1960, y por iniciativa del profesor Theodore von Karman, se fundó, bajo los auspicios de la Federación, la Academia Internacional de Astronáutica, formada por científicos de gran valía y con la misión de complementar en sus tareas a la IAF. Incluye tres secciones: Ciencias fundamentales, Ciencias aplicadas y Ciencias relacionadas con la vida del hombre en el espacio.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53

Pioneros de la Investigacion Espacial Padres de la Aeronautica

Pioneros de la Investigación Espacial: Padres de la Aeronáutica

El nacimiento de la astronáutica: Los padres de la astronáutica

Con rara unanimidad se acepta que los padres de la astronáutica, o sea, los científicos gracias a los cuales estaOberth: Padres de la Aeronautica ciencia empezó a desarrollarse como tal, son cuatro: el soviético Ciolkovskij , el estadounidense Goddard, el francés Esnault-Pelterie y el rumano Oberth (imagen der.). Pero también con rara unanimidad suelen muchos escritores olvidarse del alemán Hermann Ganswindt; Oberth ha asegurado repetidamente que con el alemán se ha cometido una injusticia, insistiendo en que éste se había ocupado seriamente, mucho antes que todos ellos, de los mismos problemas.

Konstantin Eduardovié Ciolkovskij (imagen izq.) nació el 17 de septiembre de 1857 en la villa de Iáevsk, provincia de Riazán. De profesión maestro de escuela, fue un hombre sencillo, la antítesis del mito del científico que hoy es fácil imaginar. A los 16 años su padre decidió enviarlo a Moscú para que se familiarizase con la técnica, y asKonstantin Eduardovié Ciolkovskij: Padres de la Aeronauticaí inició su formación científica.

Sus estudios, empezados en la época zarista y perfeccionados cuando era un comunista convencido, tienen un valor comparable, o quizá superior, al de los éxitos que, desde el lanzamiento del Sputnik 1, se han venido cosechando en la Unión Soviética.

Su primer artículo sobre el motor-cohete apareció en 1903 en la Nauónoe Obozreme (Revista Científica) con el título La exploración del espacio cósmico con ayuda de aparatos propulsados a reacción. Exponía en el mismo la teoría del vuelo del cohete, demostrando la posibilidad de su utilización en travesías interplanetarias.

El ingenio propuesto por él era un aparato metálico de forma alargada parecido a un dirigible; sus propulsores eran hidrógeno y oxígeno líquidos, sirviendo el propio carburante para la refrigeración del motor, al igual que en los motores F-1 del Saturno V. En sucesivos trabajos, aparecidos en 1911, 1912 y 1926, fue perfeccionando la idea. Sin embargo, jamás vio elevarse un cohete propulsado con combustible líquido. Aunque conservó hasta los últimos años de su vida la esperanza de ver materializados sus “proyectos utópicos”, como los autocalificaba con ironía, murió, antes de que éstos se hicieran realidad, el 19 de septiembre de 1935.

Robert Hutchings Goddard nació en Worcester, Massachusetts, el 5 de octubre de 1882; se graduó en Worcester Polytechnic Institute en 1908 y en la Clark University en 1910. Inició sus investigaciones sobre los cohetes en 1899, utilizando una cámara de combustión, construida por el mismo, que le permitía medir la retropropulsión de los gases.

Más tarde, cuando estudiaba en el Instituto Politécnico, hizo experimentos con pequeños cohetes de combustible sólido; en 1912 concluyó los detalles de la teoría matemática de la propulsión de cohetes, demostrando la posibilidad de utilizar la fuerza engendrada por los gases emitidos por éstos para alcanzar grandes altitudes. En 1923 inició los ensayos en reposo de un motor propulsado por propergol líquido (oxígeno y gasolina), que consiguió hacer volar el 16 de marzo de 1926.

Entre los años 1934 y 1940 construyó, con resultados satisfactorios, algunos cohetes de gran tamaño, muchas de cuyas características coincidieron con las más tarde tristemente célebres V-2 alemanas; aunque es difícil demostrarlo, parece que muchos de los perfeccionamientos realizados por Alemania en este campo se debieron a los experimentos y patentes de Goddard. En 1935 sus ingenios lograron alcanzar una altura de 2.280 metros y una velocidad de 880 kilómetros por hora. En los círculos profesionales estadounidenses se reconocía al inventor como el técnico más destacado en esta especialidad.

Goddard murió ellO de agosto de 1945, antes del inicio de la era espacial, y sólo meses después de que las primeras V-2 alemanas cayeran sobre Inglaterra. Los estadounidenses no supieron explotar debidamente su genio, y poquísimas personas apreciaron el alcance que podían tener sus experimentos. Como en muchos otros casos, Goddard no fue profeta en su tierra.

Aunque colaboró con la Marina de su país en la puesta a punto de aparatos teledirigidos, fue un incomprendido incluso por el propio ejército, el cual en 1940, en plena Guerra Mundial, examinó las posibilidades que presentaban sus estudios:
“Todas sus experiencias son muy interesantes, profesor —le dijeron—, pero creemos que los cohetes no desempeñan ningún papel en la guerra”.

Años más tarde, la historia se repetiría con Von Braun, no escuchado a tiempo por los estadounidenses cuando, en 1954, fue rehusado el proyecto Orbiter, que hubiera permitido colocar en órbita un satélite artificial con los medios de que se disponía en aquel entonces.

El 8 de junio de 1927, un aviador y notable matemático debió causar un fuerte impacto en la Sociedad Astronómica de París. Robert Esnault-Pelterie disertaba sobre La exploración por cohetes de la alta atmósfera y la posibilidad de los viajes interplanetarios. Esta conferencia fue ampliada con un famoso libro, La astronáutica, en el que se exponen en forma muy completa y sin parangón en su época los fundamentos de la astronavegación.

La resonancia de la conferencia fue enorme: cuando la aviación acababa de nacer en su aspecto comercial, cuando el subir a un avión representaba todavía una temeridad o, por lo menos, requería una buena dosis de valentía, un científico acreditado se atrevía a hablar de viajes a los planetas ante el exigente auditorio de una de las entidades astronómicas de mayor categoría.

Esnault-Pelterie fue uno de los primeros en prever la aplicación de la energía nuclear para. la propulsión de cohetes interplanetarios. Nacido en París en 1881, murió en Niza en 1957, dos meses más tarde del vuelo del Sputnik 1, y pudo ver, por tanto, convertidas en realidad muchas de sus teorías.

Hermann Oberth nació el 25 de junio de 1894 en Hermannstadt, Rumania. Empezó la carrera de médico, pero la abandonó, y posteriormente estudió en Munich, Gotinga y Heidelberg.

El 5 de junio de 1927, casi en la misma fecha en que Esnault-Pelterie pronunciaba en París su célebre conferencia, había sido fundada en Breslau la famosa VER (Verein Für Raumschiffahrt), conocida en todo el mundo como Sociedad Alemana de Cohetes, y en el otoño de 1928, el director cinematográfico Eritz Lang anunciaba su intención de llevar a la pantalla la novela, original de su esposa, Una mujer en la Luna. Oberth fue requerido como asesor técnico de esta película, a la vez que se le encargaba la construcción de un proyectil-cohete de gran tamaño para ser lanzado el día del estreno.

La industria cinematográfica alemana se anticipaba así a la propia realidad en 15 años, al solicitar del precursor algo muy parecido, aunque no por sus fines, a la V-2. Hermann Oberth, en su libro El cohete hacia los espacios interplanetarios, aparecido en 1923, expuso con una clarividencia extraordinaria el futuro de la astronáutica, analizándolo detalladamente.

William H. Pickering
William H. PickeringWilliam H. Pickering es, desde 1954, director del Jet Propulsión Laboratory (JPL) del California Ins-titute of Technology, situado en Pasadena, en las cercanías de Los Angeles. Bajo su dirección se han realizado múltiples programas espaciales: el Explorer 1 (1958), primer satélite artifical de Estados Unidos; el Pioneer 4 (1959), primera misión espacial próxima a la Luna culminada con éxito; el vuelo de los Mariner 2 y 5 a Venus (1962 y 1967) y los Mariner 4 (1964) y 6 y 7 (1969) a Marte; las misiones fotográficas lunares realizadas por los Ranger (1962 a 1965); los alunizajes de los Surveyar (1966 a 1968); la misión del Mariner 11, lanzado en 1971, y las misiones multiplanetarias que se prevén para la década de los años setenta, destacando ya el envío de los Marz>zeraVenusyMercurio(1973).

El Dr. Pickering nació, en 1910, en Wellington (Nueva Zelanda), Tanto los estudios de licenciatura en Ingeniería eléctrica como los de doctorado en Física los realizó en el California Institute of Technology de Estados Unidos, siendo nombrado profesor de esa misma institución en 1946. Fue el primer presidente del American Institute of Aeronautics and Astronautics (nombrado en 1963) y presidente déla International Astronáutica Federation,en 1965. Asimismo, es miembro de la National Academy of Sciences, de la National Academy of Engineering y de la Royal Society de Nueva Zelanda, entre otras instituciones, consejero de las universidades de California, de Washington y de Connecticut, estando en posesión de numerosos premios y distinciones.

Fuente Consultada: Los Viajes Espaciales Salvat Tomo 53