La Fábrica de Bombas V1

Disputa Newton y Hooke Las Orbitas Elípticas de los Planetas

HISTORIA DE LA PUBLICACIÓN DE LOS “PRINCIPIAS” – CONFLICTO NEWTON-HOOKE

ANTECEDENTES DE LA ÉPOCA. El incipiente desarrollo científico que se inició en el siglo XVII,  comenzó cuestionando el primitivo y anacrónico aristotelismo (Conjunto de las doctrinas del filósofo griego Aristóteles que explicaban los fenómenos naturales ), como teoría sintetizadora general que da cuenta del conjunto del cosmos, es decir,  fue vulnerado seriamente por los nuevos descubrimientos científicos, pero éstos no bastaron, hasta Newton, para dar ocasión a una teoría que ordenara y diera sentido a la acumulación de descubrimientos parciales. Ello explica que en los más altos científicos de la época, las nociones matemáticas y astronómicas de la mayor exactitud se dieran junto a ideas místicas y religiosas tradicionales, tal como en el caso de Kepler.

En el campo de la astronomía se continuó la labor de Copérnico, especialmente por obra de Kepler, y los perfeccionamientos del telescopio que llevó a cabo Galileo permitieron comprender mejor la estructura del sistema solar.

La. investigación de la realidad física ensayó con éxito una metodología y una conceptuación nuevas cuando Galileo formuló las leyes del movimiento de los cuerpos, en 1638. El descubrimiento de la circulación de la sangre por William Harvey (1578-1657), significó un extraordinario avance para la fisiología.

En la segunda mitad del siglo, el mundo científico, tal como aconteciera con el mundo filosófico, estaba dominado por la polémica en torno del cartesianismo. La explicación dada por Harvey a los movimientos del corazón se impuso a la observación empírica, pese a la oposición de Descartes. Leibniz refutó las ideas cartesianas acerca del movimiento, y Pascal estableció la teoría de la probabilidad de las hipótesis.

Pero la culminación científica del siglo XVII fue la obra de Isaac Newton (1642-1727), quien había de resumir en sí y superar todas las tendencias intelectuales de la época. Descubrió el cálculo infinitesimal y formuló la ley de la gravitación universal, que pasó a ser la nueva concepción totalizadora del universo y desplazó definitivamente al aristotelismo.

Newton y Hooke

Robert Hooke (1635-1703), científico inglés, conocido por su estudio de la elasticidad. Hooke aportó también otros conocimientos en varios campos de la ciencia.Nació en la isla de Wight y estudió en la Universidad de Oxford. Fue ayudante del físico británico Robert Boyle, a quien ayudó en la construcción de la bomba de aire. En 1662 fue nombrado director de experimentación en la Real Sociedad de Londres, cargo que desempeñó hasta su muerte. Fue elegido miembro de la Real Sociedad en 1663 y recibió la cátedra Gresham de geometría en la Universidad de Oxford en 1665.

LA HISTORIA Y DESCRIPCIÓN DE LOS “PRINCIPIA”: Hacia 1680 el problema del sistema planetario, en el sentido de dar una explicación racional a las leyes, que Kepler había dado empíricamente, estaba, por así decir, en el aire entre los astrónomos ingleses. Se sabía, en virtud de las leyes de la fuerza centrífuga, que en un movimiento circular uniforme de un punto, que obedeciera a la tercera ley de Kepler, la fuerza era inversamente proporcional al cuadrado del radio.

¿Sería válida esta ley en el movimiento de los planetas, cuya órbita no era circular sino elíptica, y los cuerpos en cuestión no siempre podían asimilarse a puntos? Es a esta pregunta que Newton contesta afirmativamente en su célebre libro, en latín, Principios matemáticos de la filosofía natural (es decir de la física), conocido, abreviadamente como los Principia.

La obra se compone de tres libros, el Libro I de los cuales expone los fundamentos de la mecánica a la manera euclideana con definiciones, axiomas, teoremas y corolarios, introduciendo en los sistemas, además de la ley de inercia, el concepto de masa y el principio de acción y reacción. Este libro se ocupa del movimiento en el vacío, comprobándose las leyes de Kepler en el caso de un movimiento central en el cual la fuerza que actúa sobre el punto móvil es inversámente proporcional al cuadrado de ia distancia al centro fijo, foco de la órbita elíptica del móvil.

El Libro II se ocupa, en cambio, del movimiento en un medio resistente, y entre las distintas cuestiones que trata aparece la primera fórmula teórica que expresa la velocidad del  sonido.

Los dos primeros libros sientan los principios matemáticos, es decir teóricos, de la ciencia del movimiento; el Libro III estudiará el movimiento “filosóficamente”, es decir físicamente, tomando como ejemplo el “sistema del mundo”. Antepone para ello las “Reglas del razonamiento en filosofía”, es decir las normas que desde entonces constituyen las bases del método científico en la investigación de los fenómenos naturales; pasando luego al enunciado del grupo de fenómenos celestes que debe explicar, demostrando que la ley: “Dos cuerpos gravitan mutuamente en proporción directa de sus masas y en proporción inversa del cuadrado de sus distancias”, es de validez universal, dando así por primera vez una demostración matemática que elimina la milenaria distinción entre el mundo celeste y el mundo sublunar.

A continuación comprueba las leyes de Kepler y de la caída libre, demuestra el achatamiento de la Tierra, explica por vez primera las mareas y la precisión de los equinoccios, incluye los cometas en el sistema planetario…

En las ediciones sucesivas de los Principia que Newton publicó en vida, introdujo modificaciones y agregados entre los cuales el célebre “Escolio general”, en el cual el científico da paso al metafísico o, mejor, al creyente, expresando que “Este muy hermoso sistema del Sol, los planetas y cometas sólo puede proceder del consejo y dominio de un Ser inteligente y poderoso… discurrir de Él a partir de las apariencias de las cosas, eso pertenece, sin duda, a la filosofía natural”.

EL ORIGEN DEL CONFLICTO: LA LEY DE LA INVERSA DEL CUADRADO
EL ODIO ENTRE NEWTON Y HOOKE

A principios del siglo XVIII, el matemático y astrónomo alemán Johannes Kepplee había propuesto tres leyes del movimiento planetario, que describían con precisión como se mueven los planetas respecto al Sol, pero no conseguía explicar por qué los planetas  se movían como se movían, es decir en órbitas elípticas.

orbita elpitica de un planeta

1° Ley de Kepler: Los planetas recorren órbitas elípticas y el Sol ocupa uno de sus focos

Newton se propuso descubrir la causa de que las órbitas de los planetas fueran elípticas. Aplicando su propia ley de la fuerza centrífuga a la tercera ley de Kepler del movimiento planetario (la ley de las armonías) dedujo la ley del inverso de los cuadrados, que  establece que la fuerza de la gravedad entre dos objetos cualesquiera es inversamente proporcional al cuadrado de la distancia entre los centros de los objetos. Newton reconocía así que la gravitación es universal que una sola fuerza, la misma fuerza, hace que  una manzana caiga al suelo y que la Luna gire alrededor de la Tierra. Entonces se propuso contrastar la relación del inverso de los cuadrados con los datos conocidos.

Aceptó la estimación de Galileo de que la Luna dista de la Tierra unos sesenta radios terrestres,  pero la imprecisión de su propia estimación del diámetro de la Tierra le impidió completar esta prueba satisfactoriamente. Irónicamente, fue un intercambio epistolar en 1679  con su antiguo adversario Hooke lo que renovó su interés en este problema. Esta vez dedicó su atención a la segunda ley de Kepler, la ley de la igualdad de las áreas, Newton pudo demostrar a partir de la fuerza centrífuga.

Hooke, sin embargo, desde 1674 estaba intentando explicar las órbitas planetarias, y había logrado dar con el problema del movimiento orbital. En un tratado que se publicó aquel mismo año, descartó la idea de un equilibrio entre las fuerzas que empujaban hacia dentro las que empujaban hacia afuera para mantener a un objeto como la Luna en su órbita. Constató que el movimiento orbital resultaba de suma: por una parte, la tendencia de la Luna a moverse en línea recta y, por otra, una fuerza «única» que la atraía hacia la Tierra.

Mientras tanto el propio Newton, Huygens y todos los demás seguían hablando de «una tendencia a alejarse del centro», y Newton había llegado al extremo de aceptar vórtices cartesianos (una vieja teoría de Descartes) como responsables de empujar a los objetos para que volvieran a situarse en sus órbitas, a pesar de su tendencia desplazarse hacia el exterior.

También se sabe que  algunas de las cartas enviadas a Newton sobre este tema resultaron de particular interés para el científico, pues había despertado una gran idea para aplicar como teoría en sus investigaciones.  En una de sus cartas Hooke escribió a Newton para pedirle su opinión sobre estas teorías (que ya se habían publicado). Le habló de la ley del cuadrado inverso, que Newton ya tenía, de la acción a distancia, y de la idea a la que había llegado: no había fuerza centrífuga ninguna, sino solamente una fuerza centrípeta que apartaba a los planetas de una trayectoria rectilínea y la curvaba mediante la gravedad.

En el gran libro sobre la historia del pensmaiento científico, de Moledo y Olszevicki, conocido como:”Historia de las ideas científicas”, nos relata al respecto:

“Probablemente fue esta carta la que liberó a Newton del asunto de la fuerza centrífuga (que es una fuerza artificial, simplemente la reacción a la fuerza centrípeta —esta última sí real—) y lo estimuló para demostrar, en 1680, que una ley de la gravedad con cuadrados inversos a las distancias exige que los planetas se muevan recorriendo órbitas elípticae implica que los cometas deben seguir trayectorias elípticas o parabólicas alrededor del Sol. Ésta es la razón por la que ya tenía la respuesta preparada cuando, en 1684, Halley se apareció en la puerta de su casa.

Porque fue así: aprovechando un viaje, Halley, en agosto de 1684. visitó a Newton en Cambridge, donde debatieron sobre las órbitas de los planetas y la ley del cuadrado inverso. Según contó Newton después, cuando llevaban cierto tiempo reunidos, Halley le preguntó qué tipo de curva creía él que describirían los planetas, suponiendo que la fuerza de atracción hacia el Sol fuera inversa al cuadrado de las distancias respectivas de los planetas a dicho astro.

Newton dijo inmediatamente «una elipse», ante lo cual Halley le preguntó cómo lo sabía. «Porque la he calculado», respondió Newton de inmediato. Tras esto, Halley le pidió que le dejara ver los cálculos, pero Newton buscó entre sus papeles y no pudo encontrarlos. Se comprometió entonces a volver a hacerlos v a enviárselos apenas los tuviera listos.

Ese encuentro entre Halley y Newton y los cálculos que nunca encontro se convertirían en el puntapié inicial para que nuestro protagonis:: se pusiera a escribir los Principia.”

A petición de Halley, Newton pasó tres meses rehaciendo y mejorando la demostración. Entonces, en una explosión de energía sostenida durante dieciocho meses, durante los cuales se absorbía tanto en su trabajo que a menudo se olvidaba de comer, fue desarrollando estas ideas hasta que su presentación llenó tres volúmenes. Newton decidió titular su obra Philosophiae Naturalis Principia Mathemañca, en deliberado contraste con los Principia Philosophiae de Descartes.

Ya en 1684 Newton publicó un trabajo en el que explicaba la ley de cuadrado inverso, pero recién en 1687 vio la luz su gran obra épica.

Los tres libros de los Principia de Newton proporcionaron el nexo entre las leyes de Kepler y el mundo físico. Halley reaccionó con «estupefacción y entusiasmo» ante los descubrimientos de Newton. Para Halley, el profesor Lucasiano había triunfado donde todos los demás habían fracasado, y financió personalmente la publicación de la voluminosa obra como una obra maestra y un regalo a la humanidad.

“Los Principia fueron celebrados con moderación al ser publicados, en 1687, la primera edición sólo constó de unos quinientos ejemplares. Sin embargo, la némesis de  Newton, Robert Hooke, había amenazado con aguar la fiesta que Newton hubiera podido disfrutar.

Cuando apareció el libro segundo, Hooke afirmó públicamente que las cartas que había escrito en 1679 habían proporcionado las ideas científicas vitales para los descubrimientos de Newton. Sus pretensiones, aunque dignas de atención, parecieron abominables a Newton, que juró retrasar o incluso abandonar la publicación del tercero. Al final, cedió y publicó el último libro de los Principia, no sin antes eliminar cuidadosamente cualquier mención al nombre de Hooke.

El odio que Newton sentía por Hooke le consumió durante años. En 1693 todavía  sufrió otra crisis nerviosa y abandonó la investigación. Dejó de asistir a la Royal Society hasta la muerte de Hooke en 1703, y entonces fue elegido presidente y reelegido cacada año hasta su propia muerte en 1727.”

Fuente: “A Hombres de Gigantes”

Fuente Consultadas:
El Saber de la Historia de José Babini Edit. Biblioteca Fundamental del Hombre Moderno
Grandes Figuras de la Humanidad Edit. Cadyc Enciclopedia Temática Familiar
A Hombres de Gigantes Edit. CRÍTICA
Historia de las Ideas Científicas Leonardo Moledo y Nicolás Olszevicki Edit. PLANETA

Trabajo Enviado Por Colaboradores del Sitio

Cuadro sinoptico del Universo, Sistema Solar, Planetas y Galaxias

SINTESIS EN UN CUADRO SOBRE EL SISTEMA SOLAR

Nuestro sistema solar que está contenido en la galaxia llamada Vía Láctea, está conformado por el Sol y ocho planetas que gravitan a su alrededor. Los planetas siguen órbitas que, casi en su totalidad, están situadas en el mismo plano; y todos se desplazan en torno al Sol en el mismo sentido.

El tiempo que tardan en dar una vuelta constituye el año de cada planeta: Mercurio, el más cercano, demora tres meses terrestres. Además de los planetas, entre Marte y Júpiter circulan cuerpos pequeños, bloques de rocas cuyo diámetro no suele pasar los pocos kilómetros. Se cree que estos asteroides son los restos de un planeta que, o bien se fragmentó, o no llegó a formarse jamás.

Ampliar Sobre la Evolución del Universo

cuadro sinoptico universo

Diferentes clases de astros
Los astros se pueden dividir en cuatro tipos: a) ios que poseen luz propia, como el Sol, las estrellas, las nebulosas de emisión y algunos cometas: b) los que brillan con luz reflejada, como la Luna, los planetas, satélites, asteroides, ciertos cometas y ciertas nebulosas: c) los que no emiten luz alguna, como las nebulosas obscuras, cuya existencia se conoce en virtud de que impiden pasar la luz de los astros situados detrás de ellas; y d) las estrellas fugaces y bólidos, que lucen porque al entrar velozmente en nuestra atmósfera se tornan incandescentes al rozar con los gases de ésta.

Los movimientos aparentes de los astros difieren según los casos.

Las estrellas, los conglomerados, las nebulosas y las galaxias, describen un círculo completo alrededor de la Tierra en 24 ñoras menos cuatro minutos.

Los planetas tienen un movimiento aparente complejo. Se clasifican eñ interiores o exteriores según sea que su órbita esté, respectivamente, dentro o fuera de la que sigue la Tierra. Los planetas interiores, Mercurio y Venus, siguen una ruta cercana al astro mayor y sólo son visibles antes de orto o salida de éste, y después de su ocaso o puesta. Vistos a través del telescopio los planetas interiores presentan fases porque,estando sus órbitas dentro de la terrestre, su disco se ve más o menos iluminado por el Sol. Cuando se hallan a la mayor distancia aparente del Sol -máxima elongación- tienen la mitad del disco iluminado.

La elongación puede ser oriental u occidental, de acuerdo a cómo están situados respecto del Sol. Los planetas exteriores se ven de noche y, por lo común, viajan aparentemente de O a E a través de las estrellas, pero, según los movimientos combinados de cada planeta y la Tierra, hay un momento en que parece que se detienen: están esfa-cionarios; acto seguido cambian de rumbo y se dirigen de E a O, hasta llegar a otro punto donde permanecen de nuevo estacionarios, para continuar posteriormente con su marcha normal. Entre dos posiciones estacionarias llegan a la oposición, en que se sitúan en la línea Sol, Tierra y planeta. Si la disposición es planeta, Sol y Tierra, se dice que el planeta está en conjunción (con el Sol interpuesto). Los planetas se mueven dentro del Zodíaco, que es una faja de 8o de anchura a cada lado de la eclíptica.

El planeta sedna, Características y datos, Distancia y medidas

OPINION CIENTIFICA –1

Sedna: el décimo planeta en el Sistema Solar

Aunque es más pequeño que Plutón, es el cuerpo más grande en órbita alrededor del Sol identificado desde el descubrimiento de Plutón, en 1930. Existe discusión entre los astrónomos si, por su pequeño tamaño, tendrá o no status de planeta…o será solamente un planetoide.

planeta sedna

Planeta Sedna, N°:10 del sistema solar

Mercurio, Venus, Tierra, Marte, Júpiter, Saturno, Urano, Neptuno, Plutón… ¡y Sedna!… Sí, porque entre los astrónomos ya se hizo oficial el descubrimiento del décimo planeta del Sistema Solar, el cuerpo celeste más lejano al Sol y de un tamaño muy similar a Plutón.

Está tan lejos del Sol que es el más frío del Sistema Solar. De hecho, su temperatura nunca sobrepasa los -240º C. Pero es el cuerpo celeste más importante y más grande en órbita alrededor del Sol identificado desde el descubrimiento de Plutón, en 1930.

¿Cómo se hizo posible la confirmación de este nuevo planeta?… El equipo encabezado por el investigador Mike Browne, del California Institute of Technology (Caltech) lo detectó por primera vez el 14 de noviembre del 2003, con la ayuda del telescopio Samuel Oschin, en el Observatorio Palomar de Caltech, cerca de San Diego, en California. Con el correr de los días, los telescopios de Chile, España, Arizona y Hawai confirmaron la existencia de Sedna. También lo hizo el nuevo telescopio infrarrojo espacial Spitzer, de la NASA.

Michael Brown dijo que era tanta la distancia de Sedna con respecto al sol, que desde el nuevo planeta se podría tapar el sol con la cabeza de un alfiler.

Más acerca de Sedna

Este nuevo planeta fue bautizado como Sedna en honor a la diosa del mar entre los pueblos inuit, habitantes esquimales del Norte de Canadá y Groenlandia, dama de las profundidades del mar y de las emociones humanas.

Según el pueblo inuit, la diosa Sedna dio origen a las criaturas marinas desde una cueva congelada que ocupa en el fondo del océano.

Sedna se encuentra aproximadamente a 12.800 millones de kilómetros de la Tierra y su tamaño parece ser tres cuartas partes el de Plutón. Es seis veces más pequeño que la Tierra.

Posee un diámetro de unos 2.000 kilómetros y una superficie recubierta de hielo y roca, y debido a su dimensión pequeña, algunos científicos expresaron sus dudas a que pueda ser considerado un planeta más. Y es que – dicen – tal vez sería más correcto hablar de un “planetoide”.

Sedna es más rojo que cualquier otro cuerpo del Sistema Solar, con la excepción de Marte, y sigue una órbita muy elíptica, que en su punto más alejado lo sitúa a unos 135.000 millones de kilómetros del Sol, una distancia equivalente a 900 veces la existente entre el Sol y nuestro planeta, por lo cual tarda 10.500 años terrestres! en completar una sola órbita.

Para tener una idea, Plutón, el noveno planeta del Sistema Solar, y hasta ahora el último, tiene un diámetro de dos mil kilómetros y se encuentra a 6 mil millones de kilómetros de la Tierra.

Los primeros cálculos sugieren que Sedna se encuentra ubicado exactamente en una región del espacio llamada Cinturón de Kuiper. Éste posee cientos de objetos conocidos y los astrónomos creen que aún existen muchos otros esperando ser encontrados.

La mayoría son pequeños mundos de roca y hielo, aunque algunos también podrían ser tanto o más grandes que Plutón. La importancia de Sedna radica específicamente en que es el primero de este tipo de mundos que mantiene una órbita regular, ya que otros objetos similares son menos estables.

¿Qué viene ahora?…Intentar determinar si Sedna posee algún grado de atmósfera. Además, los científicos usarán el Hubble para descubrir por qué posee el tono rojizo más brillante después de Marte.

OPINION CIENTIFICA -2-

Sedna no es el décimo planeta del sistema solar. Numerosos medios de comunicación han cometido varios errores a la hora de describir el último descubrimiento de la NASA.

Entre otras cosas Sedna, un planetoide descubierto por astrónomos del Instituto Tecnológico de California ( Caltech) en cooperación con la NASA, no es un planeta ni tampoco, como se ha dicho, forma parte del cinturón de Kuiper.

El mismo equipo descubrió hace unos días otro planetoide, denominado 2004DW , y este si que forma parte del cinturón de Kuiper. De hecho, por su tamaño de 1600 km de diámetro, su descubrimiento habría sido una gran noticia sino fuera porque Sedna, a pesar de ser de un tamaño similar , tiene la particularidad de ser el primer planetoide situado más allá del cinturón de Kuiper, en una zona que hasta ahora era sólo intuida por la teoría y que se conoce como Nube de Oort.

Sedna está a más del doble de distancia que los objetos más lejanos de nuestro sistema conocidos hasta ahora y tres veces más lejos que Plutón. Por eso es noticia.

En nuestro sistema conocemos el cinturón de asteroides que se encuentra entre Marte y Júpiter, y un cinturón similar llamado Cinturón de Kuiper que se encuentra más allá de Plutón. De echo muchos astrónomos consideran que Plutón no es en realidad un planeta sino uno de los objetos que forman el Cinturón de Kuiper, ya que su tamaño es relativamente pequeño, su órbita es demasiado inclinada y a diferencia de los demás planetas sigue una trayectoría que hace que en ocasiones no sea el más alejado de la Tierra. Sedna es aún más pequeño que Plutón, su órbita también es muy inclinada, y su trayectoria es tan parabólica que sólo lo hemos detectado por casualidad, ya que dentro de unos 70 años volverá a alejarse de nuevo para no regresar y ser visible en las mismas condiciones en los próximos 10,500 años.

Ningún astrónomo calificaría a Sedna como planeta, y muchos dudan que Plutón lo sea, así que difícilmente se puede afirmar que Sedna es el décimo planeta de nuestro sistema. Se trata sólo de una exageración periodística.

Algunos Datos Sobre el Sistema Solar…

– El Sistema Solar está formado por una estrella central, el Sol, los cuerpos que le acompañan y el espacio que queda entre ellos.

– El Sol contiene el 99.85% de toda la materia en el Sistema Solar. Los planetas, los cuales están condensados del mismo material del que está formado el Sol, contienen sólo el 0.135% de la masa del sistema solar.

– Júpiter contiene más de dos veces la materia de todos los otros planetas juntos. Los satélites de los planetas, cometas, asteroides, meteoroides y el medio interplanetario constituyen el restante 0.015%.

– Los planetas terrestres son los cuatro más internos en el Sistema Solar: Mercurio, Venus, Tierra y Marte. Éstos son llamados terrestres porque tienen una superficie rocosa compacta, como la de la Tierra.

– Los planetas Venus, Tierra y Marte tienen atmósferas significantes, mientras que Mercurio casi no tiene.

– A Júpiter, Saturno, Urano y Neptuno se les conoce como los planetas Jovianos (relativos a Júpiter), puesto que son gigantescos comparados con la Tierra, y tienen naturaleza gaseosa como la de Júpiter. También son llamados los gigantes de gas, sin embargo, algunos de ellos tienen el centro sólido.

– Los asteroides son rocas más pequeñas que también giran, la mayoría entre Marte y Júpiter. Además, están los cometas que se acercan y se alejan mucho del Sol. Por su parte, los meteoritos son fragmentos de tierra extraterrestre que se encienden y se desintegran cuando entran a la atmósfera.

El Movimiento de los Satelites y Planetas-Calculos físicos Principios

LOS VIAJES ESPACIALES:

Los viajes espaciales difieren de los habituales desplazamientos sobre la superficie terrestre por un detalle fundamental: estos últimos se efectúan bajo la acción de la fuerza de gravedad  terrestre cuyo valor es siempre el mismo.

Este concepto se aclara recordando que los movimientos de un tren, un auto, una bicicleta o un avión se realizan siempre a idéntica distancia del centro de la Tierra, salvo muy pequeñas variaciones que carecen de importancia. Son desplazamientos cuya dirección forma ángulo recto con el radio del planeta y, por consiguiente, la fuerza de atracción gravitacional que sufren es permanentemente idéntica.

En un viaje espacial, la dirección del movimiento forma con el radio de la Tierra un ángulo distinto del recto. Si se asciende verticalmente para alcanzar grandes alturas (varios cientos de kilómetros) el valor del ángulo será cero, puesto que el vehículo se aleja en la dirección de uno de los radios.

Claro está que para que esto sea posible se debe vencer la fuerza de atracción terrestre. Véase, por ejemplo, lo que ocurre con los cuerpos que llegan a la Tierra desde el espacio:cuando chocan con la superficie, la velocidad que traen es similar a la que tendrían si provinieran de una distancia infinita. Esa misma velocidad adquirida por el objeto que se precipita, pero aplicada en sentido contrario, es la que necesita un cuerpo para vencer la fuerza de gravedad, escapar de la atracción del planeta y desplazarse hasta una distancia teóricamente infinita. Esta velocidad se denomina velocidad de escape o velocidad parabólica.

 Viajes a la Luna y a los planetas

Un vehículo espacial que desde la Tierra se dirige a la Luna, o mejor dicho, hacia el punto del cielo donde la hallará, no necesita mantener su velocidad de escape de 11,2 km/s durante todo el trayecto. Mientras más se aleja del lugar del lanzamiento, la atracción gravitacional terrestre se debilita, de manera tal que la velocidad necesaria para vencerla va disminuyendo a medida que prosigue el viaje y, consecuentemente, la atracción de la Luna aumenta cuando el vehículo se le aproxima. Por este doble proceso —debilitamiento de la atracción terrestre por una parte, y aumento del campo de atracción gravitacional de la Luna, por la otra— se alcanza un punto en que ambas fuerzas se igualan, punto que se encuentra a unos 38 000 kilómetros de la Luna. Si el vehículo lo sobrepasa, cae dentro de la atracción lunar.

Para lograr que el impacto con la superficie de la Luna sea más suave, a nave debe cruzar la línea de separación entre las dos fuerzas gravitacionales a la mínima velocidad posible, porque de no ser así el choque resultará más violento. El impacto en la Luna, en una caída libre, se produciría a la velocidad de escape —que en la misma es de 2,4 km/s— más la velocidad de la Luna en su órbita.

El proyecto de un viaje a la Luna con un vehículo espacial y su regreso posterior a la Tierra, contempla, como mínimo, cuatro maniobras principales:

  1. salida de la Tierra;
  2. disminución de la velocidad al cruzar la línea de equilibrio;
  3. salida de la Luna;
  4. disminución de la velocidad cuando, de regreso a la Tierra, cruza la línea de equilibrio.

    Una vez lanzado desde la Tierra, el vehículo espacial se mueve a lo largo de una órbita determinada, que es el resultado de todas las fuerzas exteriores que actúan sobre él. Intervienen la fuerza de atracción de la Tierra, de la Luna y del Sol, pero influyen también otros efectos, como la resistencia de la atmósfera terrestre al moverse la nave cerca de la Tierra, la presión de la radiación originada en el Sol, etcétera.

    De esta manera, y para comprender el desarrollo de las investigacio­nes espaciales, es necesario estudiar cómo se realiza el movimiento orbital de una nave espacial. Para ello, y con el objeto de simplificar el problema, se analiza a continuación el movimiento de una de ellas bajo la influencia de un cuerpo celeste.

Movimiento en una órbita (Ver También: Movimiento de los Planetas)
Consideraciones Físicas

Sea un cuerpo de masa m que se traslada alrededor de otro de masa M, y tales que m es considerablemente menor que M. Si el cuerpo M ocupa uno de los focos de la elipse descripta por m, y a es el semieje mayor de la órbita de éste, su velocidad de traslación V está dada por:

V2= G. (M + m).(2/r – 1/a) [1]

donde G es la constante de gravitación 6,67 x 10-8 cm3/g s2. La fórmula [1] se conoce como ecuación de la energía.

La distancia r entre ambas masas se denomina radio vector y toma un valor distinto en cada punto de la elipse. En estas circunstancias, el cuerpo de masa m es un satélite del cuerpo de masa M, como es el caso de la Luna respecto de la Tierra, o de un planeta como la Tierra en relación con el Sol.

Orbita elipitica descripta por un satelite de masa m y velocidad v

Para una órbita cerrada (un círculo o una elipse), el semieje mayor a debe ser positivo y finito. Para una órbita parabólica resulta a =oo (infinito) para una órbita hiperbólica a es negativo.Si la órbita es parabólica, los cuerpos se alejan uno del otro, y reemplazando en [1] 1/a , resulta:

V2p=G . (M+m).2/r                             [2]                                                  

que se denomina, también, velocidad de escape.

Para la velocidad en una órbita circular donde:  a=r

V2c=G . (M+m).1/r                                             [3]

Dividiendo miembro a miembro las ecuaciones (2) y (3) se tiene:

V2p=G . (M+m).2/r
——-=——————
V2c=G . (M+m).1/r 

 Se tiene  

V2p
————- =
2
V2c 

Osea:

V2p=2. V2c

Si se conoce el valor de la velocidad circular y0 para una determinada órbita, se puede obtener fácilmente la velocidad parabólica o de escape, Vp, para la misma órbita.

Velocidad en una órbita elíptica.

Si un cuerpo, como es por ejemplo cualquiera de los satélites artificiales que giran alrededor de la Tie­rra, se mueve sobre una órbita elíptica de acuerdo con la fórmula [11, alcanza su máxima velocidad en el perigeo, y la mínima, en el apogeo.

Si la masa m del satélite es muy pequeña con respecto a la masa M del planeta, que es el caso más común, se puede despreciar m, de donde (véase fórmula [1]):

V2= G. M (2/r – 1/a)                        [4] 

donde G.  M es el producto de dos constantes, o sea otra constante k que para el caso de la Tierra vale:

K=G.MT=4,OX 1020 cm3/s2

pues G = 6,67 x 10-8 cm3/ g s2 y MT= 6 x 1027 g. 

Cuando el satélite se desplaza desde el perigeo hacia el apogeo, el radio vector r aumenta de valor y, de acuerdo con a fórmula [4], la velocidad orbital V disminuye. En cambio, Cuando se traslada desde el apogeo hacia el perigeo, la distancia r disminuye y, entonces, la velocidad V aumenta. Luego, conocido el valor del radio vector r en un punto cualquiera de una órbita de semieje mayor a, se puede deter­minar fácilmente su velocidad en esa posición de la órbita.

Un caso particular de la elipse es la circunferencia, pues en ésta el radio vector r es siempre igual al semieje mayor a, y resulta r = a = R siendo R el radio de la circunferencia. En este caso:

V2c =K/R

 En la parábola, en cambio, el semieje mayor es infinito, o sea 1/a=0 ;  y como además r = R, distancia al centro de la Tierra, se tiene:

V2P = 2. K / R

Velocidad parabólica o de escape.
Como ya señalamos, para alejarse de la Tierra cumpliendo una travesía espacial, un vehículo debe vencer la fuerza de atracción de la Tierra, y ello se puede lograr acelerándolo hasta una determinada velocidad. Según la ley de atracción universal, la fuerza gravitacional de la Tierra varía con la distancia, y por lo tanto también varía la velocidad de alejamiento necesaria. Esa velocidad depende de la masa del cuerpo de donde parte el vehículo y de la distancia al centro del mismo (planeta o satélite). El cálculo de la velocidad de escape o velocidad parabólica desde un cuerpo de masa M se efectúa por medio de: 

V2P= G. M. 2/R 

donde R es la distancia desde la superficie al centro del planeta o saté­lite. Para el caso de la Tierra, donde Rradio de la Tierra 6,3 x  108 cm, resulta:

V2P = 2.K /R=   2 x 4 X 1020cm31s2 = 1.27 x 1012cm2/s2 R 6,3×108cm

           VP = (raíz cuadrada de 1.27 x 1012 cm2/s2)

VP = 1.12 x 106 cm/s

VP = 11.2 km/s=40.320 km/hora

A 5000 km. de altura sobre la superficie de la Tierra la velocidad de escape disminuye a:

V2P =  8x 1020cm3/s2 /11,3 x 106cm =  7,1 x 1011 cm2/s2

de donde:            Vp= 8,4 km/s = 30.240 km/hora

En este caso se considera R = 6300 km + 5000 km.

En la tabla siguiente se presentan las velocidades de escape para la Luna, los planetas y el Sol.

     VELOCIDAD DE ESCAPE PARA ASTROS DEL SISTEMA SOLAR

                          Velocidad                                    Velocidad
CUERPO      de escape              CUERPO      de escape
(km/s)                                   (km/s)

   Luna                     2,4                 Saturno              35,4

   Mercurio               4,3                 Urano                  21,6

   Venus                 10,3                 Neptuno             22,8

   Tierra                 11,2                 Plutón                ¿?

   Marte                5,0                  Sol                     620,0

   Júpiter                59,5    

En resumen: la velocidad de escape es la necesaria para que la órbita del vehículo resulte una parábola y por lo tanto, el tiempo necesario para regresar al punto de partida resulte infinito. 

Órbitas de los satélites terrestres artificiales

La colocación de un satélite en órbita consiste en elevarlo a una cierta altura sobre la superficie de la Tierra (mayor de 100 km) y luego darle una dirección y velocidad determinadas. En esas condiciones si se establece el perigeo de la órbita a esa altura, las dimensiones de la órbita y su excentricidad dependerán de la velocidad que adquiera el satélite, todo lo cual resulta de:

                                                   V2Per = K(2/rp – 1/a) 

Como el foco de la elipse estará en el centro de la Tierra, la introducción de un satélite en órbita significa querp es un valor constante (distancia del perigeo al centro de la Tierra). De esa manera, un aumento de Vper determina el correlativo aumento del semieje mayor a de la órbita (ver fórmula [5]).

Órbitas de los vehículos espaciales enviados a Marte y a Venus

Para que un vehículo espacial lanzado desde la Tierra pueda llegar a Marte, debe describir una trayectoria elíptica cuyo perihelio se hallará en un punto próximo a la posición que ocupa la Tierra en el momento del lanzamiento. La velocidad del vehículo deberá ser algo mayor que la velocidad de traslación de la Tierra.

Trayectoria descripta por un vehiculo espacial lanzado desde la Tierra hacia Marte

El semieje mayor de la órbita elíptica descripta por ese vehículo se calcula así:

(ar + am)/2 

fórmula donde ar es el semieje mayor de la órbita de la Tierra, e igual a 1 UA; y am es el semieje de la órbita de Marte, e igual a 1,52 UA. En consecuencia, el semieje de la órbita del vehículo espacial tendrá este valor:

a= (1 + 1.52)/2=1.26 UA

Consecuentemente, el afelio de la órbita se encontrará en las cercanías de Marte. La velocidad que se debe imprimir al vehículo puede ser calculada con la fórmula [1], pues se conoce el semieje mayor de su órbita y la longitud del radio vector r, igual a 1 UA. Como la masa del Sol M = 2 x 1033 g, y la constante de gravitación G = 6,67 x 10B cm3/g s2, resulta:

 V2 = 1,34 x 1020 m3/s2  (2/r – 1/a)= 1/ 1.5 x 10 11 m/UA

donde se ha despreciado la masa m del vehículo espacial por su pequeñez con respecto al Sol. En esta fórmula se divide por el número de metros que hay en una unidad astronómica.

Efectuando el cálculo resulta:

V2 = 1.34 x 1020 / 1.5 x 1011  (2-1/1.26)=10.7 x 108

 V=3.27 x 104 m/s= 32.7 km/s

Por comparación, la velocidad de la Tierra en su órbita es de:

V2= 8.9x 108 (2— 1) = 8.9×108  m2/s2

V=2.96X 104m/s=29,6 km/S

 menor que la velocidad necesaria para llegar a Marte.

El tiempo que emplea el vehículo espacial en su viaje a Marte, es decir para llegar desde el perihelio al afelio, se calcula de acuerdo cor la tercera ley de Kepler, pues:

P a3/2 =(1.26)3/2=1.41 años

Éste es el tiempo que emplea para recorrer toda la órbita. Para ir del perihelio al afelio invierte la mitad de ese tiempo, o sea 0,70 años=8½ meses. Por supuesto, el viaje debe ser planeado de tal manera que cuando el vehículo alcance su afelio, Marte debe encontrarse también en ese punto.

Trayectoria descripta por un vehiculo espacial lanzado desde la Tierra hacia Venus

El viaje de regreso desde Marte hacia la Tierra es similar a la trayectoria que cumplirá un vehículo espacial enviado desde la Tierra hacia un planeta interior, como por ejemplo hacia Venus. En este caso será el afelio el que estará muy próximo a la Tierra y el perihelio coincidirá con Venus. Luego el semieje mayor de la órbita del navío espacial será:

a= (aT + aY)2=(1+0.72)/2=0.86 UA

Fuente consultada: Astronomía Elemental de A.Feinstein

Historia de la astronautica: vuelos tripulados y no tripulados

VUELOS NO TRIPULADOS

Vostok I, Primer Vuelo Ruso

VOSTOK 1     URSS 12-4-1961 Yury A. Gagarin. Primer hombre en el espacio dando una vuelta alrededor de la Tierra.

VOSTOK 2     URSS 6-8-1961 Gherman 5. Titov. Segundo astronauta ruso que estuvo en órbita durante 25 horas.

FRIENDSHIP 7 EE.UU. 20-2-1962 John H. Glenn Jr. Primer astronauta americano en órbita alrededor de la Tierra.

VOSTOK 3     URSS 11-8-1962 Andrian G. Nikolayev. En órbita simultáneamente con el Vostok 4.

VOSTOK 4     URSS 12-8- 1962 Pavel R. Popovich. En órbita simultáneamente con el Vostok 3.

VOSTOK 6     URSS 16-6- 1963 Valentina V. Tereshkova. Primera mujer en el espacio.

VOSKHOD 1     URSS 12-10-1964 Vladimir M. Komarov, Konstantin P. Feoktistov y Boris B. Yegorov. Primera cápsula espacial con más de un astronauta a bordo.

GEMINI 4     URSS 18-3- 1965 Pavel Belyayev y Aleksey Leonov que realizó el primer paseo espacial.

VOSKHOD 2 EE.UU. 3-6- 1965 James A. McDivitt y Edward H. Whíte II. Primer paseo espacial realizado por los norteamericanos.

GEMINI 7     EE.UU. 4-12- 1965 Frank Borman y James A. Lowell Jr. Establecen un nuevo record de permanencia en el espacio al efectuar 206 vueltas alrededor de nuestro Planeta.

SOYUZ 1     URSS 23- 4-1967 Vladimir M. Komarov, sufre el primer accidente mortal en la carrera del espacio.

APOLLO 8     EE.UU. 21-12- 1968 Frank Borman, James Lowell Jr. y William Anders. Primer vuelo de una nave tripulada alrededor de la Luna.

APOLLO 11 EE.UU. 16-7-1969 Neil A. Armstrong, Edwin E. Aldrin Jr. y Michael Collins. Llegada del hombre a la Luna.

APOLLO 13 EE.UU. 11-4-1970 James A. Lowell Jr., Fred W. Haise Jr. y John L. Swigert Jr. Una explosión en el módulo de mando obliga a suspender el alunizaje y el regreso a la Tierra se hace en precarias condiciones.

APOLLO 15 EE.UU. 26-7-1971 David R. Scott, Alfred M. Worden y James B. Irwin. Los astronautas utilizan por segunda vez el vehículo todo terreno, permitiéndoles de este modo hacer una experiencia lunar más extensiva.

SKYLAB 1 EE.UU. 25-5-1973 Charles P. Conrad, Joseph P. Kerwin y Paul J. Weitz son la primera tripulación que habita en el laboratorio espacial.

SKYLAB 3 EE.UU. 16-11- 1973 Gerald Carr, Gibson y Pogue. 84 días de permanencia en el espacio.

APOLLO– EE.UU. 15-7-1975 Stafford, Slayton, Brand, Leonov y Kubasov.

SOYUZ     URSS Primer vueló conjunto soviético- norteamericano y primera cita espacial.

SOYUZ 29 URSS 15-6-1978 Vladimir Kovalyonok y Aleksandr Ivanchenkov permanecen más de 4 meses en el espacio (139 días).

Resumen de la Vida de las Estrellas Evolucion Estelar Vida y Muerte Estrella

Resumen de la Vida de las Estrellas y Su Evolución Estelar

LA VIDA DE UNA ESTRELLA

Las estrellas tienen una fuente interna de energía. Pero, al igual que todo tipo de combustible, sus reservas son limitadas. A medida que consumen su suministro de energía las estrellas van cambiando y cuando se les acaba, mueren. El tiempo de vida de las estrellas, aunque muy largo comparado con las escalas de tiempo humanas, es, por lo tanto, finito.

A medida que envejecen sufren profundos cambios en sus tamaños, colores y luminosidades, siempre como consecuencia de la disminución de sus reservas. Para aumentar su expectativa de vida, la estrella lucha continuamente contra la fuerza gravitatoria que intenta contraerla. Las distintas etapas evolutivas son sucesiones de contracciones que terminan cuando la estrella comienza a quemar otros combustibles que mantenía en reserva y logra establecer una nueva situación de equilibrio.

Galaxias y estrellas del universo

El factor más importante en el desarrollo de una estrella es su masa inicial. Las estrellas más masivas tienen mayores temperaturas centrales y, en consecuencia, producen energía y consumen combustible a un ritmo creciente. Este hecho fue determinado observacionalmente y se llama relación masa-luminosidad. Podría parecer que las estrellas más masivas, las que tienen más combustible, deberían tener vidas más largas. Pero en realidad sucede exactamente lo contrario. Al igual que con el dinero o la comida, la duración del combustible estelar depende tanto de la cantidad disponible como del ritmo de consumo. Por ejemplo, la vida del Sol será de 10 mil millones de años. Una estrella de masa 10 veces mayor tiene 10 veces más combustible, pero lo quema a un ritmo tan grande (de acuerdo a la relación masa-luminosidad) que termina de consumirlo en 30 millones de años. En el otro extremo, una estrella de 0,1 M0 brillará durante 3 billones de años antes de morir.

¿Cómo se mide la masa, esa propiedad fundamental que determina completamente la estructura y evolución de una estrella?

El único método de determinación directa de masas es el estudio del movimiento de estrellas binarias. Las estrellas dobles o binarias están muy próximas entre sí y cada estrella gira alrededor del centro de gravedad del par. Aplicando a estos sistemas las leyes de Newton es posible deducir su masa. Sin embargo, la masa de cada estrella del sistema se puede determinar sólo en el caso de que el sistema binario sea ecipsante (es decir cuando una de las estrellas eclipsa a la otra). Estas mediciones, aunque pocas en número, son interesantes porque a partir de ellas se han podido establecer algunos resultados que dieron la clave para comprender la evolución estelar.

Una manera indirecta de determinar la masa estelar es usando la relación masa-luminosidad que pudo ser establecida cuando se desarrolló una de las herramientas más poderosas con que cuentan los astrofísicos, el diagrama R-R que consideraremos a continuación.

Se han observado estrellas muy masivas, hasta 120 M0, pero ¿hay una masa mínima para las estrellas? La respuesta a esta pregunta está todavía en estudio. Las estrellas de menor masa observadas son Ross 614B, de 0,08 M0 y Luyten 726-8B con 0,04 M0, pero la mayoría de las estrellas tienen masas de entre 0,3 y3 M0.

EL DIAGRAMA H-R  

En el año 1911 el astrónomo danés E. Hertzsprung comparó la magnitud absoluta y la luminosidad de estrellas pertenecientes a varios cúmulos. Trazó la curva de variación de uno de estos parámetros en función del otro y observó que los puntos no estaban esparcidos al azar en el diagrama, sino que se distribuían a lo largo de una línea bien definida. En 1913, el astrónomo norteamericano H. Russell llegó a la misma conclusión con datos de otras estrellas. Mostró empíricamente la existencia de una relación entre la luminosidad y temperatura estelares. El diagranta resultante se llama diagrama Hertzprung-Russell (H-R), y está representado en la figura.

La posición de unaa estrella en el diagrama H-R depende de su estado de evolución, y por eso la estructura y la historia de nuestra galaxia se pueden estudiar con este instrumento básico. Así como los botánicos pueden estimar la edad de un árbol a partir de la cantidad de anillos de su tronco, los astrónomos encuentran en el H-R la herramienta que les permite estimar la edad de una estrella.

Diagrama estelar E. Hertzsprung

El diagrama Herzprung-Russell. Cada estrella se representa según su magnitud absoluta, que mide su brillo intrínseco, y su tipo espectral, que refleja su color y su temperatura. Esta última aumenta hacia la izquierda

Un examen en el diagrama H-R de las estrellas con distancias conocidas muestra que no están distribuidas al azar, sino que muchas (entre ellas el Sol) están agrupadas en una banda angosta sobre la diagonal, llamada secuencia principal. Otro grupo de estrellas, la rama de las gigantes, se extiende horizontalmente sobre la secuencia principal. Las estrellas con luminosidades mayores que las gigantes se llaman supergigantes, mientras las estrellas sobre la secuencia principal se llaman enanas.

Estudiando los sistemas binarios se pudo establecer que la luminosidad de una estrella de secuencia principal es proporcional a su masa elevada a la potencia 3,5. Es decir que una estrella 2 veces más masiva que el Sol será 11 veces más 1 luminosa. Esta relación masa-luminosidad es una forma de estimar la masa de una estrella que no pertenece a un sistema binario a partir de su luminosidad, con la condición de que pertenezca a la secuencia principal, lo que se puede determinar, como veremos, con criterios espectroscópicos.

Las cantidades fundamentales que definen este diagrama se pueden medir con distintos parámetros, dándole así distintas formas. El H-R clásico usa dos cantidades: el tipo espectral (que es una determinación cualitativa de la temperatura) y la magnitud absoluta.

El tipo espectral

La única fuente de información sobre la naturaleza de las atmósferas estelares es el análisis de su espectro, del que se pueden hacer dos tipos de aproximaciones: cuantitativas y cualitativas.

Como hemos visto en el capítulo anterior, el análisis cuantitativo pernúte determinar los parámetros físicos que describen la atmósfera estelar. El análisis cualitativo descansa en la simple observación de que los espectros pueden agruparse en familias: esta clasificación espectral considera sólo la apariencia del espectro en el visible. Según ella, las estrellas se ordenan en 7 clases principales (de acuerdo a su temperatura) a las que se designa con las letras O, B, A, F, G, K y M. Para tener en cuenta las diferencias de apariencia entre espectros de la misma clase fue necesario establecer una subdivisión decimal, y entonces el tipo espectral se representa por BO, B1, B2, …, B9, AO, A1…

La clasificación espectral se basa en la presencia o ausencia de líneas de ciertos elementos, lo que no refleja una composición química diferente de las atmósferas sino sólo las diferencias de temperatura atmosférica.

Así el H, que es el elemento más abundante del universo y del que todas las estrellas tienen casi la misma abundancia, predomina en las líneas espectrales de estrellas con temperaturas cercanas a lO.0000K, porque la excitación del átomo de H es máxima a esta temperatura. En las atmósferas de las estrellas más calientes, de tipo espectral o, el H está casi todo ionizado y entonces no produce un espectro significativo de líneas de absorción.

En las atmósferas de estrellas frías (por ejemplo de tipo espectral K) los átomos de H son neutros (no ionizados) y prácticamente todos están en el estado fundamental, no excitado. El espectro de líneas así producido pertenece principalmente al rango ultravioleta, no observable desde la Tierra, mientras que las líneas de H observadas en el visible son muy débiles.

Las estrellas de tipo o que son las más calientes, muestran en sus espectros líneas de He ionizado, pero no líneas de H. Yendo a tipo BO hasta AO la intensidad de las líneas de He también decrece cuando las condiciones de temperatura no son favorables y la de los metales (elementos más pesados que el He) crece para tipos espectrales correspondientes a temperaturas más bajas. En las estrellas más frías, las líneas de metales neutros se hacen más y más intensas y aparecen bandas características de moléculas.

Las clasificación en “gigantes” y “enanas”, tiene sentido sólo para un dado tipo espectral. Si se consideran dos estrellas del mismo tipo espectral, una de la secuencia principal y la otra de la rama de las gigantes, las dos muestran gran diferencia en luminosidad. Como son del mismo tipo espectral, tienen la misma temperatura.

La diferencia de luminosidad se origina entonces en la diferencia de tamaño. Comparemos, por ejemplo, dos estrellas de clase M. La luminosidad de la gigante es 10.000 veces mayor que la de la enana (o de secuencia principal). Por lo tanto su área superficial debe ser 10.000 veces mayor y entonces el radio de la gigante será 100 veces mayor que el de la enana. (La ley de Stefan-Boltzmann dice que:  L es proporcional a R2.T4).

Las estrellas que aparecen por debajo de la secuencia principal son las enanas blancas, cuyos radios son muy pequeños.

NACE UNA ESTRELLA

Como ya hemos dicho la vida estelar es una sucesión de contracciones. La primera gran contracción es la de la nube interestelar que crea la estrella. La cuna de las nuevas generaciones de estrellas en nuestra galaxia parece estar en las nubes interestelares de átomos y moléculas. La densidad promedio del medio interestelar en la galaxia es de cerca de un átomo por cm3. La formación de una estrella requiere una densidad 1024 veces mayor. El único mecanismo capaz de actuar a grandes distancias y de originar tal factor de compresión es la fuerza de la gravedad, que juega aquí un papel esencial. Por otro lado el movimiento térmico de las moléculas y el movimiento turbulento del gas interestelar producen una presión que impide una contracción abrupta impuesta por el campo gravitatorio.

Cuando la gravedad rompe este equilibrio se puede formar una estrella o un grupo de estrellas. En términos muy generales, esto sucede cuando la masa de la nube sobrepasa una cierta masa crítica. Una nube colapsará si, por ejemplo, su masa aumenta por colisiones con nubes más pequeñas, pero su temperatura promedio sólo aumenta ligeramente, o si la masa de una nube permanece constante, pero su temperatura disminuye, de manera que la presión no puede frenar el colapso. Estas dos situaciones podrían ocurrir simultáneamente. Los cálculos indican que en nubes con masas mayores que unas 2.000 M0 la gravedad gana sobre las fuerzas de presión. La nube se hace gravitatoriamente inestable y se contrae más y más rápido. Como la masa de una estrella típica es unas 1.000 veces menor, hay que concluir que la nube se fragmenta.

Los complejos moleculares gigantes muy fríos, con temperaturas de unos 10 a 90 0K, son los lugares reconocidos de formación estelar. Sus masas son muy grandes; alcanzan hasta 1.000.000 M0. El polvo de la nube oculta las nuevas estrellas al astrónomo óptico, pero éstas se pueden detectar en el infrarrojo.

Hay un tipo de nubes moleculares pequeñas, llamadas “glóbulos de Bok”, algunos de los cuales se han observado en contracción gravitatoria. Su velocidad de colapso es de aproximadamente medio km/seg, y su radio es del orden de 2 años luz. Si nada frena su colapso, estos glóbulos se condensaran en estrellas dentro de 1.000.000 años, lo cual, en términos de la vida total de la estrella, es un período muy breve.

Estos objetos aislados (que se ven como zonas negras contra el fondo de la Vía Láctea) ilustran los modelos teóricos de formación estelar. La región central, altamente comprimida y mucho más densa que la periferia, atrae a la materia que la rodea. La temperatura aumenta progresivamente y la presión se hace suficientemente alta como para parar momentáneamente el colapso del núcleo.

Poco a poco toda la materia en la envoltura cae hacia la protoestrella. Cuando su temperatura pasa los 10 millones de °K, comienzan las reacciones termonucleares, es decir el autoabastecimiento de energía. En este momento la estrella entra en la secuencia principal y comienza su vida normal. En las galaxias espirales, como la nuestra, las estrellas se forman en los brazos espirales, donde se encuentran el polvo y el gas interestelares.

La observación de estrellas en formación o estrellas muy jóvenes junto con su ambiente provee importantes contribuciones a la teoría de formación estelar. En el esquema presentado la formación de estrellas está directamente relacionada a la evolución de las nubes moleculares, pero aunque es el caso más estudiado, no es el único. Una forma de aprender más sobre formación estelar es investigar galaxias vecinas.

La formación estelar en la Gran Nube de Magallanes presenta algunos problemas para este esquema: en una región llamada 30 Dorado se observan unas 50 estrellas O y B asociadas con una nube de 50 millones de M0 de hidrógeno neutro. No hay polvo en esta región ni se ha detectado ninguna nube molecular. Esto muestra claramente que la teoría de formación estelar basada en nubes moleculares no explica todos los nacimientos estelares. Este es un tema de gran actualidad en astrofísica que todavía no está resuelto.

La protoestrella entra al diagrama H-R por la derecha (la parte roja o fría), en el momento en que la temperatura central se hace suficientemente alta (recordemos que bajo compresión la temperatura de un gas aumenta) y la estrella comienza a convertir H en He. La posición inicial de la estrella en el H-R define la llamada secuencia principal de edad cero (ZAMs). Cuanto más masiva nace una estrella más arriba comienza su vida de secuencia principal y más luminosa es.

La posición de la ZAMS sobre el diagrama H-R depende de las composiciones químicas de las estrellas que se forman. La abundancia de metales (elementos más pesados que el He) aumenta de generación a generación, a medida que las estrellas más viejas evolucionan y enriquecen el medio interestelar con elementos pesados. En consecuencia la ZAMS se desplaza cada vez más hacia la derecha sobre el H-R a medida que la galaxia envejece, y este corrimiento permite estimar la edad de la galaxia.

La secuencia principal representa la primera pausa y la más larga en la inexorable contracción de la estrella. Durante este intervalo las estrellas son hornos nucleares estables y a esta estabilidad debemos nuestras propias vidas, ya que el Sol se encuentra en esta etapa. A medida que la estrella envejece se hace un poco más brillante, se expande y se calienta. Se mueve lentamente hacia arriba y a la izquierda de su posición inicial ZAMS.

Evolución de las Estrellas

Para una persona, incluso para una toda generación de seres humanos resultaimposible observar una única estrella para descubrir todo lo que le sucede en el transcurso de su existencia, ya que la vida estelar media es del orden de los miles de millones de años. Identificar y ordenar las distintas etapas en la vida de las estrellas, puede compararse con obtener una fotografía en conjunto de todos los habitantes de una ciudad; en la foto se tendría una visión de las posibles fases o estadios de la vida humana: habrían recién nacidos, niños, adultos, ancianos, etc.

Al analizar la imagen obtenida de cada persona y clasificándola de acuerdo a cierto carácter, podría establecerse el ciclo de la vida humana con bastante precisión; se podría estimar el ciclo completo, captado en un único instante de tiempo en la fotografía de conjunto.

Debido a la cantidad y a la gran variedad de estrellas existentes, se logra tener una idea de su evolución observando estrellas en las diversas fases (o etapas) de su existencia: desde su formación hasta su desaparición. Al respecto se debe tener en cuenta que, efectivamente, se han visto desaparecer estrellas (por ejemplo, la supernova de 1987) como también se han hallado evidencias de la formación de otras nuevas (como en el profundo interior de la Nebulosa de Orión, por ejemplo).

Ya mencionamos que en el estudio de las estrellas, se utilizan parámetros físicos como la temperatura o la masa, entre otros. Pero debe señalarse también otra de las técnicas usuales en Astronomía, denominada Espectroscopía.

La luz estelar se descompone en su gama intrínseca de colores, llamándose “espectro” al resultado de esa descomposición cromática (la palabra espectro que significa “aparición”, fue introducida por I. Newton, quien fue el primero es descubrir el fenómeno). En el espectro de las estrellas, además de los colores, aparecen ciertas líneas o rayas bien nítidas. Esas líneas o mejor dicho, cada una de las series de líneas, se corresponde, según su posición en el espectro, por una parte con la T de la superficie estelar y por otra, con los elementos químicos presentes en la atmósfera de la estrella.

Diferentes elementos químicos absorben o emiten luz según la temperatura a que se encuentren; de esta manera la presencia (o ausencia) de ciertos elementos en la atmósfera de la estrella, indica su temperatura.

Los astrónomos han diseñado un sistema de clasificación de estrellas, de acuerdo a las características que presentan sus respectivos espectros. En ese esquema, las estrella s se ordenan desde las más calientes a las más frías, en tipos espectrales que se identifican según el siguiente patrón de letras: O B A F G K M

Las estrellas más calientes (O) tienen temperaturas de unos 40.000 ºC; en el otro extremo, las más frías (M), alcanzan sólo 2.500 ºC; en este esquema, el Sol, con una temperatura superficial de 6.000 ºC, resulta una estrella de tipo espectral intermedio entre las más calientes y las más frías: es una estrella tipo G.

Este sistema de clasificación se corresponde además con los colores de las estrellas: las de tipo (O) son azules-violáceas y las de tipo M, rojas; el Sol (tipo G) es amarillo. Los colores observados también se relacionan con la temperatura, ya que las estrellas más calientes emiten la mayor parte de su luz en la zona azul del espectro electromagnético, mientras que las más frías lo hacen en la zona roja.

En las estrellas más calientes, las distintas capas interiores deben vencer mayor atracción gravitacional que las capas más externas, y por lo tanto la presión del gas debe ser mayor para mantener el equilibrio; como consecuencia, mayor es la temperatura interna. Implica que la estrella debe “quemar” combustible a gran velocidad, lo que produce una ingente cantidad de energía. Esta clase de estrellas sólo puede tener una vida limitada: unos pocos millones de años.

Las estrellas frías (generalmente pequeñas y con una fuerza de gravedad débil) sólo producen una modesta cantidad de energía; en consecuencia aparecen brillando tenuemente. Así, estas estrellas pueden existir como tales sólo algunas decenas de miles de millones de años.

En la siguiente Tabla se indican la temperatura característica (en grados centígrados, ºC) de cada tipo espectral (T.E.).

Tipo Espectral Temperatura (ºC)
O 40.000
B 25.000
A 11.000
F 7.600
G 6.000
K 5.100
M 2.500

Ahora bien, la temperatura y consecuentemente, la cantidad de energía que emite una estrella, depende de su masa: cuanto mayor es su masa, mayor es la temperatura y por consiguiente mayor es la cantidad de energía que irradia. Pero hasta que en su núcleola temperatura no alcance un valor de algunos millones de grados, no se producirán transformaciones nucleares (del tipo de transmutación de hidrógeno en helio) y, por lo tanto, mientras eso no ocurra, la cantidad de energía que emiten será bastante pequeña (objetos de esta clase son denominados protoestrellas). Cuando se inicia la vida de una estrella, el calor de su interior procede de la energía gravitacional, es decir, de la nube de gas que se comprime sobre sí misma (colapso).

La etapa de protoestrella se corresponde con grandes inestabilidades en su estructura interna, las que acaban cuando la temperatura de su núcleo alcanza los 10 millones de grados, iniciándose entonces la transmutación del hidrógeno en helio y, por lo tanto, la generación de energía desde su núcleo: en esa etapa el astro se considera ya una estrella.

Las estrellas contienen suficiente hidrógeno como para que la fusión en su núcleo dure un largo tiempo, aunque no para siempre. La velocidad de combustión del hidrógeno depende de la masa, o sea de la cantidad de materia que compone la estrella.

Llegará un momento en que se acabará todo el hidrógeno disponible y sólo quede helio. En esas condiciones la estrella sufrirá diversos tipos de transformaciones: aumentará de tamaño y el helio acumulado se transmutará en elementos más pesados como el carbono, el nitrógeno, el oxígeno, etc, mediante otras reacciones nucleares. Entonces la estrella dejará de ser estable: sufrirá cambios de volumen y expulsará al espacio parte de su material. Las capas mas externas serán las primeras en alejarse.

Después de cinco a diez mil millones de años, una estrella como el Sol evoluciona a un estado denominado de gigante roja: un objeto de gran tamaño (de dimensiones mayores que las originales), mucho más fría y de una coloración rojiza. Su temperatura superficial disminuye y por lo tanto toma color rojizo. La gigante roja brillará hasta que su núcleo genere cada vez menos energía y calor. En esas condiciones la estrella empieza a contraerse: disminuye su diámetro y al mismo tiempo aumenta su temperatura superficial.

Si la estrella, al formarse, tiene una masa cuarenta veces mayor que la masa del Sol, pasará al estado de gigante roja en sólo unas pocas decenas de millones de años. Luego irá disminuyendo de tamaño y perderá rápidamente una cantidad significativa de su masa expulsando materia hacia el espacio.

Otra modo de expulsar materia es lentamente, a través de fuertes vientos estelares; de esta forma los astrónomos han observado que se forma una envoltura gaseosa que circunda la estrella y que puede llegar a ser bastante densa; si ese proceso continúa puede dar lugar a un objeto denominado nebulosa planetaria.

Con el nombre de nebulosas planetarias, se define a una estrella muy caliente y pequeña, rodeada por una esfera de gas fluorescente en lenta expansión; algunas fotografiadas con potentes telescopios, muestran que esas nebulosas tienen forma de anillo, razón por la cual se le ha dado ese nombre, ya que su aspecto observada en el telescopio es similar al disco de un planeta.

Finalmente, hacia el término de su existencia, esas estrellas se convierten en objetos de pequeñas dimensiones (del tamaño de la Tierra o aún menor), calientes y de color blanco: son las enanas blancas. La materia de estos objetos se halla extremadamente comprimida: 1 centímetro cúbico de la misma puede pesar varias toneladas. En otras palabras, en un volumen similar al de nuestro planeta se halla condensada la misma cantidad de materia que hay en un volumen comparable al del Sol.

Pero no todas las estrellas acaban como enanas blancas. Cada estrella termina su vida de un modo que depende mucho de su masa inicial, aquella que tuvo cuando comenzó su existencia. Una estrella de gran masa (varias veces la del Sol) y que no pierde mucha materia durante su evolución termina su vida en una explosión muy violenta que se denomina supernova; cuando esto ocurre la estrella brillará tanto como toda la galaxia en la cual se encuentra, aunque su brillo será efímero: la estrella ya está condenada a extinguirse como tal.

En el siguiente cuadro se muestran los distintos estados evolutivos finales para estrellas de diferente masa inicial (M). La masa está expresada en masas solares (Msol = 1).

Masa Inicial Estado evolutivo final
M < 0,01 Planeta
0,01 < M < 0,08 Enana marrón
0,08 < M < 12 Enana blanca
12 < M < 40 Supernova + estrella de neutrones
40 < M Supernova + agujero negro

Distintos estados evolutivos finales para estrellas de diferente masa inicial <M>. La masa está expresada en masas solares (Msol = 1).

Los restos gaseosos de una supernova (que se denominan remanentes) se esparcen cubriendo una extensa zona del espacio, formando una nube en permanente expansión que se aleja a varios miles de kilómetros por segundo y cuyas características son bastante peculiares (por ejemplo, aparecen campos magnéticos sumamente intensos).

El gas que compone un remanente de supernova es bastante diferente al gas de la nube que formó a la estrella. La nube de origen estuvo compuesta casi exclusivamente por helio y helio, mientras que en el remanente existe una gran variedad de elementos químicos, restos de la fusión nuclear que ocurriera en la estrella desaparecida y también otros formados durante la explosión que se produce en la fase de supernova.

En el siguiente cuadro se muestran algunas estrellas con sus características físicas más importantes.

Estrella Magnitud
aparente (m)
Magnitud
Absoluta
Temperatura
(en ºC)
Radio
(en radios solares)
Características
Centauri 0,6 -5,0 21.000 11 gigante
Aurigae 0,1 -0,1 5.500 12 gigante
Orion 0,4 -5,9 3.100 290 supergigante
Scorpi 0,9 -4,7 3.100 480 supergigante
Sirio B 8,7 11,5 7.500 0,054 enana blanca

 De este modo se recicla el material estelar: las estrellas que se formen con el gas expulsado en una explosión de supernova, serán menos ricas en hidrógeno y helio, pero más ricas en los elementos químicos más pesados, que las estrellas de su generación anterior.

Pero sucede que luego de la explosión de una supernova, lo que queda del astro, además de sus remanentes, es un cuerpo de apenas algunos kilómetros de diámetro, conformado por él núcleo de la estrella original.

En la explosión de supernova se produce un catastrófico colapso de la estrella; debido a su gran masa, la enorme fuerza de gravedad comprime la materia con mucha más intensidad que en el proceso que genera a una enana blanca . En estas condiciones toda la masa de una estrella ordinaria (como el Sol) se comprime en una pequeña esfera de apenas 15 Km. de diámetro; a estos diminutos astros se los ha bautizado estrellas de neutrones (su denominación se debe a que se trata de objetos compuestos básicamente de neutrones). La materia en estos objetos se ha comprimido a tal extremo y su densidad alcanza a valores tan grandes, que los electrones se combinan con los protones dando lugar a la formación de nuevos neutrones.

Fuente Consultada: Astronomía Elemental de Alejandro Feinstein y Notas Celestes de Carmen Nuñez

SÍNTESIS DEL TEMA…

Ningún astrónomo ha podido contemplar, hasta ahora, el interior de las estrellas, pero todos los científicos conocen ya los fenómenos que se producen en el centro de éstas y en los estratos que lo cubren hasta llegar a la superficie visible.

Las estrellas son enormes esferas de gas, de un diámetro medio, equivalente a cien veces el de la Tierra. El gas que las compone contiene, aproximadamente, un 80 % de hidrógeno y un 18 % de helio. La mayor parte de los elementos se hallan presentes en ellas, aunque en cantidades insignificantes.

La superficie de las estrellas está incandescente: su temperatura oscila, según el tipo de estrella, entre miles y decenas de millares de grados centígrados. Pero, a medida que se penetra en su interior, esa temperatura va haciéndose cada vez más alta, hasta alcanzar, en el centro, decenas de millones de grados, lo cual pone a los átomos en un estado de “agitación” tan violenta, que los lleva a chocar entre sí, perdiendo electrones y formando iones (átomos que han perdido, por lo menos, uno de sus electrones). El gas de los iones y electrones se ve sometido a presiones tan altas, que en ocasiones alcanza una densidad miles de veces superior a la del agua.

¿Qué es lo que comprime el gas en el interior de las estrellas? El peso de los estratos superiores. Todo el mundo ha oído hablar de las elevadas presiones existentes en el fondo del mar o en el centro de la Tierra (éstas, particularmente, alcanzan cifras asombrosas). Pero, en el centro de una estrella, a una profundidad cien veces mayor, las presiones son tan enormes, que bastan para comprimir toda la materia estelar en un reducidísimo espacio. Los átomos, chocando entre sí, perdiendo y, a veces, adquiriendo electrones, emiten una gran cantidad de luz, comparada con la cual la superficie del Sol parecería oscura.

Llegados a este punto, conviene explicar que la luz ejerce presión sobre los cuerpos que ilumina: poca presión, cuando su intensidad es débil, y mucha, cuando es fuerte. Esta propiedad de la luz se encuentra, naturalmente, fuera de los límites de nuestra experiencia, ya que la Tierra, por fortuna, nunca se ve expuesta a radiaciones luminosas de tanta intensidad. Pero éstas son lo suficientemente intensas, en el interior de las estrellas, como para ejercer, sobre los estratos superficiales, presiones que llegan al millón de toneladas por centímetro cuadrado. Es decir: equilibran, en parte, la presión hacia el interior de estos estratos y evitan que la estrella se convierta en un pequeño y densísimo núcleo.

A las temperaturas descritas, los átomos chocan en forma tan violenta que, cuando los núcleos de hidrógeno entran en colisión entre si, o con núcleos de otros elementos (carbono y nitrógeno), se funden y originan núcleos de helio. Este proceso de fusión de núcleos se llama “-reacción termonuclear”, lo que significa “reacción nuclear provocada por la temperatura”. Cada vez que se forma un nuevo gramo de helio, se libera una energía equivalente a la que se obtendría quemando media tonelada de carbón. ¡Y se forman millones de toneladas de helio por segundo!

La fusión del hidrógeno es, pues, la reacción que mantiene el calor de las estrellas. Como la mayor parte de éstas contiene casi exclusivamente hidrógeno, y basta consumir un poco para obtener una gran cantidad de energía, se comprende que las estrellas puedan brillar ininterrumpidamente durante miles de millones de años.

La zona del interior de las estrellas en las que se produce ,La energía termonuclear es pequeña: muy inferior a una décima parte del volumen total de la estrella. Lo cual dificulta notablemente la llegada del calor a la superficie.

Una parte de éste se transmite por radiación (es decir: la energía térmica producida en el núcleo central es enviada, bajo forma de radiaciones electromagnéticas, a los átomos exteriores, que la absorben y la envían, a su vez, hacia átomos más exteriores, hasta que así, de átomo en átomo, la energía llega a la superficie de la estrella, irradiándose en el espacio). Pero la mayor parte de la energía térmica es transportada a la superficie por la circulación de la materia estelar, que se halla en continuo movimiento: sube caliente del centro, se enfría en la superficie, por cesión de calor, y vuelve fría al centro, en busca de más calor. Esta forma de transporte se llama transporte por “convección”.

Los movimientos convectivos de la materia estelar provocan importantes fenómenos magnéticos, que repercuten en la superficie, produciendo maravillosas y fantasmagóricas manifestaciones: fuentes de gas incandescente, gigantescas protuberancias de gas luminoso coloreado, y manchas oscuras de materia fría, rodeadas por campos magnéticos, de extensión .e intensidad enormes. De esta naturaleza son las famosas manchas solares descubiertas por Galileo, que siempre han despertado gran interés entre los investigadores, por su influencia sobre la meteorología de nuestro planeta, sobre las transmisiones electromagnéticas, e incluso, al parecer, sobre algunos fenómenos biológicos.

La existencia de una estrella depende, por tanto, del perfecto equilibrio entre los mecanismos que producen la energía en su interior y los encargados de transportarla a la superficie. Cuando este equilibrio es inestable, las estrellas experimentan variaciones (estrellas variables); cuando, en cambio, se altera completamente, puede producirse uno de los más grandiosos fenómenos cósmicos: la explosión de una estrella, de lo cual nos ocuparemos en otro artículo.

Agujeros Negros Origen, Formación y Características Breve y Fácil

Origen y Características de los Agujeros Negros
Muerte de Estrellas

Desde hace mucho tiempo uno de los temas predilectos de la ciencia-ficción han sido los agujeros negros, y en estrecha relación con ellos, el viaje a través del tiempo. El concepto de agujero negro fue popularizado por el físico británico Stephen Hawking, de la Universidad de Cambridge, quien describe con ese nombre a una región del Universo de la que no puede salir ningún objeto una vez que entró allí. Con esto en mente, sería interesante preguntarse qué le sucedería a alguien en el hipotético caso de encontrarse en las cercanías de una de estas regiones, qué sensaciones tendría y si la realidad que lo rodea sería igual a la que nos es familiar.

Hawking Físico astronomo

Para el físico Stephen Hawking y para la mayoría de los científicos un agujero negro es una región del Universo de la que no puede salir ningún objeto una vez que entró allí.

Agujeros negros: Como hemos visto en el nacimiento de las estrellas, una vez que el H y el He, el combustible termonuclear se han consumido en el núcleo de la estrella, sobreviene un colapso gravitatorio.

La evolución estelar culmina con la formación de objetos extremad mente compactos como enanas blancas o estrellas de neutrones cuando masa de la estrella no excede las 3 Mo (masa del Sol).

Si la masa es mayor, la compresión gravitatoria ya no se puede compensar con las fuerzas de repulsión de 1 electrones o neutrones degenerados y continúa tirando materia sobre la estrella: se forman los agujeros negros. En efecto, cuando los neutrones entre en colapso no existe ningún mecanismo conocido que  permita detener contracción.

Esta continúa indefinidamente hasta que la estrella desaparce, su volumen se anula y la densidad de materia se hace infinita. ¿Cómo entender una “estrella” más pequeña que un punto y con semejante densidad de materia en su interior?

Si una estrella se contrae, el campo gravitatorio en su superficie aumenta, aunque su masa permanezca constante, porque la superficie está más cerca del centro. Entonces, para una estrella de neutrones de la misma masa que el Sol la velocidad de escape será de unos 200.000 km/seg. Cuanto mayor es la velocidad de escape de un cuerpo más difícil es que algo pueda escapa de él.

En cierto momento la velocidad de escape llega al limite de 300.000 km/se Esta es la velocidad de las ondas electromagnéticas en particular de la luz que será entonces lo único que puede escapar de estos objetos. Ya hemos mencionado que no es posible superar esta velocidad y por lo tanto cuando la velocidad de escape de una estrella sobrepasa este limite, nada podrá escapar de ella. Los objetos con esta propiedad se llaman agujero negros.

Desde 1915, con la teoría de la relatividad general de Einstein se sabía que la gravedad generada por un cuerpo masivo deforma el espacio, creando una especie de barrera; cuanto más masivo es el cuerpo, mayor es la deformación que provoca. Los agujeros negros se caracterizan por una barrera  profunda que nada puede escapar de ellos, ni materia ni radiación; así t da la materia que cae dentro de esta barrera desaparece del universo observable.

Las propiedades físicas de estos objetos son tan impresionantes que por mucho tiempo quitaron credibilidad a la teoría.

Esta predice la existencia de agujeros negros de todos los tamaños y masas: los miniagujeros negros tendrían la masa de una montaña concentrada en el tamaño de una partícula; un agujero negro de 1cm. de radio sería tan masivo como la Tierra; los agujeros negros estelares tendrían masas comparables a las de las estrellas dentro de un radio de pocos kilómetros; finalmente, los agujeros negros gigantes tendrían una masa equivalente a varios cientos de millones de estrellas dentro de un radio comparable al del sistema solar.

Una forma de detectar agujeros negros sería a través de ondas gravitatorias. Estas ondas son para la gravedad lo que la luz es para el campo electromagnético. Sin embargo la tecnología actual no permite todavía esta posibilidad. El colapso de una estrella o la caída de un cuerpo masivo sobre un agujero negro originarían la emisión de ondas gravitatorias que podrían ser detectables desde la Tierra con antenas suficientemente sensibles.

 Aunque estas tremendas concentraciones de materia no se han observado todavía directamente hay fuerte evidencia de la existencia de estos objetos. Los astrofísicos comenzaron a interesarse activamente en los agujeros negros en la década del 60, cuando se descubrieron fenómenos sumamente energéticos.

Las galaxias superactivas, como las Seyferts, cuásares y objetos BL Lacertae emiten una cantidad de energía mucho mayor que una galaxia normal, en todas las longitudes de onda. Todos estos violentos fenómenos parecen asociados con cuerpos compactos muy masivos: estrellas de neutrones o agujeros negros estelares en el caso de binarias X, estrellas supermasivas o agujeros negros gigantes en los núcleos galácticos activos.

Las aplicaciones más importantes de los agujeros negros a la astrofísica conciernen a los núcleos activos de galaxias y cuásares. Los efectos de las enormes energías involucradas allí podrían ser sumamente interesantes y podrían permitir explicar fenómenos que todavía no se comprenden.

Fuente Consultada:Notas Celestes de Carmen Nuñez

GRANDES HITOS EN LA HISTORIA DE LOS AGUJEROS NEGROS
1783 El astrónomo británico John Michell señala que una estrella suficientemente masiva y compacta tendría un campo gravitatorio tan grande que la luz no podría escapar.

1915 Albert Einstein dio a conocer su teoría de la gravitación, conocida como Teoría General de la Relatividad.

1919 Arthur Eddington comprobó la deflexión de la luz de las estrellas al pasar cerca del Sol.

1928 S. Chandrasekhar calculó el tamaño de una estrella que fuera capaz de soportar su propia gravedad, una vez  consumido todo si combustible nuclear. El resultado fue que una estrella de masa aproximadamente una vez y media la del Sol nc podría soportar su propia gravedad. Se le otorgó el Premio Nobel 1983.

1939 R. Opphenheimer explice qué le sucede a una estrella qué colapsa, de acuerdo con la Teoría de la Relatividad General.

1963 M. Schmidt identifica un quasar desde el observatorio de Monte Palomar.

1965 – 1970 R. Penrose y S, Hawking demuestran que debe haber una singularidad, de densidad y curvatura del espacio-tiempo infinitas, dentro de un agujero negro.

agujero negro

En el interior de un agujero negro, el retorcimiento del tiempo y el espacio aumentan hasta el infinito.
A esto los físicos llaman singularidad.

■ Un rayo de luz se curva al pasar cerca de un objeto masivo ya que está curvado el espacio que atraviesa. Si el rayo pasa sucesivamente por varios cuerpos su trayectoria se curvará hasta que el rayo quede girando en círculo, del que no puede escapar. Este es el efecto gravitatorio de los agujeros negros.

■ Un agujero negro es una zona del universo con una gravedad tan enorme que ni el tiempo puede salir de él.

■ Los pulsares y los quasars proporcionan información complementaria sobre la ubicación de los agujeros negros.

■ Detectar un agujero negro no es fácil. Se los descubre por la poderosa emisión de rayos X que los caracteriza.
Si un astronauta penetrara en un agujero negro no tendría forma de vivir. Debido a la intensísima fuerza gravitoria nos estiraríamos como un fideo hasta despedazarnos.

■ En el interior de un agujero negro el espacio y el tiempo aumentan hasta lo, infinito.

■ Se estima que el número de agujeros negros en el Universo es muy superior al número de estrellas visibles y son de mayores dimensiones que el Sol.

■ Existen varios agujeros negros identificados, uno se halla en nuestra Via Láctea: el Cygnus X-1.

AMPLIACIÓN DEL TEMA:
Fuente: Magazine Enciclopedia Popular: Los Agujeros Negros

Hagamos un ejercicio mental e imaginemos por un momento que somos intrépidos astronautas viajando al interior de un agujero negro…

Repasemos algunas ideas importantes. Los físicos saben desde hace mucho que un rayo de luz se curva al pasar cerca de un objeto masivo ya que está curvado el espacio que atraviesa. Pero ¿qué sucede si este rayo pasa sucesivamente cerca de varios cuerpos?.

Cada vez su trayectoria se curvará un poco más hasta que finalmente el rayo estará girando en círculo, del que no podrá escapar. Este efecto gravitatorio se manifiesta en los agujeros negros, donde la atracción es tan fuerte que nada, ni siquiera la luz, puede escapar de él una vez que entró.

La gravitación distorsiona además del espacio, el tiempo. Veamos qué sucede en la superficie de un agujero negro, el horizonte de sucesos, que coincide con los caminos de los rayos luminosos que están justo a punto de escapar, pero no lo consiguen.

DONDE EL TIEMPO SE DETUVO
Según la Teoría de la Relatividad, el tiempo para alguien que esté en una estrella será distinto al de otra persona lejana, debido al campo gravitatorio de esa estrella. Supongamos que nosotros, astronautas, estamos situados en la superficie de una estrella que colapsa, y enviamos una señal por segundo a la nave espacial que está orbitando a nuestro alrededor.

Son las 11:00 según nuestro reloj y la estrella empieza a reducirse hasta adquirir untamaño tal que el campo gravitatorio es tan intenso que nada puede escapar y nuestras señales ya no alcanzan la nave.

Desde ella, al acercarse las 11:00, nuestros compañeros astronautas medirían intervalos entre las señales sucesivas cada vez mayores, pero este efecto sería muy pequeño antes de las 10:59:59. Sin embargo, tendrían que esperar eternamente la señal de las 11:00. La distorsión del tiempo es aquí tan tremenda que el intervalo entre la llegada de ondas sucesivas a la nave se hace infinito y por eso la luz de la estrella llegaría cada vez más roja y más débil.

El tiempo, desde nuestro punto de vista como astronautas sobre la superficie de la estrella, se ha detenido. Llegaría un punto en que la estrella sería tan oscura que ya no podría verse desde la nave, quedando sólo un agujero negro en el espacio.

Pero como astronautas, tenemos un problema más angustiante.

La gravedad se hace más débil cuanto más nos alejamos de la estrella, es decir, varía rápidamente con la distancia. Por lo tanto, la fuerza gravitatoria sobre nuestros pies es siempre mayor que sobre nuestra cabeza. Esto significa que debido a la diferencia de fuerzas, nos estiraríamos como un fideo o, peor aún, nos despedazaríamos antes de la formación del horizonte de sucesos (a diferencia de lo que sucede en la Tierra, donde la gravedad para nosotros prácticamente no varía con la altura). Este experimento no es, por ahora, recomendable.

¿Qué ocurre con la materia dentro del agujero negro? Las teorías de Stephen Hawking y Roger Penrose, de la Universidad de Oxford aseguran que en el interior el retorcimiento del espacio y del tiempo aumentan hasta el infinito, lo que los físicos llaman una singularidad. Si una estrella esférica se encogiera hasta alcanzar el radio cero, ya no tendría diámetro, y toda su masa se concentraría en un punto sin extensión. ¿Qué sucede si la materia no puede salir del agujero?.

Sólo caben dos respuestas: o deja de existir o viaja a otra parte. Esta última posibilidad dio pie a la teoría del agujero de gusano: al caer en el agujero podríamos salir en otra región de Universo. Para desgracia de los novelistas de ciencia-ficción, esta posibilidad no posee gran aceptación científica hasta ahora.

¿ALGUIEN HA VISTO UN AGUJERO NEGRO?
Dado que se conoce muy poco acerca de estos huecos en el espacio, su estudio comenzó a desarrollarse mediante modelos matemáticos, aun antes de que hubiese evidencia de su existencia a través de observaciones. Pero, ¿cómo podemos creer en objetos cuya existencia se basa sólo en cálculos?.

La lista de evidencias comienza en 1963, cuando desde el observatorio de Monte Palomar en California, se midió el corrimiento al rojo de un objeto parecido a una estrella en dirección a una fuente de ondas de radio. Este corrimiento era muy grande, por lo que se pensó que se debía a la expansión del Universo y, por lo tanto, el objeto estaba muy lejos. Para ser visible, este objeto debería ser muy brillante y emitir una enorme cantidad de energía. A ellos se los llamó quasars (quasi-strange objects), y podrían proporcionar evidencia acerca de la existencia de los agujeros negros.

Otros candidatos para darnos información sobre los agujeros negros son los pulsares, que emiten ondas de radio en forma de pulso debido a la compleja interacción entre sus campos magnéticos y el material intergaláctico. También las estrellas de neutrones, objetos muy densos, podrían colapsar para convertirse en agujeros negros.

Detectar un agujero negro no es tarea fácil. La forma más utilizada está basada en el hecho de que estos objetos son fuentes emisoras de rayos X. Esto se relaciona con los sistemas binarios, formados por una estrella y un agujero negro. La explicación para este hecho es que de alguna forma se está perdiendo materia de la superficie de la estrella visible.

Como en una pareja de baile en una habitación pintada de negro donde la chica está vestida de blanco y el chico de negro, muchas veces se han observado sistemas en los que sólo hay una estrella visible girando alrededor de algún compañero invisible. Vemos girar a la chica, aunque no podamos distinguir a su pareja. Cuando la materia va cayendo en este compañero comienza a girar como una espiral y adquiere gran temperatura, emitiendo rayos X. Además, el agujero negro debe ser pequeño.

Actualmente se han identificado varios agujeros negros: uno de ellos es el caso de Cygnus X-l en nuestra galaxia, y otros en dos galaxias llamadas Nubes de Magallanes. Sin embargo, el número de agujeros negros se estima que es muy superior, pudiendo ser incluso mayor al de estrellas visibles y de mayores dimensiones que el Sol.

Estrella de Neutrones Muerte Estelar Agujeros Negros Causas Vida

En 1934 los teóricos usaron la mecánica cuántica para predecir la existencia de las estrellas de neutrones: cuando la gravedad se hace demasiado fuerte como para que una enana blanca resista el colapso, los electrones son empujados al interior de los núcleos atómicos convirtiendo a los protones en neutrones.

Pero al igual que los electrones, los neutrones obedecen un principio de exclusión, de acuerdo al cual cada neutrón puede ocupar un determinado nivel de energía que no puede compartir con otro. Cuando todos estos niveles son ocupados, los neutrones están completa.. mente degenerados y ejercen una presión capaz de frenar el colapso gravitatorio.

Así, una estrella de neutrones es en muchos aspectos una versión extrema de una enana blanca: para la misma masa (aproximadamente 1 M0) una estrella de neutrones tiene un radio mucho menor (unos 15 km) y una densidad fantástica (un millón de toneladas por cm3).

La temperatura es de unos 10 millones de grados, pero debido a su tamaño pequeño, estos objetos son en general imposibles de detectar ópticamente. La masa de una estrella de neutrones no puede exceder 3 M0: por encima de este valor la gravedad le gana a la presión de los neutrones degenerados y el único estado final posible es un agujero negro.

La rápida rotación y los fuertes campos magnéticos son dos características importantes de estas estrellas ultradensas. Sabemos que todas las estrellas rotan. Al colapsar, la velocidad de rotación aumenta de manera de conservar el momento angular (así como un patinador baja los brazos para girar más rápidamente) La velocidad de rotación de las estrellas de neutrones es de varias vueltas por segundo También todas las estrellas tienen campos magnéticos pero cuando colapsan, éste aumenta. Los campos magnéticos de las estrellas de neutrones son un billón de veces más intensos que el terrestre. Estas dos propiedades son las que permiten detectar a las estrellas de neutrones en forma de púlsares.

La primera detección de un púlsar se produjo en 1986 en Inglaterra, 34 años después de haber sido predichos teóricamente. Aparece como un objeto que emite pulsos de radio de intensidad variable, pero espaciados a intervalos de tiempo regulares: el período, increíblemente preciso, es de 1,33730113 segundos. El fenómeno fue interpretado como una estrella de neutrones cuyas líneas de campo magnético aceleran los electrones a lo largo del eje magnético, causando la emisión de un rayo de ondas de radio que rotan con la estrella y producen un pulso cuando el rayo intercepta la línea de Visión del observador.

Desde entonces se han descubierto otros varios púlsares y se ha encontrado que algunos de ellos no sólo emiten en radio, sino también en frecuencias más altas como rayos x y y. Se conocen actualmente más de 300 púlsares, situados mayormente en el plano galáctico, a unos pocos kpc del Sol. Los lugares con más posibilidades para encontrar púlsares son los remanentes de supernova.

La famosa Nebulosa del Cangrejo es el remanente de la supernova de 1054 y contiene efectivamente el púlsar del Cangrejo. Debido a su reciente formación es uno de los que rotan más rápido: da 33 vueltas por segundo. Podemos predecir con facilidad, que la velocidad de rotación de un púlsar disminuirá lentamente con el tiempo, de acuerdo a la velocidad con que disipa energía. Por eso los púlsares más jóvenes rotan más rápido que los viejos. Sus períodos van de 0,006 a 0,03 segundos hasta 4,3 segundos. Cuando la velocidad de rotación se hace pequeña, el mecanismo del púlsar no sirve: su vida promedio es de unos pocos millones de años.

Hay otro efecto que contribuye a la modificación de la velocidad de rotación pero de manera más abrupta: son los “glitches”, que disminuyen el período de rotación una parte en un millón en pocos días. Se interpreta como sismos estelares debido a inestabilidades en la corteza o el núcleo de la estrella de neutrones. Estos fenómenos son muy útiles para estudiar la estructura interna de los púlsares, pero sólo aparecen durante unos pocos pulsos.

El púlsar de la supernova de 1987 trajo muchas sorpresas. Apareció antes de lo esperado y su rotación era extremadamente veloz, su período de 0,5 milisegundos era de lejos el más corto que se conocía. Todavía los científicos encuentran entretenimiento en este objeto.

 Aunque la detección de púlsares en los remanentes de supernovas se ha hecho difícil y rara, hay un fenómeno más extendido que permite descubrir muchos de estos objetos: las fuentes compactas de rayos x. En 1971, a partir del lanzamiento del satélite astronómico Uhuru, se descubrieron fuentes galácticas emisoras de un fuerte flujo de rayos x. La fuente llamada Centauro x-3, por ejemplo, tiene una luminosidad en rayos x 10 veces mayor que la luminosidad total del Sol.

Se eclipsa cada 2,087 días, lo que demuestra que la fuente de rayos X está en movimiento orbital alrededor de un objeto más masivo. Esta fuente es parte de un sistema binario formado por la estrella de neutrones y una estrella gigante. La primera atrae el viento estelar de la segunda y convierte la energía gravitatoria del gas en rayos x.

Este tipo de púlsares binarios proveen una de las pruebas de la teoría de la relatividad que predice que un cuerpo masivo acelerado radiará energía en forma de ondas gravitatorias. La disipación de energía de esta forma causa el temblor de la órbita y en consecuencia una lenta disminución del período orbital del púlsar a lo largo del tiempo. Las predicciones teóricas de Einstein concuerdan muy bien con las observaciones del periodo orbital de PSR 1913+16, que está disminuyendo unos 76 milisegundo por año.

Fuente Consultada:Notas Celestes de Carmen Nuñez

Estrellas Explosivas Novas y Supernovas Muerte Estelar Evolucion

Estrellas explosivas: novas y supernovas

Cuenta la leyenda que Hiparco se decidió a confeccionar su catálogo cuan do apareció una estrella nueva en la constelación zodiacal de Escorpio. Su objetivo era construir un sistema de movimientos planetarios y es probable que la observación de los planetas noche tras noche lo llevara a memo rizar las posiciones de las estrellas más brillantes, especialmente las que se encontraban cercanas a la franja del zodíaco.

La filosofía aristotélica vigente en ese momento suponía al cielo perfecto e inalterable. Entonces es posible imaginarse el asombro del astrónomo griego ante la sorprendente aparición.  Algunos historiadores consideran que Hiparco observó en realidad un cometa y no una estrella nueva. Pero dado que en la actualidad se observan algunas decenas de novas por año por galaxia es llamativo que no se hubieran observado con anterioridad y que incluso con posterioridad a Hiparco (hasta 20 siglos después!) no se observara ninguna en occidente.

La siguiente observación de una nova en Europa fue realizada por Tycho Brahe en 1572. A él se debe el término nova (del latín, nova stella ) e indica la idea original sobre estos objetos: de repente aparecía una estrella donde previamente no se había observado. Para descubrir una nueva estrella hay que ser un experto observador del cielo, como hemos mencionado, durante siglos se les prestó muy poca atención a los componentes del paisaje celeste que no fueran los planetas, por lo tanto si la nova aparecía en una constelación lejana al zodíaco muy probablemente pasara inadvertida.

También hay que considerar la fuerza de la teoría aristotélica: cualquier cambio en los cielos inmutables era imposible. La información sobre cualquier cambio celeste podía convertirse en tm sacrilegio y es muy probable que quien lo observara no lo hiciera público para no arriesgarse a ser tratado de loco, ciego o mentiroso. Pero afortunadamente, durante el período que va de la época de Hiparco hasta el año 1500 los chinos observaron cuidadosamente el cielo y registraron todos los cambios detectados. En la época antigua y medieval reportaron la aparición de cinco estrellas brillantes (en los años 185, 393, 1006, 1054 y 1181). La de 1006 fue por lo menos 200 veces más brillante que Venus, de manera que ni siquiera los desinteresados europeos pudieron ignorarla

Luego de Tycho, el siguiente en observar una nova fue un astrónomo alemán, F. Fabricio en 1596, y en 1604 lo hizo Kepler. Todas estas observaciones coincidían en que aparecía una estrella muy brillante donde previamente no se había observado nada y este brillo disminuía lentamente hasta desaparecer.

En la actualidad sabemos que lo que antiguamente se llamaba nova corresponde en realidad a dos tipos de objetos: novas y supernovas. Al igual que las novas, las supernovas son estrellas eruptivas o explosivas, pero se distinguen de aquéllas en que la cantidad de energía liberada es mucho mayor y además, en el caso de las novas, sólo aparecen afectadas por la explosión las capas exteriores, mientras que la explosión de una supernova afecta toda la estrella. Aún las más luminosas como Nova Cygni 1975, brillan 1.000 veces menos que las supernovas.

Novas: Estas estrellas se clasifican en novas, que ganan más de 10 magnitudes en la explosión, y novas enanas, que sólo aumentan su brillo unas pocas magnitudes. Algunas han explotado sólo una vez desde que fueron observadas, pero se cree que son recurrentes cada 10.000 o 100.000 años. Las novas recurrentes, menos energéticas, experimentan explosiones cada 10 a 100 años.

La observación de varias post-novas a mediados de este siglo demostró que muchas de ellas son miembros de sistemas binarios super próximos en los que una de las estrellas es una enana blanca y la otra una estrella fría (por ejemplo una gigante roja). Cuando la estrella ínicialmente menos masiva comienza a expandirse para formar una gigante roja, etapa que se acelera al aumentar su masa con la que se desprende de su compañera, sus capas exteriores se acercan tanto a la enana blanca que parte de su envoltura queda atrapada en el campo gravitatorio de ésta, formando lo que se llama un disco de acreción.

Tal nombre se debe a que, debido a colisiones entre las partículas del disco, éste pierde energía y algunas partes caen sobre la enana blanca, que gana así cierta masa en un proceso llamado acreción. La gran gravedad superficial de la enana blanca comprime esta masa formada esencialmente de hidrógeno, y la calienta. La temperatura se hace tan alta que comienza la fusión de este hidrógeno, lo que calienta aún más la superficie y se inicia la fusión en el disco de acreción, produciéndose un enorme destello de luz, y las capas superiores del disco son arrojadas lejos de la influencia gravitatoria de la enana blanca. Este destello de luz es lo que vemos desde la Tierra en forma de nova y la parte del disco de acreción impulsada hacia el exterior es la nube de gas y polvo que se observa alrededor de la post-nova.

El proceso de fusión disminuye gradualmente, pero el ciclo recomienza porque la compañera de la enana blanca sigue perdiendo masa y esto reconstruye el disco de acreción. De esta forma el fenómeno de nova puede repetirse muchas veces antes de que la supergigante finalice su expansión y se transforme ella misma en enana blanca.

Por lo visto, las condiciones necesarias para la formación de una nova son entonces bastante especiales, y muy pocas estrellas de nuestra galaxia las satisfarán. El Sol, como hemos visto, se transformará en enana blanca. Pero como no tiene compañera no será una nova.

Supernovas:El fenómeno de supernova es una explosión fenomenal que involucra la mayor parte del material de una estrella y determina el fin de la evolución de ciertos objetos estelares. Se supone que la mayoría de las supernovas de nuestra galaxia son indetectables debido a la extinción causada por el polvo interestelar. Actualmente se cree que las observaciones chinas de 1054 y las de Tycho y Kepler se trataban de supernovas. La de Kepler, en 1604, fue la última detectada en nuestra galaxia.

Hay esencialmente dos tipos de supernovas: a) las tipo I resultan de la explosión de estrellas viejas, de masa relativamente pequeña y pobres en hidrógeno pero ricas en elementos pesados, tal como corresponde a una fase avanzada de evolución; su composición indica que se trata de enanas blancas. b) Las tipo II son explosiones de estrellas masivas, también al final de su evolución, pero en una fase menos terminal que las de tipo 1; son ricas en hidrógeno y presumiblemente están en la etapa de supergigante roja.

En su máximo de luz, el brillo producido por las supernovas aumenta unas 15 magnitudes; las tipo 1 son casi tres veces más luminosas que las tipo II. Luego el brillo disminuye unas 304 magnitudes durante los primeros días y durante varios meses decrece casi exponencialmente.

La energía liberada durante el corto tiempo de la explosión es equivalente a la que irradiará el Sol durante 9 mil millones de años (recordemos que la edad actual del Sol es de unos 4,5 mil millones de años) o a la explosión simultánea de 1028 bombas de hidrógeno de 10 metagones cada una y la materia expulsada, alrededor de 5 M0,puede alcanzar velocidades de 36 x 106 km/h. Las supernovas de tipo 1 pueden alcanzar una magnitud absoluta de -18,6, es decir 2.500 millones de veces la luminosidad del Sol o unas 100 veces más brillantes que la luz integrada de toda la galaxia. Según el tipo, la masa eyectada puede ser de 1 a 10 M0, lo que en algunos casos es la masa total de la estrella y, por lo tanto, no queda nada después de la explosión. A partir del descubrimiento de los púlsares (estrellas de neutrones de muy rápida rotación) en 1968, se sabe que después de la explosión puede quedar un objeto extremadamente denso. Este objeto, que es el núcleo de la estrella, está formado exclusivamente por neutrones.

Los mecanismos responsables de estas explosiones no se conocen todavía con certeza. La mayoría de las teorías consideran que la energía liberada por la explosión es principalmente de origen nuclear, en particular la fotodesintegración del Fe. Esta es la etapa final en la cadena de reacciones nucleares que ocurren durante la vida de las estrellas de unas 10 M0. Las estrellas con masas necesarias para terminar como supernovas de tipo 1 son por lo menos 10 veces más numerosas que las estrellas más masivas que dan origen a las supernovas tipo II. Por lo tanto sería razonable suponer que se observarán 10 veces más supernovas de tipo 1 que de tipo II. Sin embargo no es así: los dos tipos se observan con la misma frecuencia. Por lo tanto hay que concluir que no todas las estrellas de poca masa terminan como supernovas y en consecuencia, que se necesitan ciertas condiciones especiales para que este fenómeno ocurra.

La pre-supernova de tipo II tiene una estructura de cáscara como una cebolla. A medida que descendemos de la capa superficial de H se encuentran capas de elementos de mayor masa atómica. Estas capas son producto de las distintas fases de la nucleosíntesis que han ocurrido durante la vida de la estrella. Las reacciones que originan los elementos más pesados se ordenan de acuerdo a la temperatura. Los aumentos de temperatura ocurrieron alternándose con contracciones gravitatorias. El centro de la supergigante que explotará como supernova está compuesto por una mezcla de núcleos de Fe y otros núcleos con números atómicos entre 50 y 60. Estos son los elementos con mayor energía de ligadura. Por lo tanto no se puede extraer más energía de ellos. Cualquier cambio nuclear ulterior con estos elementos, tanto si es fusión para dar elementos más complicados como si es fisión para dar núcleos menos complicados, no liberará energía sino que la absorberá.

El núcleo estelar de hierro crece, luchando contra la contracción gravitatoria gracias a la presión de los electrones degenerados. Pero al describir las enanas blancas vimos que hay un limite para esto: cuando la masa del núcleo ha alcanzado el límite de Chandrasekhar (1,4 M0), la presión de los electrones no alcanza para evitar la contracción y la estrella colapsa. En ese momento, todos los productos del proceso de nucleosíntesis se han aniquilado, el gas está formado ahora por neutrones, protones y electrones libres.

Pero éstos últimos experimentan un gran aumento de energía al comprimirse, su energía se hace mayor que la necesaria para transformar un protón en neutrón y así son absorbidos por los protones. Privado de la componente más significativa de presión, el núcleo estelar colapsa a un ritmo acelerado. La distancia entre neutrones es ahora muy pequeña (del tamaño del núcleo atómico, -fermi) y la estrella se ha transformado en una estrella de neutrones. Desde el inicio del colapso se requieren sólo unos pocos minutos para alcanza este estado.

Al comenzar el colapso del núcleo, las capas exteriores de la estrella, donde están ocurriendo algunas reacciones nucleares, caen arrastra das por él. Los gases se comprimen rápidamente y aumentan su temperatura. La velocidad de las reacciones nucleares aumenta notablemente, la gran cantidad de energía producida origina inestabilidades y, finalmente, la explosión de las capas exteriores.

Las supernovas de tipo 1 son parte de un sistema binario formado por una supergigante roja y una enana blanca, como el que da origen a las no vas. Sin embargo en este caso la masa de alguna de las componentes o d ambas es mayor que en el caso de la nova. En esta situación, la enana blanca puede ganar más masa y superar el límite de Chandrasekhar. Entonces sufre un colapso y comprime muy fuertemente los núcleos de carbono y oxígeno en su interior, creando las condiciones para una fusión con tal liberación de energía que su resultado es una explosión de supernova. Probablemente éste fue el caso de las supernovas de Tycho y Kepler ya que en ninguno de los dos casos se ha detectado estrellas de neutrones en las posiciones correspondientes.

Incluso mucho tiempo después de la explosión las supernovas se revelar por sus efectos sobre el medio interestelar. El remanente joven de la supernova aparece como una gran burbuja que emite radiación en todo el espectro y se expande a una velocidad de 10.000 km/seg. A medida que lo hace empuja al gas interestelar y se va frenando. Después de unos cientos de años la cáscara se enfría y el remanente se desintegra en el medio circundante Los remanentes son antigüedades astronómicas muy valiosas, capaces d revelar información sobre la explosión, la evolución posterior y la estructura y composición del medio interestelar.

Las supernovas son uno de los contribuyentes más importantes a la evolución de la materia galáctica. No sólo transmiten al medio interestelar energía térmica y cinética sino que también la enriquecen con elementos pesados de la nucleosíntesis estelar. El interés por las supernovas de los astrónomos interesados en la evolución estelar y el medio interestelar ha aumentado notablemente, dado que se piensa que podrían ser el detonante del proceso de formación de nuevas estrellas.

La última observación de una explosión de supernova ocurrió en 1987 en la Gran Nube de Magallanes. Miles de investigadores renovaron su interés y en los últimos años se han realizado importantísimos avances en nuestra comprensión de estos fenómenos. Esta supernova ha proporcionado la posibilidad de realizar la medición de distancia más precisa que se haya hecho para un objeto fuera de nuestra galaxia. El remanente de SN 1987A (como se denomina) está a 1,60 x 105 años luz, con una certeza de ±5%. Un anillo hecho del material eyectado por el progenitor de la supernova en su fase de supergigante, ya rodeaba a la estrella unos 5.000 años antes de la explosión, pero sólo se hizo visible cuando se calentó hasta unos 20.000 0K como consecuencia de la misma. Si ese anillo fuera perpendicular a la línea de la visión, se hubiera iluminado todo a la vez. Sin embargo, como está inclinado unos 450 respecto de esta posición, distintas partes se encuentran a distancias diferentes de nosotros.

La parte más cercana pareció encenderse tres meses después de la explosión, mientras que la más lejana permaneció oscura cerca de un año más. Esta diferencia indica que el diámetro del anillo es de 1,3 x 1013 km. La medición del diámetro angular fue realizada por la estación orbital Hubble y es de 1,66 segundos de arco.

Esencialmente, toda la energía cinética del núcleo que colapsa se convierte en una onda de choque que, al encontrar las capas exteriores que están colapsando, las hace rebotar y cambiar de dirección. Este proceso se ve favorecido por la gran cantidad de neutrinos emitidos por la estrella de neutrones que se está creando.

La luz puede ser emitida sólo cuando la onda llega a la capa más externa. En SN 1987A, la onda de choque demoró dos horas en atravesar toda la estrella. Los pocos (pero muy preciados) neutrinos detectados poseían características acordes con las predicciones teóricas —sus cantidades, energías y el intervalo de tiempo en que llegaron a la Tierra—, lo cual aumenta la credibilidad en los modelos.

El 99% de la energía liberada llega de esta forma, en los neutrinos que pueden escapar de la estrella mucho más rápido que los fotones de luz. Estas observaciones permiten abrigar esperanzas de observar más eventos de supernova en la medida en que mejoren los detectores de neutrinos. Se estima que los mismos ocurren cada 10 o 100 años, especialmente en las regiones centrales de nuestra galaxia, pero permanecen ocultos por el material interestelar que opaca la luz.

Si las predicciones teóricas respecto de los neutrinos de supernovas son tan precisas, ¿por qué hay una discrepancia tan grande entre las observaciones y las predicciones respecto de los neutrinos solares? Tal vez, más observaciones de supernovas ayuden a resolver este problema.

FORMACIÓN DE LOS ELEMENTOS QUÍMICOS: El aumento de presión y temperatura, después de producirse los primeros colapsos de la estrella, posibilita la fusión de núcleos de helio para formar uno de carbono. La persistencia de estas condiciones hará que los átomos de carbono se fusionen con otros para constituir otros más complejos. Así, el carbono, al fusionarse con un núcleo de deuterio, forma uno de nitrógeno, y al hacerlo con un núcleo de helio, constituye uno de oxígeno. A través de reacciones similares se forma el resto de los elementos químicos, siendo necesarias condiciones más extremas: en general, cuanto mayor es el número atómico (Z), mayor presión y temperatura se requieren para la formación.

Ciertas características de la estructura interna de los núcleos de los elementos alteran la proporción que sería previsible: más abundantes los de menor número atómico. No obstante, en muchos casos, los átomos de los elementos químicos muy pesados se descomponen espontáneamente, modificando las proporciones que podrían calcularse.

¿Sabían que el átomo de carbono, debido a su mayor estabilidad, es el más abundante del Universo después del hidrógeno, el helio y el neón? La abundancia del carbono y su característica de generar otros elementos biogénicos son datos de gran importancia para entender la formación de moléculas orgánicas en el Universo y la aparición de vida sobre la Tierra. Es interesante, además, conocer que la abundancia relativa de hidrógeno, nitrógeno, oxígeno, carbono, fósforo y azufre es casi idéntica a la que se encuentra en la materia viva.

SUPERNOVAS INQUIETANTES
Al igual que los seres vivos, las estrellas nacen, viven y murieron Se forman a partir de una nube de gas, encienden sus hornos nucleares, irradian su luz durante millones de milenios y después se apagan colapsan y desaparecen. Una de las formas que tiene de morir es la supernova. Pero para llegar a ese final explosivo el astro tiene que tener por lo menos una masa equivalente a la de tres soles.

La supernova también ocurre cuando la estrella ha consumido casi todas sus fuentes de energía. Entonces dos fuerzas entran en una lucha crítica. La declinante fusión nuclear no puede ya compensar la fuerza de gravitación y esta hace que el astro comience a hundirse sobre sí mismo. Las capas exteriores se precipitan hacia el núcleo en un cataclismo gigantesco que origina un rápido sobrecalentamiento de la materia, proceso que culmina con la explosión que ya hemos descrito.

supernova

La supernova de la Galaxia del Cigarro, que se encuentra a alrededor de 12 millones de años luz de la Tierra

Las supernovas no son fenómenos frecuentes. En grandes sistemas estelares, como la Vía Láctea, se produce una cada siglo. Por esta razón, no son muchas las que el hombre ha podido presenciar en su brevísima existencia como especie.

En el año 1006 apareció una supernova en los cielos del hemisferio sur. En su apogeo brillaba tanto como el cuarto de luna y su luz proyectaba sombras sobre la Tierra. Fue visible durante dos semanas en pleno día, y durante dos años por la noche.

El 4 de julio de 1054, los astrónomos chinos registraron la aparición de una “estrella intrusa”. Su brillo era de tal magnitud que también resultaba visible de día. Pronto se transformó en uno de los objetos más notorios del firmamento, al que únicamente el sol y la luna superaban en brillo. Se dejó ver durante dos meses y después comenzó a apagarse paulatinamente hasta desaparecer por completo.

Cuando los astrónomos contemporáneos dirigieron sus telescopios hacia la región del cielo donde hace 900 años había aparecido la “estrella intrusa”, encontraron un extraño objeto al que se dio el nombre de Nebulosa del Cangrejo. Es una nube de gas en rápida expansión que sólo pudo originarse a partir de un estallido titánico. Los cálculos indican que nueve siglos atrás toda esa masa de gas debió haber estado comprimida en un volumen pequeño.

Se comprobó, de esa forma, que la mencionada nebulosa no era sino la supernova observada por los astrónomos chinos a comienzos de este milenio, que continúa explotando. El estallido ocurrió, en realidad 6 mil años antes de que su luz llegara a la Tierra y fuera percibida por los hombres.

La última supernova observada en la Vía Láctea fue registrada por el célebre astrónomo y matemático Johannes Kepler,en 1604, antes de la invención del telescopio. Desde entonces el hombre no había tenido ocasión de usar sus modernos instrumentos astronómicos para estudiar una supernova cercana.

Pero a comienzos de 1987, un científico canadiense descubrió desde el Observatorio de Las Campanas, en el norte de Chile, una supernova muy próxima a la Tierra, situada en la Gran Nube de Magallanes, que es una galaxia satélite de la nuestra.

Esta espectacular supernova, bautizada como Shelton 1987 A se hizo visible a simple vista. Ocurrió en realidad hace 170 mil años, es decir, antes de que en la Tierra se irguiera el hombre de Neandertal.

Así, por primera vez los astrónomos han podido seguir el curso evolutivo de una supernova con telescopios poderosos y modernos La supernova es desde luego un fenómeno inquietante. Es posible que el hombre llegue a auscultar las estrellas cercanas para determinar cuales de ellas amenazan con incurrir en esos estallidos catastróficos.

La teoría predice que a las elevadas temperaturas que alcanza el núcleo del astro que está por explotar, se producen, entre otras partículas, los fantasmales y casi inasibles neutrinos. Estos carecen de masa, se mueven a la velocidad de la luz, atraviesan la Tierra con la misma facilidad con que el agua pasa a través de un colador, y rara vez se detienen para interactuar con otras partículas.

El descubrimiento de Shelton 1987 A, ha ayudado a comprobar la teoría. Como resultado de esta supernova, la Tierra está recibiendo una lluvia de  neutrinos que se han captado en detectores especiales instalados en minas subterráneas, en los Estados Unido, Europa Japón y la Unión Soviética.

Cuando se perfeccionen estos detectores y se construyan incluso telescopios de neutrinos, el hombre estará en condiciones de escudriñar  en los núcleos de las estrellas que presenten gigantismo rojo I H acuerdo con las cantidades de neutrinos que éstas emitan será posible predecir con bastante exactitud y antelación cualquiera amenaza cercana de supernova que pudiera sumergir a la Tierra en un peligroso baño de radiación.

Fuente Consultada: Notas Celestes de Carmen Nuñez

Muerte de las Estrella Enanas Blancas Gigantes Rojas Vida y Evolucion

ESTRELLAS MORIBUNDAS: Enanas blancas

Cuando la estrella agota su combustible no tiene con qué luchar contra la contracción gravitatoria, por lo que entra en colapso y se convierte en enana blanca. Sin embargo, la compresión que puede sufrir la materia tiene un limite dado por el llamado principio de exclusión de Pauli.

Las altas densidades observadas en las enanas blancas son difíciles de encontrar en otros cuerpos celestes o en la Tierra. En verdad, la posibilidad de existencia de materia más densa que la observada en el sistema solar no fue considerada hasta que se desarrolló la mecánica cuántica. La comprensión de la naturaleza atómica de la materia permitió considerar la existencia de materia degenerada, mucho más concentrada que la materia ordinaria.

El Sol tiene una densidad promedio semejante a la del agua: cerca de 1 gr/cm3 y se comporta como un gas, con sus partículas moviéndose libremente. El H en su interior, a una temperatura de 15 millones de grados, está en su mayoría ionizado. Los electrones se han separado de sus núcleos y la alta temperatura reinante les impide acercarse a ellos.

Como consecuencia, 1 cm3 de materia solar ordinaria es esencialmente vacío. Los protones y electrones pueden moverse libremente casi sin chocar entre sí.

En una enana blanca en cambio, una masa como la del Sol puede estar comprimida en un volumen no mayor que el de la Tierra. La densidad asciende a 1.000 kg/cm3. Aun cuando la temperatura ha disminuido por debajo de la temperatura de ionización, los átomos permanecen disociados por la enorme presión de la gravedad.

Las fuerzas gravitatorias actuantes en un cuerpo celeste masivo pueden comprimir su materia hasta un estado de degeneración electrónica y no más, ya que el principio de exclusión impide a dos electrones ocupar el mismo nivel de energía. Este efecto cuántico se llama presión de degeneración electrónica y es el limite que impone la mecánica cuántica a la compresión de un gas de electrones. Esto es lo que ha sucedido en las enanas blancas. Su interior es “frío” (aunque la

 temperatura puede alcanzar hasta un millón de grados) en el sentido de que para mantener a la estrella en equilibrio, las fuerzas autogravítantes no están compensadas por movimientos térmicos como sucede en las estrellas de secuencia principal, sino por la presión ejercida por los electrones degenerados que llegan al limite de compresión. El interior de una enana blanca no está en estado gaseoso sino que es como mi cristal gigante que se enfría lentamente. Las partículas están superpuestas y ya casi no hay espacios vacíos entre ellas. Por lo tanto, su posición y velocidad están determinadas cuánticamente. El principio de exclusión impide que dos partículas ocupen el mismo estado de energía y mientras en un gas ordinario quedan niveles de energía libre (no ocupados por ninguna partícula), los electrones de un gas degenerado ocupan todas las posiciones cuánticamente admisibles.

Las enanas blancas se descubrieron en 1910, aunque entonces no se entendían. Su temperatura superficial es muy alta y su luminosidad anormalmente baja. Esto sólo podía explicarse si su radio era muy pequeño, comparable al radio de la Tierra (recordemos la ley de Stefan: L oc R2T4).

S. Chandrasekhar (nacido en 1910) fue quien elaboró la teoría de una esfera de gas degenerado y este trabajo le valió el Premio Nobel de Física de 1983. Contrariamente a lo que podría suponerse, cuanto más grande es la masa de una enana blanca, menor es su radio. Esto resulta de la necesidad de una presión del gas suficiente para balancear la presión gravitatoria. La masa y el tamaño de una enana blanca están fijos por la composición de la estrella. Los cálculos teóricos indican que si está compuesta esencialmente de H tendrá una masa máxima posible de 5,5 M0. Pero si contiene elementos más pesados llegará sólo a 1,4 M0. Estos valores se conocen como limites de Chartdrasekhar. Una estrella más masiva perdería masa o sufriría una catástrofe antes de transformarse en enana blanca.

Actualmente sólo se han identificado algunos cientos de enanas blancas. Como tienen baja luminosidad intrínseca, sólo pueden observarse aquellas cercanas al sistema solar. Los modelos indican que son la fase evolutiva final de las estrellas de poca masa y, en ese caso, el 10% de las estrellas de nuestra galaxia deberían ser enanas blancas.

Aunque la temperatura central de una enana blanca es menor al millón de grados (compárese con los 15 millones de grados del Sol) su atmósfera es, por lo general, más caliente que la de una estrella de secuencia principal. Los electrones degenerados juegan también un rol muy importante en la determinación de la estructura térmica de la estrella. Esta función es semejante a la de los electrones exteriores de los átomos en los metales ordinarios:

SU capacidad para moverse libremente es responsable de la capacidad de los metales para conducir calor eficientemente. De la misma forma, los electrones degenerados son excelentes conductores de calor en las enanas blancas. En consecuencia, estas estrellas tienen casi la misma temperatura en todo su volumen, son casi isotérmicas. Cerca de la superficie la presión es suficientemente baja y los electrones no están degenerados, entonces las propiedades de la materia son más normales. La temperatura superficial es de unos 10.000°K.

Los espectros de las enanas blancas presentan la sorprendente característica de tener líneas correspondientes a un único elemento. Cerca de 80% de las enanas blancas observadas muestran en sus espectros sólo líneas de absorción de hidrógeno; la mayoría de las restantes tiene sólo líneas de He. El ciclo de contracciones gravitatorias impuestas por su propia evolución, ha purificado las capas exteriores de las enanas blancas más allá de la estratificación observada en las estrellas normales. De la misma forma en que los espectros de las estrellas ordinarias se clasifican en B, A, E y G de acuerdo a su temperatura superficial, los de las enanas blancas se dividen en DB, DA, DF Y DG (D indica dwarf :en inglés enana), correspondientes a temperaturas de 100.000 a 4.000 0K. Las más calientes consumen energía a velocidades tan grandes y evolucionan tan rápidamente que esto nos da la posibilidad de observar a estas estrellas envejecer en el transcurso de unos pocos años.

La evolución de las enanas blancas se ha estudiado intensamente en los últimos años y el modelo aceptado actualmente postula que cerca de 10 millones de años después de su formación, la luminosidad de una enana blanca se ha debilitado hasta un décimo de la solar y su temperatura superficial ha disminuido hasta los 30.000 °K.

La teoría sugiere que a una enana blanca le lleva cerca de mil millones de años enfriarse hasta transformarse en una tibia esfera de gas degenerado. Los cálculos indican que en esta etapa la estrella sufre un último cambio importante: comienza a cristalizarse. A través de su evolución hasta este punto permaneció en estado gaseoso.

A medida que se enfría cada ion del gas comienza a sentir fuerzas eléctricas con sus vecinos, produciendo una fase líquida en la materia. Mientras estas fuerzas comienzan a dominar a mayores distancias, más y más núcleos se unen y forman un cristal. Dicho proceso se debe a la disminución de la temperatura, pero es ayudado por la alta presión que comprime a los núcleos.

Este cambio de estado tiene un efecto importante en las etapas finales de evolución de la estrella. Primero el cambio de liquido a sólido libera energía, pero una vez que se ha cristalizado una fracción importante de su interior, la enana blanca se enfría rápidamente. Como el tiempo necesario para que una enana blanca llegue a la etapa de cristalización se calcula semejante a la edad de nuestra galaxia, se puede estimar la época inicial de formación de estrellas en la Vía Láctea observando las enanas blancas más frías.

Fuente Consultada:Notas Celestes de Carmen Nuñez

Historia de la Estacion Espacial Internacional Objetivos Megaproyecto

UN POCO DE HISTORIA…
Las estaciones espaciales
El hombre ha tenido ya bastantes éxitos en el espacio: ha logrado dar vueltas en torno de la Tierra, ha conquistado la Luna y las sondas con que I legó a Marte y a Venus hablan de su inalterable empeño por proseguirlos. El gran instrumento con que cuenta es su taller en el espacio: las estaciones planetarias.

La construcción de estaciones espaciales habitadas por el hombre, importante etapa en los futuros viajes interplanetario, fue puesta en órbita. Tanto podía funcionar automáticamente como con dotación a bordo. El 23 del mismo mes, el Soyuz y así permaneció durante 5 horas 30 minutos, tiempo durante el cual se cumplió un programa completo de experimentos ecológicos y médico-biológicos que incluía también la producción del propio alimento. Transcurrido ese lapso, retornó a la Tierra.

El 30 de junio del mismo año, el Soyuz 11, tripulado por los cosmonautas Dobrolvski, Volkov y Patsaiev, acoplaron su nave al Salyut y pasaron a su interior, donde permanecieron durante más de tres semanas. Ya en la Tierra, el drama: al abrirse la cápsula, los tres cosmonautas estaban muertos.

El 14 de mayo de 1973, por medio de un impulsor Saturno V, los Estados Unidos pusieron en órbita el laboratorio espacial Skylab 1 no tripulado de 85 toneladas de peso. Averiado al minuto de su lanzamiento, al aumentar peligrosamente la temperatura inicial de la astronave los técnicos de la NASA se abocaron a la tarea de repararlo.

El día 25 del mismo mes y año, los astronautas Conrad, Kerwin y Wwitz, lanzados en una cápsula tipo Apolo, abordaron el Skylab 1 y sobre la parte averiada desplegaron una especie de parasol para hacer descender la temperatura del laboratorio.

Durante 28días los cosmonautas realizaron la mayoría de los experimentos previstos, referidos casi todos ellos a observaciones de la Tierra, el Sol y el espacio sidéreo. Cumplida la misión, retornaron a la Tierra en la cápsula Apolo, Los laboratorios orbitales son plataformas con capacidad para dar albergue a varios tripulantes durante un lapso relativamente largo, y están provistos de los elementos necesarios para el transporte de cosmonautas en viajes de ida y vuelta.

La segunda misión del programa se cumplió en la estación Skylab 3, en condiciones similares a la anterior, el 28 de julio de 1973. Los cosmonautas fueron Bean, Garriott y Lousma, quienes tras instalar un parasol adicional, recargar las cámaras de los telescopios y descubrir un detector de meteoritos junto a la pared de la estación, durante 59 días estudiaron la Tierra y la Luna, en especial las reacciones del organismo durante casi dos meses en un ambiente falto de gravedad. Después de una caminata espacial de 6 hs. 31′, que constituyó un nuevo récord, retornaron a la Tierra el 25 dé septiembre. Su estado físico era excelente.

LA ESTACIÓN ESPACIAL INTERNACIONAL: La exploración y la conquista del espacio es uno de los desafíos más grandes y excitantes emprendidos por el hombre, y la aventura más audaz en la historia de la exploración espacial es, sin duda alguna, la construcción de la Estación Espacial Internacional (ISS).

astronautaEn 1984, el gobierno estadounidense lanzó un programa para la construcción de una es espacial. Los enormes costes que suponían las de estudio y de planificación retrasaron la propia marcha del proyecto, que no adquirió forma hasta que finalizó la Guerra Fría. En 1993, Rusia decidió a aportar la experiencia que había  en la construcción —iniciada en el año 1986— de la estación espacial soviética MIR (paz).

En 1998 se inició  la construcción de la ISS. En primer lugar debían crearse las condiciones técnicas para asegurar una colaboración estrecha. En este sentido, la lanzadera estadounidense emprendió varios viajes a la  MIR y efectuó entre otras cosas, maniobras de acoplamiento. 

El 20 de noviembre de 1998 se instaló el primer componente de la ISS, un módulo de carga y de que se colocó a 350 Km. de distancia de la Tierra. Le siguió ese mismo año una pieza de empalme, que el 12 de julio de 2000 atracó el módulo ruso.

Desde noviembre de aquel mismo año hasta el abril de 2003, la ISS acogió varias tripulaciones internacionales formadas por tres astronautas.

Estos permanecen de cinco a siete meses en el espacio, transcurrido este tiempo, son relevados por nuevas dotaciones. Después de la catástrofe del Columbia ocurrida en 1º de febrero de 2003, la tripulación fija debió reducirse a dos personas por problemas de suministro.

Los estudios que se realizaran en la estación son los siguiente:
1-BIOLOGÍA:
– Respuesta fisiológica al vuelo espacial.
– Salud humana y rendimiento.
– Desarrollo de contramedidas a la microgravedad.
– Investigación general en Biología.

2-CONOCIMIENTO SOBRE LA TIERRA

3-MICROGRAVEDAD
– Ciencia de los Materiales.
– Física de Fluidos
– Ciencia de la Combustión
– Biotecnología
– Física fundamental.

4-CIENCIA ESPACIAL
– La estructura y la evolución del Universo
– Exploración del Sistema Solar
– Conexión Tierra-Sol
– Búsqueda de otros sistemas planetarios.

5-INGENIERÍA Y TECNOLOGÍA
– Sistemas de comunicación espaciales de uso comercial, con énfasis en la mejora de la tecnología de satélites para telefonía personal, y comunicación de vídeo y datos.
– Eficiencia en el uso de la energía, y calidad de agua y aire.
– Técnicas de construcción y funciones de mantenimiento automatizadas.

6-ESTUDIO DE NUEVOS PRODUCTOS

 INFORMACIÓN GENERAL DEL MEGA PROYECTO:

1. La Estación Espacial es la mayor dotación objeto jamás enviado al espacio. Se trata de un centro de investigación que mide 108 m. de largo y 80 m. de ancho. Su peso es de más de 450.000 kg.

2. Orbita a 400 km. sobre la tierra y se puede ver en el cielo nocturno a simple vista. Los científicos pueden estudiar la tierra y su entorno. Pueden ver los cambios que están ocurriendo en la tierra, en el mar, y con nuestro clima.

3. La ISS puede ser visto por la gente en la Tierra. Cuando se haya completado, la ISS será visible a más deL 90 por ciento de la población mundial y dará una vuelta a la Tierra cada 90 minutos.

4. Está siendo alimentada por energía solar. Esta energía es necesaria para alimentar los seis laboratorios y todo el espacio de vida a bordo.

5. La Estación Espacial Internacional fue diseñada y construido con la colaboración de 100.000 personas de 16 naciones desde 1998, y cientos de empresas. El proyecto se inició en 1998.

6. El costo de construir la Estación Espacial Internacional es correcto alrededor de 96 mil millones de dólares.

7. Los primeros miembros de la tripulación permanente, incluidos el astronauta estadounidense Bill Shepherd (que era también el comandante de la ISS) y los cosmonautas rusos Sergei Krikalev, como ingeniero de vuelo y Gidaenko Youri como comandante de la Soyuz. Esta expedición duró 140 días, 23 horas y 30 minutos en órbita.

8. Los vehículos espaciales viajan a la estación para traer y llevar científicos y suministros.

9. Los científicos están estudiando cómo los diferentes fluidos, metales y otros materiales  responden en el espacio sin el efecto de la gravedad. Estos estudios podrían ayudar a comprender mejor los virus, las proteínas y enzimas. Se espera que estos nuevos estudios guiarán algún día a los posibles nuevos tratamientos para muchas enfermedades, incluyendo cáncer. Los científicos también están tratando de lograr una medición más precisa que lo posible en la tierra, las formas más eficientes de producción de materiales, y una comprensión más completa del universo.

10. Alrededor de 160 paseos espaciales fueron necesarios para el montaje y mantenimiento de la Estación Espacial Internacional.

DATOS TÉCNICOS: 

* Inicio de las obras: 1998

* Envergadura: 108,6 m.

* Longitud: 79,9 m.

* Profundidad: 88 m.

*Volumen: 1.140m3

* Masa: 450 toneladas. aprox.

* Altitud de la órbita: Alrededor de 350-450 Km. sobre el nivel del mar.

* Inclinación de la órbita: 51,60 º

* Vuelta a la Tierra: Una cada 90 minutos.

* Velocidad relativa: 29.000 Km./h

* Potencia eléctrica: 110 Kw.

* Superficie de las placas solares: 4.500 m2

* Tripulación fija: 3 personas (2000-2003). 2 personas (desde abril 2003).

* Vuelos a la ISS: 28 (hasta julio de 2006).


Fuente Consultada:
MUNDORAMA – Astronáutica
Maravillas del Siglo XX
El Universo Enciclopedia de la Astronomía y el Espacio Tomo V

Ver: Historia de la Astronáutica

Galaxias Grupo Local Grupo de galaxias mas cercanas Estrellas Via Lactea

Galaxias: Grupo Local – Grupo de Galaxias

MÁS ALLÁ DE LA VÍA LÁCTEA Como ya hemos visto, nuestro sistema estelar presenta un diámetro de 100.000 años-luz y un espesor de 20.000 años-luz en su densa parte central. ¿Contiene la Galaxia la totalidad del universo, de las estrellas, gas y polvo que podemos observar?. La respuesta es “no”, puesto que los astrónomos han descubierto que nuestra Galaxia es sólo una entre muchos millones le galaxias.

Estas otras galaxias se extienden por el espacio en todas direcciones, hasta donde alcanza nuestra vista aun con la ayuda de los más potentes telescopios. Como la Galaxia, todas ellas contienen estrellas y, posiblemente, planetas, así como gas y polvo. No obstante, los únicos planetas que hasta ahora hemos observado han sido sólo los del sistema solar, pero esto no significa que el Sol sea la única estrella del universo que tenga MI sistema planetario.

Significa, exclusivamente, que nuestros telescopios no son aún lo suficiente potentes para detectar otros planetas, si es que en realidad existen. Las incontables galaxias que podemos observar están a tal distancia de nosotros, que aun el diámetro de 100.000 años luz de nuestra propia Galaxia empieza a palidecer por su insignificancia.

Las galaxias más cercanas son visibles sólo desde el hemisferio sur. Se conocen con el nombre de Nubes de Magallanes, así denominadas en recuerdo del gran navegante Fernando de Magallanes, que fue el primero en tomar nota de su existencia durante su viaje alrededor del mundo, hace más de 400 años. Las Nubes de Magallanes parecen trozos desgajados de la Vía Láctea; no obstante, se trata de dos galaxias independientes , a más de 150.000 años-luz de la nuestra. Y, sin embargo, las Nubes de Magallanes son vecinas muy próximas con respecto a la totalidad del universo.

Pertenecen al mismo cúmulo de galaxias que nuestro sistema estelar, al denominado “grupo local”. Este cúmulo contiene por lo menos 35 galaxias, o mas. La Galaxia parece estar situada a un extremo del cúmulo, y cerca del centro se encuentra la galaxia —aparte las Nubes de Magallanes— que puede verse sin telescopio.

GRUPO LOCAL
Grupo Local

“La Vía Láctea es parte de un barrio cósmico más grande –un grupo de más de 35 galaxias conocido como el Grupo Local. Estas galaxias se mueven por el espacio como una sola unidad, unidas por su mutua atracción gravitatoria. El número de galaxias que pertenecen al Grupo Local es incierto, debido a que los astrónomos siguen encontrando nuevos residentes de este barrio galáctico. Por ejemplo, una de las galaxias del Grupo Local fue descubierta en 1997, a unos tres millones de años luz de la Tierra. Esta nueva galaxia es diminuta: sólo contiene un millón de estrellas aproximadamente, comparado con los cientos de miles de millones de la Vía Láctea.”

Dicha galaxia aparece a simple vista una mancha luminosa, tenue y nebulosa, en la constelación de Andrómeda; pero al ser fotografiada mediante un gran telescopio aparece tan nítida, que pueden verse hasta algunas de sus estrellas individuales. Esta galaxia de Andrómeda está a casi dos millones de años-luz de nosotros. La luz que esta noche veremos proveniente de allí empezó su recorrido mucho antes de. que el hombre apareciera sobre la Tierra.

La totalidad del grupo local, que tiene una configuración muy ovalada, ocupa un volumen tan grande, que es difícil encontrar alguna comparación que nos permita imaginar su tamaño. No conocemos sus dimensiones con mucha exactitud, pero parece ser que se extiende sobre una superficie de por lo menos 4,5 millones de años-luz en longitud y la mitad en anchura. Su espesor es del orden de unos 600.000 años-luz.


Al utilizar telescopios para explorar aún más lejos en el espacio, más allá de nuestro grupo local, las distancias llegan a ser inimaginables. Otras galaxias y cúmulos de galaxias, alejados 50 millones y hasta 100 millones de años-luz, son bastante frecuentes. Los astrónomos saben ahora que las galaxias pueden observarse tan lejos como sus telescopios pueden profundizar. Con los más grandes y modernos, equipados con cámaras fotográficas, podemos estudiar galaxias situadas hasta 3.500 millones de años-luz de distancia.


Durante los últimos veinte años se ha introducido un nuevo método para “ver” aún más lejos en el espacio: el radiotelescopio. Estos instrumentos sólo son radiorreceptores muy sensibles con antenas especiales. Su objeto es el de recibir, no la luz, sino las ondas de radio emitidas por las estrellas y por el gas interestelar de nuestra propia Galaxia y de las demás galaxias.

Con los radiotelescopios los astrónomos pueden sondear en el espacio con mucha mayor profundidad que mediante los telescopios ópticos. Estos nuevos instrumentos ayudan al astrónomo a formarse una idea de la totalidad del universo, un universo al que no podemos encontrar límites en la actualidad.

Distancias a las estrellas Mas cercanas Tamaños y Medidas Estrellas

DISTANCIA A LAS ESTRELLAS Y SU TÉCNICA DE MEDICIÓN

LAS DISTANCIAS DE LAS ESTRELLAS En comparación con la inmensidad del espacio, el sistema solar es un pequeñísimo y compacto conjunto de cuerpos celestes. Pero acostumbrados a considerar las distancias de nuestro propio planeta, creemos que el sistema solar es enorme.

Ya no nos sorprende cuando nos damos cuenta de que la distancia de la Tierra al Sol es casi 4.000 veces mayor que la longitud del ecuador terrestre, y que la distancia desde el Sol hasta Plutón equivale a unas 150.000 vueltas alrededor de nuestro planeta. Tales distancias son tan grandes y desproporcionadas con relación a nuestra experiencia diaria, que sólo consiguen confundirnos cuando intentamos expresarlas en kilómetros. Y cuando hablamos de distancias aun mayores, los números en sí resultan demasiado grandes para comprenderlos con facilidad.

Galaxias y estrellas del universo

Por esta razón los astrónomos han tenido que buscar otra unidad de longitud para utilizarla en lugar del kilómetro. Y la más útil que se ha encontrado hasta el momento ha sido la velocidad de la luz, que se desplaza a 300.000 Km./seg, y recorre la distancia del Sol a la Tierra en poco menos de ocho minutos y medio, y del Sol a Plutón en cinco horas y media. Por ello decimos que el Sol está a ocho y medio minutos-luz de la Tierra, y que Plutón se encuentra a cinco y media horas-luz del Sol.

Puesto que la distancia del Sol a Plutón es sólo el radio de la circunferencia del sistema solar, debemos doblar dicha distancia para expresar su diámetro —11 horas-luz—. Pero como muchos cometas se alejan todavía más que la propia órbita de Plutón, podemos decir que la totalidad del sistema solar ocupa por lo menos un espacio de unas 12 horas-luz.

Puesto que un viaje alrededor de la Tierra sólo equivale a un octavo de segundo-luz, podemos darnos cuenta de la inmensidad del sistema solar según nuestros patrones terrestres.

Y, sin embargo, sólo se trata de un pequeño punto en el espacio sideral. La estrella más próxima al Sol está situada no a segundos, minutos y horas-luz del mismo, sino a una distancia de cuatro y medio años-luz. Cuando recordamos que en un año hay casi 9.000 horas, nos damos cuenta de que el diámetro del sistema solar es muy pequeño en comparación con la distancia que nos separa de la estrella más próxima. Si expresamos ambas distancias en kilómetros, obtendremos 12.000 millones de kilómetros para el sistema solar y 40 billones de kilómetros para la estrella más próxima (que es precisamente la alfa de la constelación del Centauro, o a Centauri, visible sólo para los habitantes del hemisferio sur).

Al considerar las distancias de otras estrellas vemos que cuatro y medio años-luz están sólo “a la vuelta de la esquina”. Por ejemplo, de entre las estrellas más brillantes que observamos en el cielo, Sirio está a 9 años-luz y Vega a 26, años-luz; y aun éstas son vecinas próximas. Arturo se encuentra a 36 años-luz, Capella 345 años-luz y Aldebarán a 68 años-luz y todavía no podemos considerarlas lejanas.

Sólo cuando hablamos de estrellas como la Espiga y Antares, a 220 y 520 años-luz, respectivamente, estamos tratando de estrellas realmente lejanas. Sin embargo, no hemos empezado siquiera a agotar la lista de las estrellas brillantes.

Rigel, de la constelación de Orion, se encuentra a 900 años-luz. Esto quiere decir que la luz que de ella nos llegó anoche empezó su viaje hace 900 años. El universo estelar es, por lo tanto, mucho mayor de lo que podemos imaginar cuando casualmente dirigimos nuestra mirada hacia el cielo nocturno. Hemos visto que los planetas constituyen un compacto grupo que sistemáticamente se mueve alrededor del Sol. ¿ Y qué ocurre con las estrellas? ¿Es posible encontrar cierto sistema u organización dentro de ellas? ¿Cómo se mueven, exactamente? ¿Hasta dónde se extienden en el espacio?

Preguntas de este género, que han intrigado a los astrónomos durante miles de años, sólo han podido contestarse a partir del siglo pasado. Desde luego, los hombres que vivían en cavernas se dieron cuenta de que las estrellas parecen conservar sus posiciones relativas. Este hecho permitió a los hombres primitivos agrupar las estrellas según configuraciones que les recordaban vagamente a los legendarios héroes y heroínas o a los animales salvajes que conocían.

Pero estos grupos, o constelaciones, sólo presentan tales aspectos al ser vistos por un observador terrestre. No se trata de grupos de estrellas que estén realmente cerca unas de otras en el espacio; tan sólo parecen estarlo. Cuando los astrónomos descubrieron que las estrellas también se mueven y aprendieron a medir las distancias estelares, empezaron a reconocer cierta organización en el sistema de las estrellas.

LAS DIEZ ESTRELLAS MAS CERCANAS

Próxima Centauri Distancia: 4,2 AL
Rigel Kentaurus Distancia: 4,3 AL
Estrella de Barnard Distancia: 5,9 AL
Wolf 359 Distancia: 7,7 AL
Lalande 21185 Distancia: 8,26 AL
Luyten 726-8A y B Distancia: 8,73 AL
Sirio A y B Distancia: 8,6 AL
Ross 154 Distancia: 9,693 AL
Ross 248 Distancia: 10,32 AL
Epsilon Eridani Distancia: 10,5 AL

LA MEDICIÓN DE LAS DISTANCIAS:

Cuando las estrellas cuyas distancias queremos medir son las más próximas, se emplea un recurso de la Trigonometría que se llama paralaje. Pongamos un ejemplo práctico. Si nos encontramos en un campo y vemos a mediana distancia un poste de telégrafo, al balancear nuestra cabeza podremos ver cómo el poste “se mueve” contra el fondo del horizonte, que está mucho más lejos. Desde luego que nos resultaría más fácil medir la distancia que nos separa utilizando una cinta de medición, pero ¿y si entre nosotros y el poste hubiese un río caudaloso?

En ese caso podríamos aplicar un artificio que consiste en medir el segmento aparente que se forma en el horizonte cuando, al movernos, el palo se traslada sobre él, medir la distancia real entre los dos puntos que marcan los extremos de nuestro movimiento y, finalmente, tomar los ángulos que quedan determinados ente el poste y nuestras dos posiciones sucesivas.

Esto es precisamente lo que hacen los astrónomos. Para ellos, con mover un poco el cuerpo, como hacíamos nosotros en el campo, no es suficiente, porque no hay punto de comparación entre las magnitudes de uno y otro ejemplo. Se pensó primero en trasladarse a dos puntos alejados de la Tierra y, desde allí, efectuar observaciones sincronizadas, es decir, en el mismo momento, pero también estas dimensiones resultaron escasas.

Finalmente, se pensó que lo ideal sería aprovechar que nuestro planeta se mueve en torno al Sol. De esta forma, se podría realizar una observación en enero, por ejemplo, y otra en julio (medio año después) con lo que el “balanceo” de nuestra prueba inicial pasaría a ser de unos 304 millones.de kilómetros (304.000.000.000 metros). ¡Ahora las cosas cambian! Bueno … no tanto. A pesar de esta “trampa”, la lejanía de las estrellas es tal que el ángulo determinado por las dos posiciones extremas de la Tierra y la más próxima de ellas es de 1 segundo y medio (o sea el ángulo que se forma entre los extremos de una llave de valija y un punto distante a seis kilómetros de ella).

De todos modos, podemos quedarnos tranquilos, porque este valor, por pequeño que sea, puede ser perfectamente captado con los instrumentos de precisión con que cuenta nuestra sociedad actual. Se han efectuado inclusive paralajes de estrellas cuyo ángulo es inferior a la décima de segundo. La distancia de las estrellas más lejanas es mucho más difícil de determinar, ya que en ellas no se puede aplicar el método de paralajes trigonométricos.

Pero, todo tiene solución. Partamos de la base que la luminosidad de los cuerpos celestes disminuye en la medida que se encuentren más lejos. Estoes fácilmente demostrable: mayor luz dará un farol que está al lado nuestro, que otro igual ubicado a una cuadra de distancia.

Lo que nos resta hacer ahora es ver cómo podemos aplicar esto en el espacio sideral. Empecemos por aclarar que las estrellas no son “faroles iguales”, lo que nos complica unpoco las cosas, ya que debemos averiguar no sólo su luminosidad absoluta, sino también la aparente.

Entendemos por absoluta, toda la luz que da; y aparente, sólo la que llega a nosotros.

La aparente se mide con facilidad por intermedio de placas fotosensibles. Para la absoluta, en cambio, las cosas se hacen un poco más complicadas. Es necesario que descompongamos la luz que nos mandan por medio de un prisma. Obtendremos así un espectro, que no es otra cosa que la luz distribuida de acuerdo con sus colores componentes en una escala que va de! ultravioleta al infrarrojo. De este gráfico se puede inferir la luminosidad absoluta de un cuerpo a partir de su temperatura intrínseca.

Después -ya obtenidos los datos de luminosidad absoluta y relativa- no queda otra cosa que aplicar fórmulas constantes que nos dan la distancia desde la Tierra hasta la estrella.

 

esquema del paralaje de una estrella

esquema del paralaje de una estrella

Fuente Consultada:
Secretos del Cosmos Tomo 2 (Salvat)
Enciclopedia Ciencia Joven -Distancia a las Estrellas  – Fasc. N°12 Editorial Cuántica

Proyecto Manhattan Creacion Bomba Atomica Nuclear de Nagasaki

Proyecto Manhattan
Creación Bomba Atomica Nuclear

ANTECEDENTES DE LA ÉPOCA: Al iniciar Hitler la campaña contra Rusia todos se equivocaron respecto al evaluar el resultado final, jamás nadie pensó que este atrasado país pudiera salir triunfante ante semejante avance de la maquinaria bélica alemana. Al mismo tiempo que satisfacía contar con un aliado inopinadamente poderoso en la lucha contra la “voracidad” de Hitler, surgía el temor de lo que supondría una Unión Soviética victoriosa. También este temor fue muy pronto voceado.

Entretanto, Albert Einstein, refugiado en Estados Unidos, había ya señalado a Roosevelt la posibilidad de que los físicos alemanes crearan armas devastadoras basadas en la desintegración del átomo y se había referido a la conveniencia de adelantarse a ellos en este terreno. Fue esta advertencia el origen del proyecto de donde iba a surgir la bomba atómica, del Proyecto Manhattan, a cuyo frente, en setiembre de 1942, se puso al general Lesiie Graves.

Y este mismo genera! Graves, en las audiencias que se celebraron en 1954, cuando el maccarthysmo y la “guerra fría” lo dominaban todo, para juzgar la conducta de! eminente físico norteamericano  Robert Oppenheimer —quien finalmente seria arrinconado como un “riesgo para la seguridad” de Estados Unidos—, prestó el siguiente testimonio: “Creo que es importante declarar —aunque lo estimo bien sabido— que, en ningún momento a partir de unas dos semanas desde que me hice cargo del proyecto, me hice la menor ilusión y que, al contrario,  en Rusia al enemigo y orienté el proyecto sobre esta base. No estaba de acuerdo con la actitud de todo el país de que Rusia era un valiente aliado. Siempre tuvo sospechas y dirigí sobre esta base el proyecto”.

Esto se pensaba en setiembre de 1942, cuando estaba en pleno desarrollo la terrible batalla de Stalingrado! En agosto de 1945, desde luego, eran ya muchas las mentalidades de tipo Groves en las altas esferas civiles y militares de Estados Unidos. Incluida, según todas las apariencias, la del mismo Truman. A quien correspondió la atroz decisión de destruir sin aviso previo las ciudades de Hiroshima y Nagasaki con las dos únicas bombas “A” entonces disponibles.

EL PROYECTO MANHATTAN: El lanzamiento de las dos bombas atómicas sobre Japón en agosto de 1945 dará lugar a una larga controversia ¿La decisión norteamericana de aniquilar las ciudades de Hiroshima y Nagasaki respondía a un objetivo exclusivamente militar o tenía también aspectos políticos y diplomáticos? Para algunos investigadores se podía alcanzar la rendición japonesa por medio de un bloqueo extremo o por medio de la vía diplomática.

La conducta fanática de los aviadores suicidas japoneses era más bien una manifestación de debilidad e impotencia de la resistencia frente a la superioridad de recursos de los Estados Unidos …los submarinos norteamericanos habían cortado los abastecimientos y en marzo de 1945 un raid aéreo sobre Tokio demostró eficazmente esta superioridad norteamericana.

El punto de inicio del plan  fueron las positivas experiencias que había realizado Enrico Fermi y su equipo. El físico italiano estaba contratado por la Universidad de Chicago, lugar en que continuó con los ensayos sobre la reacción en cadena. Ahora tenía a su favor, luego del descubrimiento del Neptunio y el Plutonio -llamados así por ser los planetas que siguen a Urano en el Sistema Solar- el que a partir del Uranio 235 o del mismo Plutonio, era posible fabricar la bomba.

 Así también, y luego de meses de estudio, se llegó a determinar que con el grafito era posible reemplazar el efecto “amortiguador” que sobre los neutrones en proceso de bombardeo constituía el “agua pesada”. El problema era que tanto el uranio como el grafito se necesitaban por toneladas, con el objeto de purificarlos y llegar a obtener una pila atómica, etapa previa a la bomba, pues era la que debía almacenar la energía obtenida, para posteriormente colocarla en el artefacto que haría explosión.

El 2 de diciembre de 1942, la humanidad vivió, sin saberlo en ese momento, un minuto cumbre en su historia, al producirse masivamente la primera reacción atómica en cadena, lo que se logró en una construcción de dimensiones no mayores a los cuatro metros cuadrados, hecha con ladrillos de grafito y uranio. Fueron 17 minutos los que estuvo en actividad esa primera vez, liberando miles de millones de neutrones por segundo, tormenta nuclear que, de no haberse seguido las más estrictas medidas de seguridad y ante el menor error, pudo haber volado un amplio sector de la ciudad.

La pila definitiva, de nueve metros de largo por seis de alto, fue terminada a fines del mismo mes. Estaba constituida por más de cuarenta mil ladrillos de grafito, dentro de los cuales se ponía el uranio en forma metálica en los bloques que conformaban el interior y en estado de óxido hacia el exterior.

La tarea fue coronada por el éxito, al tenerse absolutamente controlada la extraordinaria reacción que se produjo. En el intertanto, ya se había determinado el lugar en que se fabricaría la bomba atómica. El sitio elegido fue Los Álamos, un desolado paraje al interior del estado de Nuevo México, y la dirección científica se entregó a Julius Robert Oppenheimer, un físico norteamericano que contaba con 38 años de edad.

“Oppy”, como se le llamaba familiarmente, era un superdotado. Su título de físico lo había obtenido en menos tiempo del determinado por la Universidad de Harvard, doctorándose más tarde en la misma Harvard y en la cátedra de filosofía en las universidades de Gotten-borg y Zurich. Desde niño había demostrado sus brillantes cualidades, como que cuando tenía 12 años leía a Virgilio, a Julio César y a Horacio ¡en latín! y escribía poemas en francés, demostrando una especial aptitud para aprender idiomas, de los que llegó a dominar nueve, incluido el esperanto.

Muchos años después, en 1959, Oppenheimer, a raíz de la obtención en 1949 de la bomba de hidrógeno por parte de la Unión Soviética -proceso en el que se sostuvo que habían tenido participación científicos estadounidenses, mediante la entrega de información secreta- fue destituido de todos sus cargos, poniéndose en duda hasta su condición de patriota. En 1963, el Presidente Lyndon Johnson lo rehabilitaría, al concederle el Premio Enrico Fermi.

Una caravana interminable de científicos, técnicos, auxiliares y personal de seguridad, comenzó a llegar, en marzo de 1943. a Los Alamos. Los hombres de ciencia más insignes del hemisferio occidental, con la excepción de Einstein, vivieron durante dos años en los barracones de lo que anteriormente había sido una escuela.

La actividad que allí se desarrollaba era extenuante. A las siete de la mañana un toque de sirena señalaba el comienzo de la jornada, la que se interrumpía por una hora al mediodía, y continuaba hasta que se apagaban las luces en los laboratorios de ensayo, habitualmente después de doce o catorce horas de labor. Los resultados que iban obteniendo los diferentes equipos eran llevados a Oppenheimer, quien los confrontaba en compañía del General Leslie Groves, responsable administrativo y de la seguridad del Proyecto. Los equipos de investigadores sólo sabían de sus propias experiencias, en una medida destinada a preservar el secreto de los avances globales.

El F.B.I. tenía instalado un servicio de contraespionaje que controlaba cada paso que daban los científicos y la correspondencia estaba bajo censura. Las llamadas telefónicas eran escuchadas por un agente y grabadas para su revisión posterior. Nadie podía aventurarse fuera del campamento sin autorización, ni menos alguien extraño ingresar a las instalaciones.

Se pensaba, no sin razón, que todo estaba absolutamente vigilado. No obstante, pese a todas las precauciones, sólo en 1950 se descubrió una filtración. El físico Klaus Fuchs, varias veces, había tomado contacto con el espía pro soviético Harry Gold, a quien le había pasado información ultra secreta. El juicio a que dio lugar esta traición, involucró al propio Oppenheimer, como vimos anteriormente.

El número de los habitantes de la ex-escuela creció hasta convertirla en un poblado y luego en una pequeña ciudad. Los sesenta iniciales llegaron a dos mil a mediados de año, subiendo a tres mil quinientos al finalizar diciembre. En 1944 la cantidad llegó a 6.000 y, como era obvio, las universidades norteamericanas se vieron despobladas. Todos las mentes científicas de los Estados Unidos estaban trabajando en el proyecto “Manhattan”.

En julio de 1945, el General Groves informó al alto mando del ejército que se tenía lista una bomba, y en sus últimos detalles otras dos, por lo que recibió la autorización para someterla a prueba, la que fue fijada para la madrugada del día 16.

Una caravana de camiones enfiló hacia el desierto. En uno de ellos era transportado el artefacto. Los vehículos se detuvieron luego de recorrer 320 kilómetros, en un sitio conocido como Alamogordo. Los ingenieros montaron una torre metálica de seis metros de altura, donde fue colgada la bomba. Los puestos de observación y control se habían colocado a diez, quince y veinte kilómetros del punto cero.

La cuenta regresiva comenzó. Eran dos años de ardua y constante investigación, pero no todos estaban tranquilos. Temían que algún imponderable pudiera derivarse, con consecuencias imprevisibles.

A las 05,29 horas del 16 de julio explosionó. Ninguno de los observadores, de acuerdo a las instrucciones recibidas, miró directamente, pese a que se encontraban con anteojos oscuros. Pasados un par de segundos, los más audaces se atrevieron. Un globo crepitante de fuego ascendía, como si quisiera tragarse el cielo.

El testimonio del periodista William Laurence, destacado por The New York Times, bajo juramento de no revelar el secreto, es sobre-cogedor: “Fue como el gran final de una poderosa sinfonía de los elementos: fascinante y aterradora. Amenazadora, devastadora, plena de grandes promesas y grandes amenazas. En aquel momento comprendimos la eternidad. El tiempo se detuvo. Fue como si la tierra se hubiese abierto y el cielo se hubiera desgarrado.”

El presidente Harry Truman (imagen) justificó el empleo de la mortífera nueva arma como un medio de acortar la guerra y reducir las bajas. El arma nuclear fue desarrollada únicamente para ganar la guerra y con este propósito sumó la terrible resolución de utilizarla. Pero otros investigadores han señalado que tal demostración de poderío norteamericano no era necesario derrotar al Japón.

La “diplomacia atómica” de Truman perseguía la evidente finalidad de intimidar a Stalin aumentar su poder de negociación en los acuerdos de paz de postguerra en relación a la Unión Soviética. Con la bomba atómica, Estados Unidos restaba importancia a la intervención soviética contra Japón.

Litley Boy Lanzada sobre Hiroshima el 6-08-1945
Litley Boy Lanzada sobre Hiroshima el 9-08-1945

Se temía el avance soviético en Manchuria, Corea y otros territorios ocupados por los japoneses durante la guerra. De hecho, Japón estaba negociando la mediación de la U.R.S.S. La “extorsión atómica” tuvo como fin frenar las ambiciones o exigencias post-bélicas soviéticas. Además Estados Unidos tenía que justificar la costosa inversión que significó el desarrollo del Proyecto Manhattan (nombre que recibió el plan secreto de investigación y construcción de la primera bomba, del que participaron físicos, científicos, técnicos y militares, que en la mayoría de los casos ignoraban la finalidad de sus trabajos) y medir los resultados del arma atómica.

El 15 de Agosto de 1945, seis días después del bombardeo de Nagasaki, Japón se rendía de forma incondicional. El anuncio del fin de la guerra lo hizo el propio emperador a través de la radio; era la primera vez en la historia que los japoneses oían la voz de su emperador. Con ese comunicado, el emperador renunciaba a su condición de divinidad.

ALGO MAS…

Por el bando de los aliados, fue realmente una carta la que dio el punto de partida a las experiencias para obtener una bomba atómica. Albert Einstein, -el eminente sabio alemán que había recibido la ciudadanía norteamericana, al llegar a Estados Unidos en 1939, luego de alejarse de Europa al hacerse firme en su patria el régimen nacista-escribió las siguientes impresiones al Presidente Franklin Delano Roosevelt; “El Uranio puede ser utilizado en un futuro próximo como una fuente nueva e importantísima de energía”.

Le detallaba a continuación las experiencias que estaba realizando Enrico Fermi, quien había emigrado a Norteamérica en 1938, luego de recibir ese mismo año el Premio Nobel de Física, y le exponía a la vez los temores que lo embargaban, pues tenía conocimiento de que los alemanes, al parecer, también estaban desarrollando proyectos apuntados a la obtención de un arma nuclear. Einstein concluía su carta así: “La bomba atómica que podría ser fabricada y transportada por un buque a un puerto enemigo, no sólo destruiría ese puerto, sino además devastaría todos los terrenos adyacentes”.

La misiva le fue entregada personalmente a Roosevelt, por el economista Alexander Sachs, en octubre de 1939, expresándole :

-Señor Presidente, en esta carta hay algunas ideas que pueden cambiar el destino del mundo.

El mandatario estadounidense comprendió la trascendencia de lo que le manifestaba Einstein, y ordenó se le propusiera un plan de acción para materializar la fabricación de la bomba, plan que fue llamado “Proyecto Manhattan”.
La carrera tuvo una fecha de inicio casi simultánea en el III Reich, pero allí tuvo diferentes obstáculos que frenaron su desarrollo, no pudiendo, afortunadamente, llegar a tiempo a la meta.

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la Luna

Efecto de la Luna Sobre La Tierra

La Luna gira alrededor de la tierra a una distancia media de unos 384.400 km. Su diámetro es de 3.475 Km., aproximadamente una cuarta parte del de la tierra, con una superficie de unos 38 millones de km2, y su masa es 1/81 la de la tierra; esto provoca que la fuerza de la gravedad en su superficie sea la sexta parte de la terrestre (un hombre que en la tierra pesara 60 kilogramos en la luna sólo pesaría 10 kg.).  La consecuencia más directa de esta poca gravedad es la falta de atmósfera.

¿Por qué se forman las mareas en el mar?

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la LunaConforme la Luna gira en torno a la Tierra su fuerza gravitacional ejerce atracción sobre el continente y océanos. Al mismo tiempo la gravedad de la Tierra controla a la Luna y evita que se salga de su órbita.

La atracción de la Luna mueve montaña y levanta una pequeña pero perceptible marea en la corteza terrestre. Además, atrae los mares y océanos, elevando varios metros el nivel del agua en algunos lugares. Este efecto es similar al de una aspiradora que pasa sobre un tapete y crea un abultamiento.

La fuerza que ejerce la Luna causa un crecimiento de la marea que eleva el nivel de los océanos. Conforme gira la Tierra y nuevas zonas quedan bajo la influencia lunar, la pleamar se mueve con lentitud, creando olas altas en una región y bajas en otra. La bajamar se presenta en una cuarta parte de la circunferencia terrestre por delante del paso de la Luna y a la misma distancia por detrás, siempre y cuando haya océanos.

La órbita de la Luna en torno a la Tierra es afectada por gran variedad de factores y al igual que las mareas depende del contorno del océano. Por ejemplo, el mar Mediterráneo, prácticamente rodeado por tierra, casi no presenta mareas, y el Golfo de México sólo una pleamar al día.

Resulta extraño que un crecimiento de la marea se presente a unos 13.000 Km. de distancia al otro extremo de la Tierra. La influencia gravitacional de la Luna allí es casi 7% menor que en el lado más próximo, pero la fuerza centrífuga de la Tierra empuja los océanos hacia afuera. Esto provoca la pleamar y la bajamar en esa parte del mundo. De no suceder así, habría sólo una gran pleamar y una bajamar en cada rotación terrestre. Pero, como usted puede constatar si se encuentra cerca del mar, el tiempo entre mareas es de unas seis horas, y hay dos de cada una al día.

Aun sin la influencia de la Luna, nuestros océanos y mares tendrían mareas, aunque menos vivas. La atracción gravitacional del Sol influye también sobre la Tierra. Esta fuerza, mucho más fuerte en su origen que la que ejerce la Luna, influye menos debido a la distancia que nos separa del Sol.

Las mareas causadas por el Sol pueden reforzar o debilitar las que son creadas por la acción de la Luna. Cuando el Sol y la Luna están alineados —durante la luna llena o luna nueva— sus fuerzas gravitacionales actúan en conjunto creando una atracción mucho más fuerte que causa mareas más altas. Las llamamos mareas de primavera, aunque no se limitan a esa estación. Cuando el Sol y la Luna guardan un ángulo recto respecto a la Tierra, en los cuartos menguante y creciente, la atracción del Sol influye en lo que se conoce como mareas muertas.

Fuente Consultada:
El Mundo de los Porque?… Readers Digest
Notas Celestes de Carmen Nuñez

Primera Caminata Espacial Historia Exploracion Espacial Ed White

Primera Caminata Espacial
Historia Exploración Espacial

Edward White, nació en San Antonio, Texas  el 14 de noviembre de 1930, y fue criado con grandes cualidades humanas, como la solidaridad, la autodisciplina y perseverancia, que las supo aplicar en toda su carrera profesional y también en su vida personal.

Su padre era un graduado de West Point que sirvió en la Fuerza Aérea de Estados Unidos, y fue quien ayudo a Ed a dar los primeros pasos en su carrera como piloto aeronáutico. Ed siempre recordó su primer vuelo con su padre, quien le permitió hacerse cargo de los controles de la nave, y en donde se sentía muy cómodo y le parecía hacer la cosa mas natural del mundo, según sus palabras.

Se hizo conocido como un pionero de la aeronáutica, comenzando su carrera militar al volar globos del ejército y antes de convertirse en astronauta era piloto de prueba de la Fuerza Aérea. Ha registrado más de 3 000 horas de vuelo.

Como astronauta registró más de 96 horas en el espacio a bordo de un único vuelo espacial. En 1965 se convirtió en el primer astronauta americano en caminar por el espacio. White flotó por 22 minutos, fuera de la nave espacial Gemini 4.

Ed White fue el primer estadounidense en dar un paseo por el espacio. Lo hizo en junio de 1965, tres meses después que Leonov. White sería uno de los tres astronautas que murieron en las pruebas de vuelo previas al lanzamiento del Apollo 1, en enero de 1967. En 1967 falleció en un incendio durante las pruebas de la nave espacial Apollo 1

Fidel Castro el Revolucionario Cubano Revolucion Cubana Che Guevara

Castro, Fidel (1927- ), político cubano, principal dirigente de Cuba desde 1959. Castro nació el 13 de agosto de 1927 en Mayarí; era hijo natural de un inmigrante español, plantador de azúcar. Se afilió al Partido del Pueblo Cubano en 1947, y se doctoró en leyes por la Universidad de La Habana en 1950.

 Después de que Fulgencio Batista se hiciera con el control del gobierno cubano en 1952 y estableciera una dictadura en el país, Castro se convirtió en el líder del grupo Movimiento, facción antigubernamental clandestina cuyas acciones culminaron con el asalto al cuartel de Moncada (en Santiago) el día 26 de junio de 1953, hecho por el cual fue encarcelado. En el juicio se hizo cargo de su propia defensa, cuyo alegato se convirtió en un discurso (La historia me absolverá), que más tarde se convertiría en una importante consigna política para los revolucionarios.

Condenado a 15 años de prisión, fue amnistiado en 1955, y se exilió sucesivamente en Estados Unidos y México, donde fundó el Movimiento 26 de Julio. En 1956 regresó a Cuba con una fuerza de 82 hombres, de los cuales 70 murieron en combate nada más al desembarcar. Castro, su hermano Raúl y Ernesto Che Guevara, se encontraban entre los 12 supervivientes.

El Movimiento 26 de Julio fue ganando apoyo popular, principalmente en los ámbitos estudiantiles (Directorio 13 de Marzo), y en diciembre de 1958, con respaldo del Partido Popular Socialista, avanzó hacia La Habana, acto que pondría colofón a la Revolución Cubana. Castro se declaró a sí mismo primer ministro en febrero de 1959, cargo que ostentó hasta 1976, en que asumió la presidencia del Consejo de Estado, que según la reforma constitucional de ese año englobaba la jefatura del Estado y del gobierno.

Fracasado su intento de establecer relaciones diplomáticas o comerciales con Estados Unidos, negoció acuerdos sobre armamento, créditos y alimentos con la Unión de Repúblicas Socialistas Soviéticas (URSS), y llevó a cabo la depuración de sus rivales políticos. Nacionalizó los recursos cubanos, afrontó una profunda reforma agraria basada en la colectivización de propiedades y estableció un Estado socialista de partido único (el Partido Unido de la Revolución Socialista, que en 1965 pasaría a denominarse Partido Comunista Cubano y cuya secretaría general asumiría Castro), que llevó a un gran número de cubanos ricos al exilio.

Estados Unidos vio con disgusto cómo el nuevo régimen embargaba las empresas de titularidad estadounidense, y en 1960 anuló los acuerdos comerciales que mantenía, a lo que Castro respondió con la primera Declaración de La Habana, reafirmando la soberanía cubana frente al imperialismo estadounidense. En 1961 Estados Unidos respaldó a un grupo de exiliados cubanos, en un infructuoso intento por derrocarlo, en el conocido como desembarco de bahía de Cochinos.
Desde ese momento Castro se alineó abiertamente con la URSS, dependiendo cada vez más de su ayuda económica y militar. En 1962 estuvo a punto de producirse una guerra nuclear, cuando la URSS situó en Cuba cabezas nucleares de alcance medio, ante la oposición estadounidense.

La llamada crisis de los misiles de Cuba concluyó tras la celebración de negociaciones entre el presidente estadounidense, John Fitzgerald Kennedy, y el máximo dirigente soviético, Nikita Kruschov.

Durante las siguientes décadas, Castro alcanzó gran reconocimiento en el Tercer Mundo, gracias a su liderazgo del Movimiento de Países No Alineados (que presidió entre 1979 y 1981). A finales de la década de 1980, cuando la URSS inició sus procesos de glasnost (apertura) y perestroika (reestructuración), Castro mantuvo su régimen.

Sin embargo, con el inicio del proceso de desintegración de la URSS y del COMECON (Consejo de Ayuda Mutua Económica) en 1990, los problemas económicos de Cuba empeoraron. En 1993, en un intento por alcanzar una economía mixta, Castro aprobó reformas económicas limitadas que legalizaron algunas empresas privadas.

Si por algo ha sobresalido Cuba en los últimos años es por subsistir a la enorme presión internacional, anticomunista y a favor de una clara democracia. El régimen cubano, junto al gobierno de China, Corea del Norte y Vietnam, son los únicos ejemplos de comunismo vivos en el mundo de hoy. Fidel Castro ha seguido siempre fiel a sus ideas y ha tachado más de una vez al sistema capitalista de otros países de hipócritas y extorsionadores. También ha declarado reiteradamente que en Cuba sí que existe una democracia aunque esta siga un modelo distinto al convencional.

 

La sociedad cubana está permanece en completo silencio político, ya que cualquier disidente es encarcelado por el gobierno de Castro. Entre este problema de libertad de expresión y pensamiento, otro de los mayores problemas de la sociedad cubana de los últimos años, y que ha sido noticia gracias a la aventura internacional del pequeño niño balsero Elián González, es el problema de la emigración de cubanos anticastristas a las costas de Florida, propiciada por leyes como la llamada ley de Ajuste Cubano que permite a todo emigrante cubano recibir derecho de residencia en estados unidos siempre que alcance tierra estadounidense.

Medidas como estas aumentaron el alcance del éxodo de familias cubanas a Estados Unidos de manera precaria e ilegal. Dando lugar a mayores discusiones entre los gobiernos de ambos países, y altercados fomentados por la oposición al régimen tanto de dentro como de fuera de la isla los cuales son descritos por castro como instrumentos de la política estadounidense contra el pueblo cubano.

Con respecto a su sucesión presidencial, hoy a casi 80 años de edad cuando se le pregunta por este tema el responde así: “Cuando un carácter rebelde me llevó al arriesgado oficio de luchador revolucionario que nadie me impuso, sabía también que era poco probable que sobreviviera mucho tiempo. No era Jefe de Estado y sí un hombre muy común. No heredé cargo alguno ni soy Rey, no necesito por tanto preparar sucesor, (…) nunca sería para evitar el trauma de una transición caótica. (…) La transición de un sistema social a otro se viene haciendo desde hace más de cuarenta años.”

ALGO MAS SOBRE FIDEL CASTRO:

Opositor acérrimo a la hegemonía de Estados Unidos en el continente americano, Fidel Castro impulsó y financió muchos movimientos revolucionarios, por su Cuba natal.

LA LUCHA CONTRA LA DICTADURA DE BATISTA
Desde el comienzo, Fidel Castro fue un abierto opositor a Batista, al punto que abandonó su trabajo y formó un grupo clandestino de resistencia junto con su hermano Raúl y Mario Chanes. Unidos complotaron para derrocar a Batista, acumulando armas y municiones para iniciar una revuelta popular, comenzando por í asalto al Cuartel Moneada el 26 de julio de 1953. Sin embargo, la intentona fue un desastre y cerca de 35 de los partidarios de Castro murieron en la incursión. Perseguido como enemigo del Estado, fue capturado por la policía y sometido a juicio por sedición.

Haciendo gala de su oratoria y sus conocimientos jurídicos, Castro articuló su propia defensa ante el tribunal y antes de concluí; sus argumentos dijo: «¡Les advierto cu; recién estoy empezando! Si todavía existe en sus corazones un vestigio de amor a la patria, amor por la humanidad, amor por la justicia, escuchen atentamente… Sé bien que el actual régimen intentará esconder la verdad de todas las maneras posibles (…), pero mi voz no ha sido acallada todavía. Condénenme. No importa. La historia me absolverá». Estas frases pasarían a la posteridad y ayudarían a construir la leyenda de Fidel como un rebelde comprometido con la libertad de su país. Sin embargo, el tribunal lo condenó a quince años de prisión en la penitenciaría de la Isla de Pinos, cercana a la costa sudoccidental de Cuba.

BAHÍA DE COCHINOS Y LA CRISIS DE LOS MISILES
Durante meses, la central de inteligencia estadounidense CIA planificó una invasión a Cuba con cerca de 1.500 cubanos exiliados que habían sido entrenados por el ejército norteamericano en Guatemala, Puerto Rico y Nicaragua. Bajo el mando de José San Román y Ernesto Oliva, el 15 de abril de 1962, mediante una operación anfibia y aérea, fueron bombardeados los aeropuertos militares de Ciudad Libertad, San Antonio de los Baños y Santiago de Cuba por aviones norteamericanos camuflados con los colores de la Fuerza Aérea cubana. La invasión comenzó según lo pronosticado, pero la falta de apoyo aéreo por parte de los norteamericanos a las fuerzas de infantería que desembarcaban en la playa, hizo que la invasión fracasara estrepitosamente y permitió que Castro pudiese legitimarse ante la comunidad internacional.

Sin embargo, durante el lapso de ese mismo año, Cuba volvería a estar en la palestra, pero esta vez en medio de una posible conflagración entre los Estados Unidos y la Unión Soviética. El 16 de octubre de 1962, un avión espía U-2 de la Fuerza Aérea norteamericana identificó una serie de instalaciones militares cubanas que luego resultaron ser plataformas de misiles nucleares soviéticos, instalados en la isla con permiso de Castro.

Frente a una amenaza atómica a 90 kilómetros de la costa estadounidense, el gobierno de John Kennedy decretó un bloqueo marítimo alrededor de la isla, como medida de presión tanto contra los cubanos como los soviéticos. Durante trece días, el ambiente se tensionó de tal modo que se pensó que en cualquier momento estallaría una guerra nuclear entre Estados Unidos y la U.R.S.S. Sin embargo, el conflicto fue disminuyendo poco a poco y se solucionó mediante el retiro simultáneo de las instalaciones soviéticas en Cuba y las plataformas de misiles de mediano alcance que los norteamericanos tenían en Turquía.

Fuente: Biografía Enviada Como Colaboración a Planeta Sedna Por Ruiz Castro

El Fascismo en Italia Benito Mussolini El Fascismo del Duce Facismo

El Fascismo en Italia – Benito Mussolini – El Fascismo del Duce

Introducción a modo de Síntesis:
La Italia fascista:
Una vez en el gobierno, Mussolini trabajó activamente para establecer el nuevo régimen en Italia. El parlamento fue suprimido; todos los partidos disueltos menos el oficial, constituido en milicias llamadas “las camisas negras”.

Los obreros y los patrones de cada industria se organizaron en sindicatos sometidos a la “Carta de Trabajo”, que establece el arbritraje obligatorio para todas las cuestiones que puedan surgir. Los sindicatos, bajo el control del partido fascista, designan a los miembros de la representación nacional (régimen corporativo).

En realidad, todo el poder está en manos del Duce (conductor) según la fórmula: “Mussolini siempre tiene razón”.

La juventud es sometida desde la más tierna infancia a una educación eminentemente nacionalista y militar.

El Estado debe considerarse como la suprema entidad a la que han de someterse las personas, simples células de su organismo.

El régimen fascista restableció el orden interior, persiguió la delincuencia, exterminó ciertas asociaciones criminales muy poderosas como la mafia; realizó grandes obras públicas, impulsó la producción industrial y agrícola. En cambio, suprimió las libertades políticas y abrumó al pueblo con enormes gastos destinados a aumentar la eficiencia bélica del reino.

mussolini fascismo

LA DOCTRINA DEL FASCISMO: En los años 20 aparecen en Europa, como reacción contra la marea ascendente de los socialistas, una serie de movimientos ideológicos que con los medios de la revolución de izquierdas hacen una revolución de derechas.

El contenido doctrinal pasa a segundo piano, se da más importancia a los hechos; así Hitler se resiste, al principio, a presentar un programa y Mussolini exclama:

“Nuestra doctrina es el hecho”. Aunque el proceso afecta a varios países europeos sus realizaciones modélicas se materializan en Italia y Alemania. Algunas notas pueden resaltarse en unos movimientos que arguyen el valor adjetivo de las ideas frente al sustantivo de los hechos:

  1. a) Omnipotencia del Estado. Los individuos están totalmente subordinados al Estado; todo para el Estado, será la fórmula. El Estado totalitario no tolera la separación ni el contrapeso de los poderes, que es en cambio el símbolo de los Estados democráticos. En el campo político se suprime toda oposición, a la que se considera sólo como una perturbación para el buen gobierno; en el campo intelectual el Estado monopoliza la verdad y la propaganda, al tiempo que se rechaza cualquier crítica. “Todo en el Estado, nada fuera del Estado”, sentencia Mussolini
  2. b) Protagonismo de las “elites”. Una minoría debe gobernar. Se parte de la desigualdad de los hombres, en contraposición al liberalismo decimonónico, basado en la igualdad, y en consecuencia se rechaza la democracia porque concede los mismos derechos a todos. Las elecciones se consideran un espectáculo inútil, una “falacia democrática”; Mussolini niega que el número pueda dirigir las sociedades humanas, y Hitler afirma que “es más fácil ver a un camello pasar por el ojo de una aguja que descubrir un gran hombre por medio de la elección”.

Esta desigualdad esencial de los seres humanos ofrece reflejos diversos. En primer lugar una desvalorización de la mujer. Las mujeres, dirán los ideólogos nazis, deben estar en su lugar, su objeto deben ser las tres K (Kinder, Küche, Kirche: niños, cocina, iglesia). Argumentando que las mujeres son incapaces de usar las armas se convierten automáticamente en ciudadanos de segunda clase y se procura evitar la mano de obra femenina; el papel de la mujer se centra en el hogar, donde vive subordinada al marido. Más dramáticas fueron las conclusiones racistas que se dedujeron de la desigualdad de los hombres. Mussolini habla de la superioridad de los gobernantes y de la grandeza del pueblo italiano, llamado a regir y dominar a otros pueblos. Hitler desarrolla en Mein Kampf su doctrina de la superioridad de la raza aria.La igualdad democrática se basaba en la tradición judeocristiana, que considera a todos los hombres hijos de Dios. Para el fascismo, que rompe con esta tradición, la desigualdad no sólo es un hecho, sino un ideal. La dicotomía superioresinferiores ha sido bien resumida por Einstein: “En el código fascista, los hombres son superiores a las mujeres, los soldados a los civiles, los miembros del partido a los que no lo son, la propia nación a las demás, los fuertes a los débiles, y (lo que quizás es más importante para el punto de vista fascista), los vencedores en la guerra a los vencidos

  1. c) Exaltación del jefe carismático. Llevando a sus últimas consecuencias el postulado de la desigualdad de los hombres, una nación fuerte necesita encontrar al hombre excepcional, al superhombre, según la doctrina de Nietzsche; cuando la Providencia lo pone al frente de un pueblo debe prestársele obediencia ciega y seguirle sin titubeos. Max Fritsch presenta en una obra de teatro importante en la dramaturgia de nuestra época, La muralla china, al emperador como “el que nunca se equívoca”, “el que siempre tiene razón”; retrata así irónicamente la concepción del jefe carismático, inspirado. En escenografías grandiosas Mussolini invoca los estilos de la antigua Roma imperial; es el hombre histórico, indiscutido. Hitler utiliza los mitos del romanticismo alemán y organiza grandes concentraciones de escenografía wagneriana, en las que el centro de todas las atenciones y decisiones es el Führer.
  2. d) Imperialismo. A veces se ha definido el fascismo como un nacionalismo de vencidos, engendrado por la humillación de la derrota. Expresan sus mitos la desorientación de los antiguos combatientes. En Francia los excombatientes se oponían a medidas democráticas, pero su actitud fue menos desafiante que la de los alemanes; los vencidos adoptan posturas de revancha, que la nueva ideología canaliza. Del nacionalismo se pasa con facilidad al imperialismo, una gran nación encuentra su verdadero horizonte en la formación de un imperio, y en relación con él se defiende el principio del espacio vital. Un pueblo superior tiene derecho a disponer de espacio para realizarse y a conquistarlo; esta necesidad se coloca por encima del derecho internacional.
  3. e) Desconfianza en la razón. La tradición racionalista es uno de los más decisivos legados de Grecia a Occidente; el fascismo rechaza esta tradición y adopta posturas antirracionalistas, desconfiando de la razón y exaltando los elementos irracionales de la conducta, los sentimientos intensos, el fanatismo. En esta línea irracionalista se desenvuelven los dogmas, las ideas indiscutibles, como la superioridad de la raza o del jefe. En contraposición, la democracia estima que ningún tema debe dejar de ser discutido. El tabú, lo que debe aceptarse sin discusión, lo que no puede ser sometido a análisis, es rasgo peculiar de los regímenes totalitarios.

LAS RAÍCES DEL FASCISMO ITALIANO 

Otto Bauer ha señalado tres procesos sociales, relacionados entre sí, que confluyen en la génesis del fascismo: la Guerra Mundial, la crisis económica y la pérdida de beneficios de la gran industria.

  1. a) La guerra de clases, es decir, separa de su grupo social, a grandes masas de combatientes. Estos, incapaces de reincorporarse a los modos de vida burgueses, nostálgicos de heroísmo, forman milicias. En Italia se organizan en muchos pueblos tropas de choque, orgullosas de sus condecoraciones y heridas, con hábitos de dar y recibir órdenes, de llevar uniforme y organizar desfiles. Su ideología es militarista, exigen la disciplina de las masas a los jefes. Psicológicamente la guerra crea hábitos definidores del fascismo. Pero lo hemos señalado antes como un nacionalismo de vencidos, e Italia se encuentra en 1918 en el bando de los vencedores. La antinomia es sólo aparente. Se ha hablado, certeramente, de una paz perdida. Italia ha sufrido mucho en la guerra y considera que ha perdido la paz porque no obtiene satisfacción a sus reivindicaciones territoriales.
  2. b) La crisis económica es otra condición indispensable, hasta el punto de que Angelo Tasca afirma que sin crisis económica no hay fascismo. Las destrucciones de la guerra sumen en la miseria a masas de pequeños burgueses y campesinos, que abandonan desengañadas a los partidos parlamentarios; las devaluaciones de la moneda arruinan a los pequeños propietarios. Con las subidas de los precios se producen en cadena reivindicaciones salariales. A los pequeños burgueses les indigna que el proletariado, arrancando constantes subidas de salarios, afronte la crisis mejor, y odia a los obreros insumisos.

La situación económica es complicada. La guerra deja un aparato industrial superior a las necesidades normales, y de esta forma la superproducción coexiste con la escasez. Ha de buscarse culpables de esta coyuntura paradójica; la agresividad empieza a considerarse una virtud.

  1. c) La pérdida de los beneficios de los grandes industriales es considerada por Otto Bauer como una tercera raíz. Ebenstein considera que el desarrollo industrial es una condición esencial para el crecimiento del fascismo; en primer lugar porque pone a disposición de la nueva ideología un aparato técnico indispensable para su propaganda y actividad —radio, transportes—, y en segundo porque su apelación constante a la guerra no puede sino basarse en la posesión de considerables recursos industriales.

En la posguerra los beneficios, muy altos, que algunos empresarios han conseguido disminuyen rápidamente. Para evitarlo es preciso romper la resistencia obrera por medio de milicias; se comienza apoyándolas financieramente y se termina por cederles el poder. En el campo se producen enfrentamientos de colonos y terratenientes, éstos recurren a los grupos de combate llamados fascios. La clase capitalista había descubierto la forma de romper el impetuoso ataque de la clase obrera. El dinero con que contó el fascismo le atrajo un infraproletarjado de parados, que así recibían un uniforme y una soldada. Al final, lo mismo en Italia que en Alemania, había que destruir el fascismo y ceder al empuje obrero, o entregarle el poder. Los capitalistas se inclinaron por la segunda alternativa.

LA MARCHA SOBRE ROMA

El desencanto ocasionado por los tratados de paz de Versalles, la depresión económica y el avance de la izquierda revolucionaria que amenazaba con desencadenar una guerra civil en Italia, sirvieron de pretexto a Benito Mussolini para exigir en la última semana de octubre de 1922 la formación de un gobierno fascista para salvar la patria de la amenaza socialista y de la anarquía.

El 29 de octubre, Mussolini, invitado por el rey Víctor Manuel III, viajó por la noche en tren expreso desde Milán a Roma acompañado por su séquito y al día siguiente formó gobierno. Apresuradamente, unos 25.000 camisas negras fueron transportados por el Partido Nacional Fascista desde la ciudad de Nápoles a la de Roma, donde el día 31 desfilaron aparatosamente en honor al Duce.

Por obra de la propaganda y la ampulosidad características del movimiento fascista este desfile pasó a la épicamussoliniana como la Marcha sobre Roma. (ampliar este tema)

EL FASCISMO EN EL PODER 

Carente de un autentico programa de gobierno, sin otro bagaje que su ansia de poder, Mussolini va a demostrar una astucia extraordinaria para hacer evolucionar el sistema parlamentario italiano hacia un modelo de dictadura personal. La práctica constitucional exigía el voto favorable de la Cámara, pero constituyendo los fascistas una minoría de una treintena de diputados, resultaba imprescindible el apoyo de la derecha. En conjunto se pueden distinguir dos fases en el proceso de sustitución de las estructuras democráticas; hasta enero de 1925 se cubre una etapa de dictadura solapada, desde esta fecha, de dictadura abierta.

El primer paso es la consecución de la ley de plenos poderes, a la que solamente se oponen socialistas y comunistas. Dotado de atribuciones que ningún jefe de gobierno anterior había tenido, mientras se recrudecen las violencias de las bandas fascistas Mussolini se consagra a la creación de órganos paralelos a los del Estado, como el Gran Consejo del Fascismo, que puede tomar decisiones políticas y reduce al gobierno a un simple papel administrativo; de manera similar la Milicia para la seguridad del Estado suplanta a la Guardia Real —disuelta en enero de 1923—, y los comisarios políticos (“prefectos volantes”), reclutados entre los “ras”, restan toda autoridad a los prefectos provinciales. En un año Mussolini dispone de un Estado fascista paralelo. Aunque populares y liberales se apartan recelosos y sus periódicos comienzan a criticar a Mussolini, votan muchos de sus diputados la nueva ley electoral —ley Acerbo—, que prevé una sobre representación de la lista más votada (los 2/3 de asientos de la Cámara). Se trata de un suicidio parlamentario, solamente explicable por la capacidad de convicción del líder fascista, que ofrece a algunos partidos presentarse con una lista conjunta.

En las elecciones de 1924 los fascistas obtienen cinco de los siete millones de votos, pero la resistencia antifascista aumenta por las irregularidades del proceso electoral.

Al abrirse las sesiones del Parlamento el diputado socialista Matteotti hizo una crítica demoledora del fascismo y de la gestión gubernamental de Mussolini. El eco fue grande en toda Italia; el discurso de Matteotti desató las lenguas. Unos días después el valeroso secretario del partido socialista es raptado y asesinado. La prensa publica artículos indignados contra el fascismo criminal.

Una parte de los diputados no fascistas, que colaboraban con Mussolini, como Orlando y Albertini, se apartan de él. En ese momento Mussolini lo tenía todo contra él; la Iglesia y el partido populista de Dom Sturzo, los liberales, los socialistas, la corte, la diplomacia, los universitarios. Benedetto Croce niega al fascismo cualquier valor político o histórico y lo califica de “doloroso incidente”. lntelectuales y profesores firman un manifiesto antifascista. Pero Mussolini se queda y sus fieles se dirigen a las provincias para dirigir una campaña de violencia que le afirme en poder.

La oposición abandona el Parlamento; fue un error, no volvería a ocupar sus escaños. Mussolini declara que oposición es inútil. Durante varios meses de 1924 y 19 parece que el rey va a dar el paso de enfrentarse al di dor; los empresarios se muestran recelosos del giro del acontecimientos; un grupo, dirigido por el senador Ett Conti, intenta persuadir al rey para que despida al dictador; pero el monarca teme el regreso a la anarquía anterior, sólo para poder contemplar después otro tipo anarquía.

 Los partidos políticos desaparecen de la vida pública comenzando por los populistas y socialistas; la prensa aherrojada, los libros subversivos quemados en hogueras públicas, por plazas y aldeas se maltrata o asesina alos enemigos del régimen. Muchos abandonan Italia,  llega a haber 300.000 exiliados italianos, que publican periódico en su idioma.

Al mismo tiempo, Mussolini, dando muestras de  extraordinarias dotes políticas, prescinde de los extremis de su partido. Cuando plantea un posible programa de vuelta a la normalidad, los “escuadristas” amenazan con un golpe de Estado y precipitan un estallido de violencia durante el año 1925. Es su final; Mussolini otorga poder excepcionales a los prefectos de las provincias y se de sembaraza de los que no le obedecen dentro del moví. miento. Es ya la figura clave. Uno de sus aciertos estriba en oponer ramas hostiles y disidentes del fascio; contra los escuadristas, sector exaltado y demagógico, se lanzan los sindicalistas, que soñaban con apoyarse en masas obreras, sector que tampoco agrada a Mussolini. Del choque de ambos sale robustecido el sector que encabezan Mussolini y Farinacci.

Con toda la autoridad del Estado y del partido en un solo hombre, el Duce, se declara la ilegalidad de los restantes partidos políticos y la obligatoriedad de su programa para todos los funcionarios del Estado. La educación se somete a un control riguroso. Se organizan numerosas manifestaciones para demostrar la adhesión de las masas al Duce, en torno al cual se suscita un culto desmedido; se le canta como estadista genial, como la encarnación heroica de la nación. Su palacio de la plaza Venecia se convierte en su cuartel general; de su despacho salen nombramientos, ceses, condenas; algunos funcionarios se suicidan al ser convocados. 

En referéndum y elecciones se refleja una paulatina y creciente docilidad política del pueblo italiano. En 1929, en una consulta al pueblo se recogen 8,5 millones de síes y 136.000 no es; en 1934 diez millones de respuestas afirmativas y sólo 15.000 negativas. En las elecciones hay una sola lista que el elector tiene que aceptar o rechazar. 

LA GESTIÓN DE GOBIERNO

Frente al liberalismo, que propugna el libre juego de las fuerzas del mercado, como había postulado Adam Smith, y frente al socialismo, que supone la absorción de la vida económica por el Estado, el fascismo se presenta como una tercera vía, en la que se apoya a la empresa privada pero con una intervención estatal.

El corporativismo se inspira en los gremios o corporaciones medievales, en los que, se afirmaba, se habían armonizado los intereses de patronos y trabajadores. De la misma manera el Estado corporativo suprimiría la lucha de clases, constituyendo al Estado en árbitro de las disputas dentro de unas instituciones comunes. El intervencionismo estatal fue una construcción jurídica de Alfredo Rocco, con las leyes laborales de los años 1926 y 1927, disposiciones que se resumen en la Carta del Lavoro (1927), que organiza las profesiones en corporaciones verticales de patronos y obreros. El Estado se reserva la última disposición 

Los planes de aumento de la producción se bautizan con denominación bélica. La “batalla del trigo” se inició en 1925; su objetivo era el autoabastecimiento para frenar la pérdida de divisas que provocaba la importación. Se consiguió con el cultivo de tierras marginales y convenciendo a los campesinos para que abandonaran otros cultivos. Una activa propaganda, en la que se presentaba a Mussolini con el torso desnudo, trabajando como agricultor, movilizó a millones de italianos en una empresa cuyo resultado feliz se identificaba con el prestigio de la nación.

Pero la batalla del trigo fue antieconómica. Parte de lo que se ahorró en compra de cereales extranjeros se perdió por el descenso en las ventas de otros productos, se abandonaron cultivos de huerta lucrativos, y en el Sur se antepuso el cereal a los pastos y a la ganadería, cuyos fertilizantes hubieran enriquecido el suelo. La agricultura intensiva, más idónea para una población en aumento rápido, provocado por la “batalla de los nacimientos’, fue olvidada.

 La “batalla de la lira” consistió en establecer una cotización excesivamente alta para la moneda italiana, estableciendo una ecuación entre moneda fuerte y prestigio internacional, pero tal cotización redujo la competitividad de los productos italianos en el mercado exterior y produjo la quiebra de las pequeñas empresas.

Con gran publicidad se acometió la desecación de pantanos y marismas, la irrigación y la repoblación forestal. El ejemplo más famoso es la desecación de los pantanos pontinos, cerca de Roma; tras la recuperación de la tierra se trajeron colonos del Noreste, y se construyeron ciudades como Latina y Sabaudia. Obsesionado por hacer de esta tarea un escaparate de propaganda para los visitantes extranjeros, el régimen se olvidó de las zonas más alejadas de Roma. Según un estudio de Mario Bandini, de los 2,6 millones de hectáreas en las que se inició alguna tarea de recuperación sólo la décima parte mostró un aumento significativo en la producción y en el número de personas que la tierra podía sostener.  En un clima de falta de libertad muchos intelectuales tuvieron que abandonar Italia.

facismo hitler-mussolini

Saludo entre los líderes Hitler y Mussolini- Firma de un pacto en Munich

PENSAMIENTO DE MUSSOLINI
La Omnipotencia del Estado

Texto de: La Doctrina del Fascismo , 1932

Como antiindividualista, el sistema de vida fascista pone de relieve la importancia del Estado y reconoce al individuo sólo en a medida que sus intereses coinciden con los del Estado, que representa la conciencia y la universalidad del hombre como entidad histórica […]. El liberalismo negó al Estado en nombre del individuo; el fascismo reafirma los derechos del Estado como la expresión de la verdadera esencia de lo individual […]. La concepción •fascista del Estado lo abarca todo; fuera de él no pueden existir valores humanos o espirituales. Entendido de esta forma, el fascismo es totalitarismo y el Estado fascista […] interpreta, desarrolla y otorga poder adicional a toda la vida del pueblo […].

Quien dice liberalismo dice individuo, y quien dice fascismo, dice Estado. El fascismo desea que el Estado sea fuerte y orgánico y que se alce sobre fundamentos sólidos que tengan el apoyo popular. El Estado fascista pretende dirigir también el campo económico. Quiere que su acción se oiga en todo el país mediante sus instituciones corporativas, sociales y educacionales y todas las fuerzas políticas, económicas y espirituales de la nación, organizadas en sus asociaciones respectivas, difundidas por todo el Estado […]. El Estado fascista es una voluntad de potencia y de imperio. La tradición romana es aquí una idea: la fuerza. Según la doctrina fascista, el imperio no es tan solo una expresión territorial, mercantil o militar, sino espiritual”…

Que el fascismo es una doctrina de vida lo demuestra el hecho de que se ha creado una fe y que esta fe ha conquistado las almas; lo prueba el hecho de que ha habido hombres que han muerto por el fascismo y que el fascismo ha tenido sus mártires.

MUSSOLINI LLEGA AL PODER, ITALIA SE ENAMORA….
[Luego de la Marcha sobre Roma de la columnas fascista]…Haciendo uso de su derecho, el Rey, en vez de firmar el decreto, destituyó al débil Primer Ministro De Facta e hizo llamar a Mussolini al despacho real. Horas después, salían juntos. Benito Mussolini era el nuevo Jefe del Gobierno Italiano.

Una muchedumbre lo vitoreó. El paro general llegó a su término rápidamente y Mussolini tuvo su primer encuentro con los parlamentarios. Sus palabras fueron amenazantes. Comenzaría ahora un sistema de gobierno autoritario, de reconstrucción nacional.

En verdad, el gobierno de Mussolini tuvo un sorprendente éxito en sus programas de reconstrucción. El país recobró rápidamente la disciplina y volvió a haber paz social, aunque a costa de sangrientas persecuciones sobre los comunistas y la izquierda en general. Más sorprendente aún fue el aumento de la popularidad de Mussolini y el fascismo así como el portentoso aumento de su prestigio internacional.

Quizás el testimonio más significativo respecto de la personalidad y el gobierno de Mussolini, sea el que proporciona Sir Winston Churchill: “Ya les conté el triste episodio de cómo la política de Baldwin-Chamberlain respecto de Abisinia acarreó sobre nosotros lo peor de dos mundos, cómo se produjo entonces un alejamiento respecto del dictador italiano…” “En los años, a partir de 1924, hice todo cuanto estaba a mi alcance para preservar la tradicional amistad de Gran Bretaña e Italia”. “Más aún, en el conflicto entre el fascismo y los bolcheviques, no cabía duda sobre hacia dónde iban mis simpatías y mis convicciones”.

El mismo día en que Sir Winston Churchill fue designado Primer Ministro y Ministro de Defensa de Gran Bretaña, la primera carta que escribió, el 16 de mayo de 1940, fue dirigida a Benito Mussolini. Algunas de sus partes dicen:

“… recuerdo nuestras reuniones en Roma y siento el deseo de expresarle a usted, como Jefe del Estado Italiano, mis deseos de buena voluntad por encima de la creciente separación. ¿Es demasiado tarde para impedir que corra un río de sangre entre los pueblos inglés e italiano?” “.. .Yo declaro que nunca he sido adverso a la grandeza de Italia ni, en mi corazón, he sido jamás enemigo del que dicta las leyes de Italia.” … “Escuche mis palabras, se lo requiero con todo honor y respeto, antes de que la señal terrible (de guerra) sea dada. Y no seremos nosotros quienes demos esa señal”.

De la ruina total, Italia había vuelto a alzarse como potencia. El mismo Churchill afirma que, si Mussolini hubiera tenido el sentido común que mostró Franco en España, y se hubiese mantenido neutral en la Segunda Guerra Mundial, Italia habría resultado incólume y más poderosa que nunca. Pero la respuesta de Mussolini, referida a la doctrina imperial de Italia, a los rencores de la Primera Guerra y a los pactos de honor que lo unían a Hitler, lanzó a Italia a la vorágine demencial.

Pero esa es otra historia. En 1924, Mussolini había enamorado a Italia y comenzaban los 16 años de luna de miel.

LOS MOVIMIENTOS FASCISTAS:

Además de hacerse con el poder en Italia y Alemania, el fascismo tuvo otras muchas manifestaciones en Europa. En Francia varios partidos se proclamaron fascistas, pero el más importante fue el Partido Popular Francés (PPF), de Jacques Doriot.

En Gran Bretaña, el fascismo se encarnó en la Unión Británica de Fascistas (BUF) de Oswald Mosley. Holanda conoció el Movimiento Nacionalsocialista (NSB) de Antón Mussert, En Bélgica, dividida lingüísticamente, la versión local del fascismo de la Valonia francófona -el rexismo de Léon Degrelle- tuvo un éxito notable, aunque fugaz; en la Flandes neerlandófona, el fascismo caló a fondo en el Movimiento Independentista.

En todos estos casos los movimientos fascistas lograron cierto respaldo, lo que les permitió contar con diputados, concejales, etc. Los únicos países de Europa Occidental donde las estadísticas electorales muestran que el fascismo fue irrelevante son España y Portugal, si bien en ambas se instauraron dictaduras con rasgos corporativistas.

Tampoco tuvo éxito el fascismo en Escandinavia, siendo la Unión Nacional (NS) noruega de Quisling la única muestra de un relativo eco en los países del Norte. Muy distinto fue lo ocurrido en Europa Oriental. En Croacia, la fracción radical del nacionalismo separatista dio origen a un movimiento fascista, los ustachi de Ante Pavelic. La Guardia de Hierro rumana de Corneliu Codreanu y el movimiento de la Cruz Flechada húngara de Ferenc Szalassi encontraron un masivo apoyo popular, sobre todo el primero. Sin embargo, la dictadura establecida en Rumania o el sistema de democracia restringida de Hungría no tenían como objetivo evitar los peligros del comunismo sino el avance del fascismo.

El fascismo también tuvo expresiones en América Latina, con agrupaciones como la Falange Socialista Boliviana o la Liga Patriótica Argentina, entre otras. (Fuente Consultada: Segunda Guerra Mundial Tomo N°1 El Rearme Alemán y el Inicio de la Contienda)

CONCEPTO DE GOBIERNOS TOTALITARIOS O AUTOCRACIAS

Fuente Consultada:
Cromos Historia del Mundo Moderno

HECHOS, Sucesos que estremecieron al mundo Tomo N°14 Mussolini Enamora a Italia

Revoluciones Burguesas Resumen Conquistas de las Burguesia Luchas

Revoluciones Burguesas : Resumen de las Conquistas

La Comuna de París Revoluciones Liberales El Cartismo Revolución de 1830

Después de la Revolución Industrial, que comenzó en Inglaterra a mediados del siglo XVIII, poco a poco la industria se convirtió en la actividad económica más importante no sólo en la sociedad inglesa, sino también en otras regiones de Europa. Este proceso fue la primera fase de la industrialización en el continente europeo, y se extendió hasta aproximadamente 1840, cuando se produjo la primera crisis del capitalismo.

LA ORGANIZACIÓN DE LA ECONOMÍA

La actividad industrial durante esta primera fase se caracterizaba lo siguiente:

  • Si bien la máquina a vapor fue un gran invento y avance como energía para el movimiento de las máquinas, su aplicación no fue en forma inmediata en todos los rubros de la industria, y estaba dedicada prácticamente a la actividad textil y justamente por ello en la primera fase de la Revolución Industrial, los viejos sistemas de trabajo a domicilio o la actividad artesanal convivieron con las fábricas.
  • Se estableció una división internacional del trabajo, debido a que distintas regiones del planeta se especializaron en una actividad ad determinada. En el siglo XIX algunos países de América del Sur, Central y África, se especializaron como productores de materias primas , y otros países como Inglaterra y Francia fueron productores de manufacturas, debido a su industria y tecnología.
  • Dentro de Europa, no todos los países evolucionaron y crecieron de la misma manera y tiempo, es decir el desarrollo industrial fue desigual.

Inglaterra fue la pionera en la industrialización, que comenzó aproximadamente a mediados del siglo XVIII, y luego de varios años le siguió Francia (siglo XIX). Otros países como Alemania e Italia debido a que estaban en otros procesos políticos como la unificación, la industrialización tuvo que esperar hasta los primeros años años del siglo XX. España casi no tuvo desarrollo industrial.

LA ORGANIZACIÓN DE LA SOCIEDAD

La sociedad europea —especialmente la inglesa— también cambió notablemente como consecuencia de la Revolución Industrial.

  • Debido al desplazamiento de la gente del campo, la población urbana superó en número a los campesinos, en cambio en donde no hubo industrialización se mantuvo la mayoría de campesinos sobre la urbana.
  • Debido a que la actividad industrial generaba grandes ganancias, muchos propietarios rurales y gente de la aristocracia comenzó a invertir en la industria y comercio. La riqueza de la burguesía hizo que esta clase social se relacionara con la antigua aristocracia y compartieran negocios.
  • La burguesía se consolidó como una nueva clase social, con mucho poder económico y con grandes intensiones de participar en la actividad política. Este proceso fue más rápido sobre todo en Inglaterra, mientras que el desarrollo de la burguesía industrial fue más lento en los otros países europeos.
  • También nació un nuevo tipo de clase social, conocida como proletariado que creció conjuntamente con el crecimiento de la actividad industrial. A medida que su número aumentaba, también aumentaba su importancia en la sociedad y política.

PRIMERA CRISIS DEL CAPITALISMO

Debido al fuerte crecimiento de la producción, llegó un momento , entre 1830 y 1840, en que se produjo mas artículos textiles de lo que se podía vender, es decir había mas oferta que demanda, por lo que se generó una crisis en la economía capitalista y se reflejó rápidamente en una caída del crecimiento económico.

Al disminuir las ventas, y consecuentemente las ganancias de los industriales, estos disminuyeron las horas laborales, se despidieron obreros o directamente cerraron sus puertas. Para peor de los males , en el campo por esa misma época se perdieron cuantiosas cosechas y los precios de los alimentos se elevaron.

Los mas perjudicados fueron los asalariados que veían como sus sueldos no le alcanzaban para vivir , a veces , ni siquiera miserablemente, creándose un descontento popular que se extendió por toda Europa y originó movimientos de protesta y rebeliones.

LA RESTAURACIÓN DEL ABSOLUTISMO

Luego de la derrota definitiva de Napoleón en 1815, en el Congreso de Viena, mediante el Tratado de la Santa Alianza, los líderes políticos de los países mas fuertes, lograron reestablecer las monarquías absolutas en sus tronos, y además el clero y la aristocracia recuperaron alguno de sus privilegios feudales. La burguesía no aceptó para nada perder las ventajas de vivir bajo la defensa de sus derechos naturales como la libertad, igualdad que habían aprendido y conseguido a partir de la Revolución Francesa, y que las campañas de Napoleón habían difundido por todo el continente Europeo.

LA REACCIÓN DE LA BURGUESÍA LIBERAL

Desde su origen las ideas del liberalismo político había unido fuertemente a la burguesía para luchar contra el autoritarismo del absolutismo y en defensa de sus ideales que tan bien se encajaban en su estilo de vida y trabajo.

Su derechos civiles y políticos serian defendidos hasta las últimas consecuencias, que en el plano político una de las ideas mas importantes fue el establecimiento de una ley de leyes o constitución que obligaran por igual a gobernados y gobernantes, y que protegieran los derechos naturales como la propiedad privada, el derecho a la vida y la igualdad ante la ley, y por otro lado que limitara el poder de rey. Y éste fue el principal objetivo de los movimientos revolucionarios que encabezó la burguesía en diferentes países europeos entre 1820 y 1848.

Por la lucha de implantación definitiva de una Constitución que garantizaran las libertades de expresión, de asociación, de reunión, separaran los poderes de gobierno, para evitar la posibilidad de una tiranía, y el derecho al voto para aquellas personas que cumplieran ciertos requisitos, en 1830, burgueses, estudiantes, guardias nacionales y obreros tomaron la ciudad de Paris al grito de “Libertad, Libertad,…”.

LA BURGUESÍA FRENTE A LA POBREZA

La alta burguesía europea, cada día más poderosa y rica, con el poder político ya firmemente asido, veía con inquietud cómo alrededor de las ciudades industriales iba surgiendo una masa proletaria , también cada día más espantosamente pobre. Necesitaba, por tanto, una doctrina que explicase este hecho como inevitable y, en consecuencia, sirviese para tranquilizar su propia inquietud.

Tal doctrina la encontró en dos pensadores ingleses, Adam Smith (1723-1790) y Thomas R. Malthus (1766-1834), que pasaron así a ser los pilares ideológicos del liberalismo económico.

Smith pensaba que todo el sistema económico debía estar basado en la ley de la oferta y la demanda. Para que un país prosperase, los gobiernos debían abstenerse de intervenir en el funcionamiento de esa ley: los precios y los salarios se fijarían por sí solos, sin necesidad de intervención alguna del Estado. Y ello, entendía, no podía ser de otro modo, por cuanto si se dejaba una absoluta libertad económica, cada hombre, al actuar buscando su propio beneficio, provocaba el enriquecimiento de la sociedad.

Malthus partía del supuesto de que, mientras el aumento creciente de población seguía una proporción geométrica, la generación de riquezas y alimentos sólo crecía aritméticamente. Resultaba por ello inevitable que, de no ponerse remedio, el mundo se hundiría en la pobreza. Ese remedio no podía ser otro que el control de natalidad en los obreros, y que estos quedasen abandonados a su suerte, para que así su número disminuyese.

En resumen, tanto Malthus como Smith lo que estaban pidiendo era la inhibición de los gobernantes en cuestiones sociales y económicas. Y eso fue lo que ocurrió: el Estado burgués europeo del siglo XIX se limitó a garantizar el orden público en el interior de sus fronteras, renunciando a cualquier tipo de política social, de justicia redistributiva y de intervención en la economía.

Nada mejor para los grandes capitalistas, que quedaron con las manos libres para enriquecerse al máximo. La riqueza se convirtió en una virtud, y los clérigos, desde el púlpito, presentaban la pobreza como una consecuencia del vicio y el pecado, con lo cual estaban justificando de hecho su existencia.

Frente a este Estado liberal y en esta sociedad burguesa, el proletariado se encontró indefenso. Por ello, su lucha por la vida y por los derechos que se les negaban tenía que convertirse necesariamente en una lucha contra el liberalismo económico y la burguesía capitalista.

Sin embargo, en los años que transcurrieron hasta 1848, los trabajadores fueron aliados de la burguesía en la lucha contra el absolutismo restaurado. Los obreros se sumaron a las luchas de los burgueses que reclamaban la plena vigencia de los principios del liberalismo. Por otra parte, un sector de la burguesía liberal alentaba la alianza porque creía que el capitalismo generaba un progreso que iba a mejorar las condiciones de vida de todos los integrantes de la sociedad. Por eso, llevó adelante acciones políticas radicales con el fin de destruir los obstáculos que se oponían al desarrollo del capitalismo.

la revoluciones burguesas

Los movimientos revolucionarios de 1820. En España, Portugal y el Reino de las Dos Sícilias, los revolucionarios lograron la sanción de Constituciones liberales. Pero la intervención militar de Austria y Francia en ayuda de los monarcas absolutos afectados —de acuerdo con lo establecido en el Tratado de la Santa Alianza—, derrotó estas experiencias revolucionarias. Las luchas por el establecimiento de los principios liberales tuvo características especiales en Grecia. A partir de 1821 comenzó la guerra de liberación griega del imperio turco-otomano, en la que fue decisiva la intervención de las fuerzas de la Santa Alianza. Gran Bretaña, Francia y Rusia vencieron a los turcos, declararon la soberanía nacional de Grecia y, luego de derrotar al movimiento liberal griego, favorecieron el establecimiento de una monarquía absoluta. Como consecuencia de las diferencias entre Rusia y Austria sobre esta “cuestión de oriente “, la Santa Alianza se disolvió.

El objetivo político de los revolucionarios de 1820 fue lograr el establecimiento de monarquías constitucionales —como la inglesa—. También se propusieron asegurar el funcionamiento de los parlamentos, ya que, frente al absolutismo monárquico, el parlamento era la institución que permitía la participación de los burgueses en el gobierno, que cada vez tenían mayor poder económico.

Los movimientos revolucionarios de 1830

Los movimientos revolucionarios de 1830. Las revoluciones de 1830, dividieron Europa en dos regiones. Al oeste del río Rhin, los liberales moderados derrotaron a la alianza de los absolutismos. Al este del Rhin, en cambio, todas las revoluciones fueron reprimidas y la situación se mantuvo como antes de 1830. En estos países, la mayor parte de la población estaba compuesta por campesinos que todavía vivían sometidos a una organización económica de tipo feudal.

En Europa occidental, las revoluciones de 1830 significaron la derrota definitiva del absolutismo. Desde entonces, en los distintos países, el gobierno estuvo a cargo de representantes de la alta burguesía de industriales y banqueros, que desplazaron a los miembros de la aristocracia terrateniente.

El régimen de gobierno que se consolidó en Inglaterra, Francia y Bélgica fue una monarquía constitucional que garantizaba la vigencia de las libertades individuales económicas y políticas. La participación política se abría exclusivamente a una parte de la población mediante el sufragio restringido. Sólo aquellos ciudadanos que eran propietarios, tenían determinado nivel de ingresos o determinado grado de instrucción escolar, tuvieron derecho al voto y a ser elegidos representantes parlamentarios.

La revolución Francia julio de 1830

La revolución que estalló en Francia en julio de 1830 contra el absolutismo del rey Borbón Carlos X, inició la oleada revolucionaria que se extendió por toda Europa. En París, burgueses estudiantes, obreros asaltaron armerías, armaron barricadas y pidieron por la abdicación del rey. El ejèrcito se negó a reprimir a los revolucionarios y el rey abandonó el país. Se le entregó la corona a Luis Felipe de Orleans que adhería a los principios liberales.

1848: Hacia la Democracia Liberal: El movimiento revolucionario de 1848 fue el que más se extendió por Europa, pero el de menos éxito: con la única excepción de Francia. En el resto de los países, los antiguos gobiernos recuperaron el poder en muy poco tiempo, y los revolucionarios fueron encarcelados o exiliados. En Francia se proclamó la República, que duró algo más de 2 años. El único cambio irreversible fue la abolición de la Servidumbre en el Imperio de los Habsburgos.

Las fuerzas sociales y políticas en 1848.

La oleada revolucionaria de 1848 comenzó en Francia y el nuevo estallido estuvo relacionado con los resultados de la revolución de 1830. El régimen de gobierno establecido desde entonces favorecía a la Alta Burguesía, pero negaba el Sufragio Universal a la Baja Burguesía, a los intelectuales y sobre todo a los trabajadores.

La situación se agravó cuando, a partir de 1845, se acentuó la crisis económica. Una serie de malas cosechas provocó un fuerte aumento en los precios de los alimentos básicos de los trabajadores: los cereales y las papas. El cierre de fábricas por causa de la crisis de la industria textil había aumentado el desempleo, y el hambre se generalizó motivando a los trabajadores a protestar.

En toda Europa, casi simultáneamente, miembros de la baja burguesía y estudiantes se unieron a las protestas de los obreros. En Francia, el Ejército y la Policía se negaron a reprimir a los aliados revolucionarios: el rey abdicó y se proclamó la República.

La experiencia de la Segunda República Francesa.

La experiencia de la Segunda República Francesa.

Lo significativo de la revolución que se desarrolló en París en febrero de 1848 fue que, por primera vez, los trabajadores tuvieron demandas específicas diferentes de las de los burgueses.

*POLÍTICO: La Baja Burguesía pedía una reforma del sistema electoral y parlamentario para lograr un mayor grado de participación en el gobierno.
*SOCIOECONÓMICO: Los Obreros pedían soluciones al problema de la desocupación y del hambre. Entre 1846 y 1848 el cierre de los talleres de ferrocarriles había dejado sin empleo, en París, a 500.000 obreros.

El Gobierno Provisional que se organizó luego de proclamada la República, y contó con la participación de un obrero y de un representante de los intereses de los obreros como Ministro de Trabajo: el socialista Louis Blanc. Entre febrero y mayo de 1848, este nuevo gobierno —con el apoyo de los pobres de las ciudades y de burgueses republicanos moderados— realizó las siguientes acciones:

*estableció el sufragio universal
*abolió la esclavitud colonial
*abolió la pena de muerte por delitos políticos
*creó los Talleres Nacionales para solucionar el problema del desempleo en la ciudad de París.

La derrota de los trabajadores.

La primera elección que se realizó en Francia con la vigencia del Sufragio Universal dio por resultado una Asamblea Constituyente integrada en su mayoría por partidarios de la Monarquía y de Reformas moderadas.

La mayor parte de la población, que era todavía rural, no había tomado contacto con las nuevas ideas que impulsaban los burgueses radicales y republicanos, ni con las ideas socialistas que defendían los intereses de los obreros. Por esto, en las ciudades del interior de Francia la población masculina votó por aquellos miembros de la sociedad que conocía: los médicos, los abogados, e incluso por los nobles que ocupaban un lugar destacado en su ciudad.

Esta Asamblea se enfrentó con el Gobierno Provisional y, reafirmando los principios del Liberalismo Económico, decidió el cierre de los Talleres Nacionales.

El balance de 1848: la burguesía “conservadora”.

Cuando la burguesía tomó conciencia de la enorme fuerza que tenía el conjunto de los trabajadores pobres, sintió sus intereses amenazados: la Propiedad Privada. Desde entonces, muchos liberales moderados se fueron convirtiendo en conservadores.

A medida que los burgueses moderados se retiraron de la alianza, los Trabajadores y los Burgueses Radicales quedaron solos frente a la unión de las antiguas fuerzas aristocráticas y la burguesía conservadora. Las revoluciones de 1848 fueron derrotadas porque los Partidos del Orden se impusieron sobre la Revolución Social.

Los trabajadores habían luchado no sólo por el Derecho al Voto para todos los ciudadanos, sino también por reformas en la organización de la economía y la sociedad que mejoraran sus condiciones de vida. Ante las demandas de los obreros, la Baja Burguesía Liberal y Moderada consideraron que la propiedad privada estaba en peligro y se aliaron nuevamente con la Alta Burguesía.

Luego de la experiencia vivida, los Gobiernos Conservadores que retomaron el poder se propusieron poner en práctica muchos de los principios del liberalismo económico, jurídico y cultural.

Entre 1848 y 1849, los conservadores habían comprendido que la Revolución era peligrosa y que las demandas más importantes de los radicales y obreros -especialmente las económicas— podían satisfacerse a través de Reformas. De esta manera, las “reformas económicas” reemplazaron a la “revolución”, y la Burguesía dejó de ser una fuerza revolucionaria.

A pesar de que en 1848, en Francia, la Revolución había terminado con la derrota de los obreros, la gran movilización de trabajadores -entre otras razones- impidió la limitación del Sufragio.

En noviembre de 1848, la elección del nuevo presidente de la República Francesa se hizo por Sufragio Universal. Los franceses no eligieron a un candidato moderado, pero tampoco a un radical. El ganador fue Luis Napoleón Bonaparte.

Para los gobiernos europeos, la elección de Luis Napoleón hizo evidente que la “Democracia de sufragio universal” —la institución que se identificaba con la Revolución— era compatible con el mantenimiento del orden social.

La democracia liberal.

Durante la primera mitad del siglo XIX, muchos pensadores y gobernantes de Europa Occidental estaban convencidos de que, en las sociedades de su época, el desarrollo del Capitalismo y el establecimiento de la Democracia de Sufragio Universal eran objetivos incompatibles.

Y en esta afirmación coincidían, por ejemplo, pensadores liberales que representaban el punto de vista de los burgueses —como el francés Alexis de Tocqueville y el inglés John Stuart Mill— y un pensador socialista que representaba el punto de vista de los trabajadores, el alemán Karl Marx.

El desarrollo del Capitalismo había generado una multitud de trabajadores pobres que, paulatinamente, se iban transformando en la mayoría de las poblaciones de las sociedades europeas.

Sobre la base de diferentes argumentos, tanto para Stuart Mill y para Tocqueville como para Marx, el mayor número de los trabajadores pobres era la razón que hacía inconciliables el Capitalismo y la Democracia. Para los liberales, la extensión del Sufragio Universal y al establecer un voto por persona, la política daba lugar al Gobierno de los Trabajadores Pobres que no tenían conocimientos adecuados debido a su falta de Educación formal.

Desde esta percepción de la situación, al carecer de la preparación necesaria para ejercer el gobierno, gobernarían exclusivamente en función de sus intereses, y la democracia dejaría de estar vigente. No obstante, para los socialistas, el gobierno de los trabajadores terminaría destruyendo al Capitalismo.

Sin embargo, el desarrollo del Capitalismo continúa hasta nuestros días aunque desde la segunda mitad del siglo XIX, progresivamente, cada vez fueron más los individuos reconocidos como ciudadanos con derecho a voto.

En la actualidad, en casi todas las sociedades capitalistas son ciudadanos todos los adultos, cualquiera que sea su nivel de riqueza y de instrucción, su ocupación, su raza y su religión.

La Democracia Liberal, fue y es el sistema político que logró e hizo posible la vigencia y la “convivencia pacífica” del Sufragio Universal junto al mantenimiento del Capitalismo como forma de organización de la economía, y de la legitimidad de los reclamos de la sociedad por parte del Estado de los derechos sociales y humanos

.

Fuente Consultada: Historia Europa Moderna Alonso/Elisalde/Vázquez – Revoluciones del Mundo Moderno de Alonso Lazo
Profesora de Historia: Adriana Beresvil

 

La burguesia Industrial Nacimiento Origen y Evolución Resumen

La Burguesía Industrial: Origen y Evolución

La Comuna de París

Revoluciones Liberales

El Cartismo

Revolución de 1830

Esta clase social, cuyo origen se remonta a la Europa feudal, se convirtió en germen de un nuevo mundo con el desarrollo del capitalismo. Dicha transformación culminó entre los siglos XVII Y XIX, por medio de las revoluciones burguesas.

En el mundo moderno de los siglos XVII y XVIII fue cada vez más evidente la relación entre los cambios en la organización económica de una sociedad y los cambios en su organización política.

A lo largo de su historia, cada sociedad va realizando diferentes actividades económicas y el trabajo de los hombres se va organizando en forma también distinta. Siempre, en las sociedades antiguas y también —aunque por medios distintos— en las del mundo moderno, fue necesario que la autoridad política asegurase la realización de las actividades económicas, la producción de un excedente y la acumulación de una parte de las riquezas producidas.

Por esto mismo, los grupos sociales que tienen el poder económico en cada sociedad se proponen asegurar que la autoridad política garantice sus intereses.

A partir del siglo XVII, con el desarrollo de las nuevas actividades económicas, como el comercio y la industria, los burgueses adquirieron poder económico y acumularon riquezas. Por primera vez, tuvo poder económico un grupo social —los burgueses— diferente del que durante siglos ejerció el poder político: la aristocracia terrateniente. Desde entonces, para los burgueses quedó planteada la necesidad de producir cambios en la organización política de la sociedad para asegurar sus intereses económicos.

ORIGEN , FORMACIÓN Y CONSOLIDACIÓN DE LA BURGUESÍA EN EL SIGLO XIX

Su Formación

Originalmente, el término burguesía calificaba tan sólo a los habitantes de las ciudades (burgos) de la plena Edad Media, derivando más tarde hasta englobar a una clase social caracterizada por su actividad económica no agrícola. Para los marxistas, esta clase social era la dominante en el modo de producción capitalista, poseedora de los medios de producción, gracias a lo cual podía acumular las plusvalías generadas por el trabajo asalariado de los proletarios.

La teoría sociológica, desde M. Weber y W. Sombart, contempla a la burguesía como la clase social que, animada de un espíritu nuevo, donde priman el individualismo, el esfuerzo personal, la innovación y el afán de lucro, transforma el mundo feudal en el que nace, hasta lograr la plena implantación del capitalismo y el estado liberal.

De todas formas, esta clase social no constituye un grupo homogéneo, sino se dan grandes diferencias entre una alta burguesía, compuesta por los capitalismo dueños de los medios de producción, que rigen la vida política y económica en estados liberales, y una pequeña burguesía de profesionales liberales, funciona empleados medios y pequeños propietarios y comerciantes que, aunque como muchos rasgos ideológicos y culturales con la anterior, se encuentra mas cerca proletariado por su renta y su posición social y política.

El hecho es que el cono de burguesía es muy amplio, y ha tenido distintos significados y matices a lo largo de la historia, y según las perspectivas desde las que se ha analizado.

Nacimiento y consolidación de la burguesía

Aunque ya en la Antigüedad existieron hombres de negocios dedicados a las, actividades mercantiles y manufactureras y vinculados al mundo urbano, el importante papel de los aparatos públicos en las actividades económicas no solía mucho margen para la iniciativa privada, por lo que no podemos hablar de burguesía propiamente dicha. En Europa occidental, el crecimiento económico y demográfico experimentado a partir del siglo XI permite el asentamiento de una población cada vez más numerosa en las ciudades, tanto antiguas como de reciente fundación (burgos).

Estos burgueses se especializan en actividades artesanas y, cantiles, que pronto les proporcionan una fuerza económica suficiente para presionar sobre los señores feudales, de los que obtuvieron libertades jurídicas, autonomía administrativa y protección para sus actividades. Sin embargo, no consiguieron distinguirse jurídicamente de la mayoría campesina de la población, y el esquema social feudal, basado en la división en tres órdenes o estamentos (nobles, eclesiásticos y trabajadores o estado llano) se mantuvo inalterado.

Esto no impidió que dentro del mismo grupo burgués se produjera una creciente estratificación, sobre todo Partir del siglo XIII, diferenciándose las oligarquías de grandes comerciantes y banqueros que normalmente controlaban los gobiernos municipales, del «común», integrado por artesanos, sirvientes y pequeños comerciantes.

La oposición de intereses entre ambos grupos dio lugar a la aparición de conflictos durante la baja Edad Media. Además, esa oligarquía burguesa se asimila progresivamente a la nobleza terrateniente, cuyo estilo de vida copia y cuyo estatus social codicia.

Desde fines de la Edad Media y durante toda la Edad Moderna, muchas familias burguesas entroncan con la nobleza (mediante matrimonios con familias aristocráticas empobrecidas), o acceden a esa condición mediante la compra de cargos o tierras vinculadas a títulos, convirtiéndose en rentistas y asumiendo los valores conservadores de la clase noble.

otra forma de ascender socialmente era mediante el servicio en la creciente burocracia estatal que las monarquías autoritarias de la Edad Moderna estaban desarrollando Los monarcas preferían emplear en su administración a letrados procedentes de la clase media burguesa, en lugar de a los miembros de la alta nobleza, susceptibles de desafiar su poder.

De todas formas, los burgueses no ennoblecidos siguieron perteneciendo estado llano, y normalmente eran ellos los que acaparaban su representación Cortes y otras instituciones representativas de origen medieval, a las que los rey Antiguo Régimen recurrían lo menos posible, sólo cuando estaban necesitados financiación extraordinaria.

La expansión mercantil europea desarrollada a partir del siglo XVI, con el descubrimiento y colonización de nuevos y vastos territorios ultramarinos y la apertura nuevos mercados, proporcionó unas inmensas posibilidades de enriquecimiento burguesía. Pero el mantenimiento de las estructuras tradicionales le impedía un papel social y político acorde con su poder económico.

A partir del siglo XVI sé produjo también un cambio de mentalidad, con la difusión de nuevas ideas: el humanismo, el racionalismo e incluso la ética protestante (especialmente en su versión calvinista), transformaciones ideológicas, filosóficas y culturales que encuentra culminación en la Ilustración, que tuvo en la burguesía a su principal valedora beneficiaria. Se santificó el afán de lucro y el éxito en los negocios, como signo del divino y como contribución a la prosperidad general. El individualismo y la igualdad entre los hombres se elevaron a la categoría de dogmas, contradiciendo el si de privilegios estamentales que impedía a la burguesía desempeñar un pape destacado en la vida pública.

Por último, el apoyo al progreso científico y técnicas a la mentalidad racionalista, también en la economía, se oponían a las viejas estructuras productivas (gremios) y comerciales (mercantilismo), que constituían una para el pleno desarrollo del capitalismo, el nuevo sistema socioeconómico que ido gestando con las actividades de la burguesía.

EL ASCENSO SOCIAL: Uno de los resultados más importantes de la doble revolución de fines del siglo XVIII fue abrir las carreras al talento. Había cuatro caminos (para nada fáciles) para desarrollar estas carreras.

• El estudio universitario permitía iniciar un ascenso en la sociedad de la época. Sin embargo, la educación no era generalizada y, por lo tanto, no estaba al alcance de todos y no generó la sociedad abierta que todos esperaban. Al contrario, surgió una sociedad cerrada en la cual se conformó una élite intelectual y profesional. Pero para aquellos que alcanzaban la educación universitaria -médicos, abogados, ingenieros, arquitectos, profesores, funcionarios de carrera, sacerdotes y pastores religiosos- estaba garantizada cierta reputación social, bienestar económico e incluso la posibilidad de acceder al poder político.

• La carrera de los negocios era el camino de ascenso social por excelencia en una economía abierta y en rápida expansión. Era también la vía más limitada y minoritaria, pues no cualquiera podía acceder al mundo de los negocios: exigía condición mental, sentido de la oportunidad y, por supuesto, recursos económicos, requisitos que la mayoría no poseía. No todos podían seguir el camino de Robert Peel.

• El ejército ofrecía la más vieja de las carreras abiertas al talento. En sus filas habían progresado socialmente muchos hijos de campesinos y pobres urbanos que obtuvieron -cuando sobrevivieron a las guerras- un prestigio social y una posición económica que de otra manera habría sido impensable. Esta vía de ascenso social se había potenciado después de la Revolución Francesa y durante las guerras napoleónicas, pero se redujo sensiblemente durante el período de paz.

• El arte era el cuarto camino de reconocimiento social. Escritores, pintores, actores, músicos y cantantes gozaban -en un mundo de valores burgueses- del prestigio que otorgaba el solo hecho de poseer talento, un atributo que en las sociedades nobiliarias y aristocráticas era escasamente tenido en cuenta.

Las revoluciones burguesas (más en este sitio)

Todas esas estructuras económicas y sociales anticuadas encontraban su mar expresión en el sistema político de las monarquías absolutistas. La burguesía utilizaba, en su beneficio el descontento de gran parte del estado llano, el estamento no privilegiado, que incluía desde los más pobres jornaleros hasta los banqueros o comerciantes más ricos.

La serie de revoluciones iniciada en Inglaterra (1642-48 y 1688) Norteamérica (1773-83) y Francia (1789), y extendida durante el siglo XIX al re Europa, significó la abolición del Antiguo Régimen y la instauración del estado General burgués, la sociedad de clases y el capitalismo industrial.

Esta transformación social, económica y política sirvió especialmente a los intereses de la gran burguesía capitalista, convertida en clase dominante. En efecto, la revolución Industrial iniciada en la segunda mitad del siglo XVIII en Inglaterra había lugar al desarrollo de un nuevo sector económico.

Los capitales acumulados por el comercio fueron invertidos en las nuevas fábricas, donde se empleaba a la mano de obra que una transformación agraria orientada al mercado había dejado sin tierras y si bajo. La nueva economía industrial, cuyos medios de producción están en manos de la burguesía capitalista, se transforma en el motor del desarrollo de los estados occidentales.

El poder económico se convierte en la pauta que marca las divisiones y jerarquías de la nueva sociedad de clases. Se produce entonces la clara separación la burguesía y las clases trabajadoras, que no tienen acceso a los bienes de producción ni al reparto de la riqueza generada por su trabajo. La recompensa que obtiene el proletariado por haber apoyado las revoluciones burguesas es el pago de un salario por su trabajo, privado de voz en los mecanismos económicos y políticos.

El fin de la burguesía revolucionaria

A partir de ese momento, la antigua burguesía revolucionaria se convierte en una clase conservadora. Se priman los valores del orden (además de los de la familia, el trabajo y el ahorro), se defiende a ultranza la propiedad privada, y se intenta restringí acceso de las clases populares al poder político (sufragio censatario).

De vez en cuando, la presión popular en los movimientos revolucionarios (Babeuf en 1797, las revoluciones de 1848, la Comuna de París de 1871), y corrientes como el socialismo intentan despertar la conciencia de clase del proletariado y organizarlo para luchar por mejorar su posición.

Ante esto, la burguesía responde con concesiones que intentan integrar a las clases populares en el sistema, instaurando el sufragio universal, extendiendo su ideología mediante la educación nacional, y creando el mito según el cual, en una sociedad de clases «abierta», cualquier individuo es capaz, por mérito esfuerzo, de mejorar su condición.

En el siglo XX, la evolución económica y social de los países más desarrollados ha dominado la aparición de una amplia clase media o pequeña burguesía, que no está definida tanto por la propiedad de los medios de producción como por su formación cultural y técnica, que le permite desempeñar los puestos intermedios de la administración pública y empresarial. Por otro lado, se ha producido también una elevación del nivel de vida y formación de las clases trabajadoras, cuyos miembros más cualificados se confunden con los estratos inferiores de la clase media («aburguesamiento» de la clase obrera).

Al mismo tiempo, la difusión de unos hábitos culturales y de consumo homogéneos por parte de los medios de comunicación ha propiciado aparición de una «sociedad de masas» o de consumidores, que pretende desdibujar las fronteras entre clases.

El Antiguo Régimen

Crisis del Antiguo Régimen