Armas de la Segunda Guerra Mundial

Biografia de Woodrow Wilson:Politico Presidente de EE.UU.

Biografia de Woodrow Wilson-Politico Presidente de EE.UU.

Su figura y su obra están demasiado próximas a nosotros para que puedan ser juzgadas con imparcialidad y justicia.

En 1918-1919 se le consideró como el salvador del mundo, el feliz arbitro que pondría término para siempre a las guerras y a las discordias.

Woodrow Wilson
Thomas Woodrow Wilson fue un político y abogado estadounidense, vigésimo octavo presidente de los Estados Unidos, que asumió el cargo desde 1913 a 1921.
Fecha de nacimiento: 28 de diciembre de 1856, Staunton, Virginia, Estados Unidos
Fallecimiento: 3 de febrero de 1924, The President Woodrow Wilson House, Washington D. C., Estados Unidos
Mandato presidencial: 4 de marzo de 1913 – 4 de marzo de 1921
Ocupación: Academia (científica política), abogado

En 1935, ante el fracaso de Versalles, muchos le reputaban como un ideólogo y un soñador a quien el Destino habría favorecido conservándole en su cátedra de Historia y Economía de la universidad de Princeton, en lugar de haberle elevado a la presidencia de los Estados Unidos y al puesto más preeminente de la Conferencia de la Paz.

Realmente, la personalidad de Wilson se une de modo indisoluble al fin de la guerra de 1914 a 1918 y a los tratados de Versalles, de los que dio la orientación general en sus famosos Catorce Puntos, que tantas ilusiones hicieron nacer en todos los pueblos del mundo.

De los hechos hasta hoy conocidos, no parece que Wilson pueda reputarse como un político de primera fuerza ni un pensador original y poderoso.

Pero es indudable que fue un hombre colmado de las mejores intenciones.

Descendiente de inmigrados escoceses, Tomás Woodrow Wilson nació en Staunton, en el estado de Virginia, el 28 de diciembre de 1856.

En 1875 ingresó en el colegio de Princeton, en el que se graduó cuatro años más tarde.

Estudió leyes en la universidad de Virginia y ejerció como abogado en Atlanta.

Pero atraído por los estudios históricos y políticos, completó su formación en este aspecto en la universidad Johns Hopkins, en la que se doctoró en 1886.

Después de actuar como profesor en los colegios Bryn Mawr y Wesleyan (1886-1890), fue nombrado catedrático en la facultad de Princeton.

En la enseñanza y en las publicaciones, distinguióse por la claridad de su exposición y la amenidad de su estilo, aunque no por la profundidad de su erudición o de su pensamiento.

En 1902 fue elegido rector de su facultad, en cuyo cargo1 desarrolló gran actividad en sentido reformista.

Esto le valió la simpatía de los elementos demócratas, los cuales le presentaron como candidato al cargo de gobernador del estado de Nueva Jersey (1910).

Wilson triunfó en las elecciones.

Como gobernador emprendió una serie de reformas sobre la instrucción pública y la purificación de la vida política.

Su rectitud y honestidad se hicieron famosas, por lo que los demócratas decidieron presentarlo como candidato a las elecciones presidenciales (1912).

Su propaganda electoral, basada en la sublimación de los intereses nacionales y en la lucha contra las apetencias de los grandes oligarcas, despertó gran eco entre las masas populares.

Wilson fue elegido presidente en noviembre de 1912, aunque por una minoría reducida.

Su gestión presidencial se inició el 4 de marzo de 1913.

A pesar de la oposición de los republicanos, hizo aprobar varias leyes de reforma sobre la administración, las aduanas y los trusts.

Se proclamó partidario de mejorar las relaciones con las naciones hispanoamericanas, y al estallar la guerra en Europa (1914) proclamó la neutralidad de los Estados Unidos.

Esta se vio cada vez más amenazada por las violaciones de los dos bandos en pugna.

Reelegido en las elecciones de 1916, Wilson se decidió a declarar la guerra a las potencias centrales debido a la campaña submarina desencadenada por Alemania.

Al cargar en su platillo de la balanza el peso de la formidable organización material de los Estados Unidos, el presidente lo hizo con la convicción de que, después de la guerra, se podría concertar una paz permanente.

Para prepararla esquematizó su pensamiento en los catorce puntos del mensaje comunicado al Congreso el 8 de enero de 1918. Su propuesta despertó un entusiasmo innegable y a ella se adhirieron las potencias aliadas.

Depuestas las armas por Alemania en noviembre de 1918, Wilson se trasladó a Europa a principios del mes siguiente.

Pero su política estaba de antemano condenada al fracaso, como resultado de las elecciones norteamericanas que habían tenido lugar en el mismo mes del armisticio y habían dado gran ventaja a los republicanos en el Congreso federal.

Sin embargo Europa lo recibió con ovaciones delirantes.

En la Conferencia de la Paz, ante las realidades de la vida del continente, Wilson elaboró una fórmula híbrida que no satisfizo a los vencedores ni a los vencidos.

Durante aquel período trabajó con un entusiasmo ciego, hasta comprometer gravemente su salud.

A su regreso a los Estados Unidos (1919), el Senado se opuso a la politica presidencial, en particular en el extremo referente a la creación de la Sociedad de Naciones.

Para defenderle Wilson cometió el error de involucrar en el asuntos los demás capítulos del tratado de Versalles.

Quiso apelar al pueblo e inició una gran campaña de propaganda, en cuyo transcurso sufrió un ataque de parálisis.

Cesó en el cargo presidencial en marzo de 1921 y murió tres años después, casi olvidado, en Wáshington el 3 de febrero de 1924.

Fuente

OTRAS BIOGRAFIAS PARA INFORMARSE:
Biografia de Edouard Manet
Biografia del Papa Pio XI
Biografia de Papa Pio X
Biografia de Benedicto XV
Biografia de Foch Ferdinand
Biografia de Hindenburg Paul Von
Biografia de Guillermo II de Alemania
Biografia de Eduardo VII de Inglaterra

Historia de la Conquista del Aire: Breve Descripción de su Evolución

HISTORIA DE LA CONQUISTA DEL AIRE

Durante mucho tiempo el hombre estuvo «atado» a la superficie terrestre. Apenas tenía algún conocimiento de lo que había unos pocos centímetros bajo el suelo o unas pocas brazas bajo las olas, y nunca se había remontado por el aire.

Sabemos que en épocas remotas miraba las aves y deseaba haber tenido la posibilidad de seguirlas. Un salmo de David dice: «¡Oh, si tuviera alas como la paloma!» Los griegos tenían también una leyenda referente a Dédalo e ícaro, padre e hijo, quienes se fabricaron alas y volaron sobre el Mediterráneo. Dédalo llegó a salvo, pero Ícaro voló muy cerca del Sol y como las plumas de las alas estaban unidas con cera, ésta se derritió e ícaro cayó.

Dédalo cae al mar al derretirse sus alas de cera

No es posible recordar aquí más que a unos pocos de esos hombres temerarios que surcaron por primera vez el espacio. Hacia fines del siglo xv, Leonardo de Vinci, el gran pintor, arquitecto y científico, planeó una máquina para volar, pero no había entonces los medios para fabricarla.

maquina voladora de Leonardo Da Vinci

Desde esta época no hubo sino teorizadores extravagantes hasta que el cerrajero Besnier efectuó, en 1678, la primera experiencia de vuelo humano con ciertas alas que se construyó al efecto. Sólo en 1783 dos hermanos franceses, Joseph y Jacques Montgolfier, fabricaron un globo grande, lo llenaron de aire caliente para darle la posibilidad de elevarse y realizaron en él el primer vuelo. No había instrumento alguno que permitiera dirigir el globo, de manera que una vez en el aire éste quedaba a merced de los vientos. En el mismo año, el profesor Charles inventó el globo de hidrógeno.

globo aerostatico de los hermanos Montgolfier

Fue más de un siglo después, en 1906, cuando el inventor alemán, Conde de Zeppelin, logró hacer una enorme nave aérea en forma de cigarro, la que inflada con hidrógeno era más liviana que el aire y podía ser dirigida.

dirigible zepellin

Desde 1842 se sucedieron durante unos 60 años ensayos de planeadores, entre los cuales los más importantes fueron los del infortunado alemán Otto Lilienthal.

Éste, en numerosos viajes realizados en planeadores con alas de madera, vela y cuerda, resolvió importantes problemas de estabilidad, hasta que en 1896 perdió la vida, a los 48 años, a raíz de un accidente.

Otto Lilienthal

En este siglo, dos hermanos estadounidenses, Wilbur y Orville Wright, comenzaron los experimentos en planeador en Carolina del Norte. Inventaron un medio para dirigir el artefacto y más tarde agregaron un motor de nafta en él. El 17 de diciembre de 1903 realizaron el primer vuelo en aeroplano de motor.

primeras experiencia de los hermanos Wright

Desde entonces, la aviación avanzó a grandes pasos. El 25 de julio de 1909, Louis Bleriot cruzó el Canal de la Mancha, desde Calais a Dover, en un monoplano y dio la primera prueba de que la aeronáutica motorizada tenía un gran porvenir.

Bleirot cruza el canal de la mancha

Durante la Primera Guerra Mundial, lamentablemente, el aeroplano se convirtió en un formidable instrumento para la guerra; pero, por lo menos, esto demostró que la aviación no era una simple fantasía.

Cuando el conflicto terminó, muchos de los pilotos que habían participado en él se convirtieron en pioneros de la aviación civil.

En 1919, Alcock y Brown realizaron el primer cruce aéreo del Atlántico, en 16 horas, y, en 1927, Charles Lindbergh hizo el primer vuelo desde Nueva York a París, en menos de 34 horas.

Charles Lim

Charles Lindbergh

Desde 1920, la conquista del aire se centró casi enteramente en los aviones de motor. Antes de los comienzos de la Segunda Guerra Mundial, se habían ya establecido servicios para pasajeros en poderosos aviones cuatrimotores e hidroplanos en todos los continentes.

En 1939 volaron los primeros aviones de retropropulsión —invención de sir Frank Whittle— y hoy las líneas aéreas de aviones supersónicos realizan vuelos regulares llevando a cientos de pasajeros a través de los océanos y uniendo los continentes en pocas horas.

Un tipo de avión muy utilizado por su facilidad de despegue y descenso en lugares pequeños es el helicóptero, ya usado para tareas de rescate en el mar y para salvar pequeñas distancias como correo aéreo.

Pioneros de la Aviación

Historia de la Aeronáutica Comercial

Argentina: Primeros Aviones de Guerra

Fuente Consultada:
Cielo y Tierra Nuestro Mundo en el Tiempo y el Espacio Globerama Edit. CODEX
Enciclopedia Electrónica ENCARTA Microsoft

Las Matanzas Mas Importantes de la Historia – Tabla de Fallecimientos

Las Matanzas Mas Importantes de la Historia

CUADRO DE CANTIDAD DE MUERTES EN LOS CONFLICTOS BÉLICOS HISTÓRICOS
1Segunda Guerra Mundial (1939-1945) 66.000.000
2Gengis Kan (1206-1227)
Mao Tsé Tung (1949-1976)
40.000.000
40.000.000
3Hambrunas en la India británica (siglos XVIII-XX) 27.000.000
4La caída de la dinastía Ming (1635-1662) 25.000.000
5Rebelión Taiping (1850-1864)
Joseph Stalin (1928-1953)
20.000.000
20.000.000
6Comercio de esclavos en Oriente Medio (siglo VII-XIX)18.500.000
7Timur (1370-1405)17.000.000
8 Comercio de esclavos en el Atlántico (1452-1807) 6.000.000
9Conquista de América (después de 1492)
Primera Guerra Mundial (1914-1918)
15.000.000
15.000.000
10Revuelta de An Lushan (755-763) 13.0000.000
 11Dinastía Xin (9-24)
Estado Libre del Congo (1885-1908)
10.000.000
10.000.000
 13Guerra civil rusa (1918-1920)9.000.000
1417.  Guerra dE los Treinta Años (1618-1648)
La caída de la dinastía Yuan (c. 1340-1370)
7.500.000
7.500.000
 15La caída del Imperio Romano de Occidente (395-455)
Guerra civil china (1927-1937,1945-1949)
7.000.000
7.000.000
 16Revuelta del Mahdi (1881-1898)5.500.000
17Período umultuoso (1598-1613)5.000.000
18Aurangzeb (1658-1707)4.600.000
1924.   Guerra de Vietnam (1959-1975)4.200.000
2025.  Los Tres Reinos de China (189-280)4.100.000
 2126.   Guerras napoleónicas (1792-1815)4.000.000
22 27.   Segunda guerra del Congo (1998-2002)3.800.000
 2328.  Juegos de gladiadores (264 a. C.-435 d. C)
Guerra de los Cien Años (1337-1453)
3.500.000
3.500.000
 24Cruzadas (1095-1291)
Guerras de religión francesas (1562-1598)
Pedro el Grande (1682-1725)
Guerra de Corea (1950-1953)
Corea del Norte (después de 1948)
3.000.000
3.000.000
3.000.000
3.000.000
3.000.000
25Guerra de Sudán (1955-2003)2.600.000
 26 Expulsión de los alemanes de Europa oriental (1945-1947)2.100.000
27 Rebelión de Fang La (1120-1122)
Mengistu Haile (1974-1991)
2.000.000
2.000.000
 28 Kampuchea Democrática (1975-1979)1.670.000
29 Período de los Estados Combatientes (c. 475-221 a. C.)
Guerra de los Siete Años (1756-1763)
Shaka (1818-1828)
Genocidio de Bengala (1971)
Guerra de Afganistán (1979-1992)
1.500.000
1.500.000
1.500.000
1.500.000
1.500.000
30 Guerra de sucesión española (1701-1713)1.250.000
31Sacrificios humanos de los aztecas (1440-1521) ….  1.200.0001.200.000
 32Qin ShiHuang Di (221-210 a. C)
Guerras romanas de esclavos (134-171 a. C.)
La caída de los mayas (790-909)
La cruzada albigense (1208-1229)
Rebelión Panthay (1855-1873)
Revolución mexicana (1910-1920)
Guerra de Biafra (1966-1970)
1.000.000
1.000.000
1.000.000
1.000.000
1.000.000
1.000.000
 33 Genocidio de Ruanda (1994)937.000
 34 Guerras de Birmania-Siam (1550-1605)900.000
35 Invasión de Hulagu (1255-1260)
Guerra civil de Mozambique (1975-1992)
800.000
800.000
 36Conquista de Argelia por los franceses (1830-1847)775.000
37Segunda guerra púnica (218-202 a. C.)770.000
38Justiniano (527-565)
Guerra entre Italia y Etiopía (1935-1941)
750.000
750.000
39Guerra de las Galias (58-51 a. C.)
Conquista china de Vietnam (1407-1428)
Guerra Irán-Irak (1980-1988)
700.000
700.000
700.000
 40 Guerra civil americana (1861-1865)695.000
41 Rebelión Hui (1862-1873)640.000
 42 Guerras de Goguryeo-Sui (598 y 612)
Guerra sino-dzungar (1755-1757)
600.000
600.000
43 Guerra de independencia de Argelia (1954-1962) 525.000
 44 Alejandro Magno (336-325 a. C.)
Guerra Bahmani-Vijayanagara (1366)
Guerra ruso-tártara (1570-1572)
Guerra de sucesión austríaca (1740-1748)
Guerra ruso-turca (1877-1878)
Partición de la India (1947)
Guerra civil de Angola (1975-1994)
Guerra de Uganda (1979-1986)
El caos de Somalia (desde 1991)
500.000
500.000
500.000
500.000
500.000
500.000
500.000
500.000
500.000
 45Guerra de la Triple Alianza (1864-1870)480.000
46 Guerra civil española (1936-1939)440.000
47 Guerra franco-prusiana (1870-1871)435.000
 48Primera guerra púnica (264-241 a. C.)
Tercera guerra mitridática (73-63 a. C.)
Invasión de Irlanda por Cromwell (1649-1652)
Guerra de independencia mexicana (1810-1821)
Revuelta de esclavos de Haití (1791-1803)
Guerra greco-turca (1919-1922)
Purgas en Indonesia (1965-1966)
400.000
400.000
400.000
400.000
400.000
400.000
 49Guerra de Indochina francesa (1945-1954).393.000
 50Gran Guerra Turca (1682-1699)374.000
 51Gran Guerra del Norte (1700-1721)370.000
52Posguerra de Vietnam (1975-1992)365.000
 53Revolución cubana (1895-1898)360.000
 54Sanciones contra Irak (1990-2003)
Guerras judeo-romanas (66-74,132-135)
350.000
350.000
 55Segunda guerra médica (480-479 a. C.)
Guerra de los aliados (91-88 a. C.)
Guerra de Crimea (1854-1856)
Idi Amin (1971-1979)
Saddam Hussein (1979-2003)
300.000
300.000
300.000
300.000
300.000

Fuente Consultada:
El Libro Negro de la Humanidad Grandes Atrocidades de la Historia Matthew White

Aviones Convertibles Historia de los Primeros Modelos y Tipos

Aviones Convertibles Primeros Modelos y Tipos

INTRODUCCIÓN: El día 2 de noviembre de 1954 constituye un hito en la historia del aeroplano. Dicho día, en la base de pruebas de la casa Convair, el piloto J. K. Coleman realizó el primer vuelo en un avión que despegó verticalmente desde su posición de partida, basculó en el aire, voló horizontalmente a más de 800 kilómetros por ahora y aterrizó de nuevo en posición vertical hasta quedar apoyado sobre la cola.

El Faire-Rotodyne, convertible para pasajeros, de velocidad superior a los 300 kilómetros por hora.

El avión era un monoplano de ala en delta Corvair XFY-1 equipado con un turbopropulsor Allison de 5.500 HP. Dos hélices tripalas contrarrotativas proporcionan, junto con el empuje del chorro del reactor, la fuerza de sustentación necesaria para el despegue vertical. Se trata de un nuevo tipo de avión, que los norteamericanos designan VTOL (Vertical Take oíi Landing: despegue y aterrizaje vertical) y que en Europa se conoce por «convertible».

En el año 1950, con ocasión de la guerra de Corea, el Gobierno de los Estados Unidos se dio cuenta de la necesidad de disponer de aviones de caza capaces de despegar en cualquier clase de terreno, sin necesitar aeródromos y pistas de aterrizaje.

En efecto, el peso cada vez mayor de los aviones de caza obligó a hacer pistas y campos de aterrizaje de mayor extensión y resistencia, y, por otra parte, el terreno montañoso no ofrecía lugares a propósito para la instalación de tales campos y pistas. Asimismo había que pensar en aviones de caza capaces de despegar de la cubierta de los buques de guerra y de transporte y que pudiesen aterrizar de nuevo en ellos, evitando tener que acompañar las escuadras y convoyes con costosos y vulnerables portaaviones.

A partir de dicho año los proyectos se suceden, la mayoría irrealizables por fantásticos; pero algunos ofrecen posibilidades constructivas, y al cabo de cuatro años se consigue que vuele el primer «convertible».

Qué se entiende por avión convertible:

Un avión convertible es un avión capaz de despegar y aterrizar como un helicóptero, es decir, verticalmente, y una vez alcanzada la altura suficiente, volar como un avión.

Aunque el helicóptero resuelve muchos problemas, como son los del salvamento en zonas difíciles de acceso, vigilancia y enlace, así como transporte del aeropuerto al centro urbano y de ciudad a ciudad con helicopuertos centrales, las misiones de tipo militar, en campaña, quedan limitadas en estos aparatos por su reducida velocidad.

En dos décadas de desarrollo el helicóptero sólo ha alcanzado una velocidad máxima de 251 kilómetros por hora (récord mundial, septiembre de 1953, helicóptero Sikorsky XH-39, piloto Wester, de los Estados Unidos), y no es previsible ni probable que llegue a alcanzar nunca las velocidades sónicas, ya alcanzadas y hasta rebasadas por algunos tipos de aviones de caza.

El 5 de enero de 1959 el Fairey-Rotodyne, primer convertible comercial para pasajeros, ya logró alcanzar en sus vuelos de ensayo los 307 kilómetros por hora sobre un circuito de 100 kilómetros, batiendo con ello la marca de velocidad máxima alcanzada por los helicópteros.

Si motivos militares son los que han impulsado el rápido desarrollo del convertible, no debe olvidarse el problema de la seguridad, que queda ampliamente resuelto con este tipo de avión. Por consiguiente, no deberá extrañar que, una vez puestos a punto los convertibles militares, se construyan paralelamente los convertibles civiles, tanto para el transporte de viajeros como para el turismo o el avión particular.

Tipos de aviones convertibles:

Los convertibles se clasifican en tres grandes grupos:
1.° Los que disponen de rotores, hélices o reactores distintos para la sustentación como helicópteros y para la propulsión como aviones.
2.° Los que tienen un mismo rotor, hélice o reactor para la sustentación y la propulsión, y el eje del propulsor ha de girar 90° al pasar de una a otra clase de vuelo.
3.° Los que se sustentan y avanzan sobre una columna de aire creada por sus elementos propulsores. Son las plataformas volantes.

En el primer grupo, los aparatos reúnen las características del helicóptero combinadas con las del aeroplano: alas y hélices o reactores de avión para el vuelo horizontal, y rotor de helicóptero o reactores para el vuelo vertical. La ventaja principal de estos convertibles estriba en la seguridad de su pilotaje, ya que el paso de vuelo helicóptero al vuelo avión es continuo, conservando siempre el mando del aparato. El grupo primero se subdivide en tres subgrupos:

a)    Los convertiplanos cuyo rotor de despegue se para en el vuelo horizontal, de manera que las palas ofrezcan una resistencia mínima al avance.
b)    Los convertiplanos en que las palas del rotor de sustentación vertical se colocan de manera que en vuelo horizontal actúan como las alas fijas de los aviones normales.
c)    Los combinados de avión y helicóptero, es decir, los helicoplanos o helicópteros combinados, con fuselaje y alas de avión provisto de rotores sustentadores.

Entre los proyectos correspondientes al grupo primero, subgrupo a), destaca el convertiplano de Wilford, con rotor monopala contrapesado, de propulsión por reacción, a tase de chorro de gases comprimidos por el motor y eyectados e inflamados en el extremo acodado de la pala.

En el subgrupo b) merece citarse el convertiplano de Herrick, HV-1, que realizó sus primeros ensayos en 1931, prosiguiendo sus estudios en años posteriores (el HV-2 voló en 1937).

avion convertible herridyne

Modelo norteamericano «Helidyne», convertible, con dos rotores coaxiles y dos motores para vuelo horizontal. Ofrece, en su conjunto, las ventajas del helicóptero, el autogiro y del avión clásico.

Convertiplano de Herrick. Es un biplano con una ala fija y otra giratoria, a voluntad, dotada de turborreactores en sus extremos. Para el despegue y aterrizaje el plano superior actúa como un rotor de helicóptero; este rotor se convierte en plano cuando navega en vuelo horizontal.

El subgrupo c) está formado por los helicópteros «combinados», de los cuales constituye un precursor el autogiro español La Cierva, cuyos primeros vuelos datan del año 1923. El notable ingeniero Juan de la Cierva, con su revolución genial de la articulación de las palas del rotor y el descubrimiento del fenómeno de autogiración, hizo posible el desarrollo posterior del helicóptero y, como consecuencia, el del convertiplano.

Como se sabe, el autogiro primitivo era un avión de alas reducidas en las que una hélice tractora proporcionaba la velocidad suficiente para que el rotor entrase en autogiración, suministrando la fuerza de sustentación necesaria al vuelo. El rotor permitía una velocidad de vuelo muy reducida y el aterrizaje prácticamente vertical, y en los últimos modelos se lograba el despegue vertical acelerando el rotor mediante una transmisión desde el motor.

Soluciones parecidas, aunque no pueden clasificarse   estrictamente   como  convertibles,   son:

El «helicoplano» Hamilton, que se ensayó en los Estados Unidos en 1929, formado por un avión monoplano de ala alta Hamilton con dos hélices de eje vertical de 5,50 metros de diámetro situadas bajo el ala y a ambos lados del fuselaje.

Tipo de avión convertible que despega sobre un trípode, proyectado por L. H. Leonard. Una vez que el aparato ha despegado, gira sobre sí mismo un ángulo de 90 grados, las aletas estabilizadores se reducen por retracción (alas delanteras) y el aparato queda convertido en un cigarro puro volante de grandes alas.

El «giróptero» del francés Chauviére, construido en 1929, provisto de rotor sustentador y hélice tractora.El «clinógiro» de Odier Bessiére, ensayado en Francia en 1932, no es más que un monoplano Caudron 193, con motor de 95 HP, al que se le ha añadido una ala superior giratoria formada por un rotor de cuatro palas. Un proyecto posterior de A. Flettner prevé un avión clásico con cuatro hélices verticales para asegurar despegue y aterrizaje verticales.

Entre los «combinados» modelos pueden citarse los siguientes:

El helicóptero birrotor americano de la «Gyro-dyne Co.» Helidyne 7 A, con alas fijas reducidas de avión y dos motores con hélices propulsoras que le permiten volar a 140 kilómetros por hora con una carga útil de 1.340 kilogramos. Se trata de una adaptación del helicóptero Bendix. Sus primeros vuelos tuvieron efecto en noviembre de 1949. Un nuevo tipo, el Helidyne, destinado al transporte militar, presenta un peso en vuelo de 11.300 kilogramos.

Parecido a éste es el aparato experimental francés Farfadet SO-1310, helicóptero con un rotor de reacción a base de aire comprimido suministrado por una turbina «turbomeca» de 260 HP y alas fijas de superficie reducida, así como una hélice tractora accionada por una segunda turbina. En vuelo horizontal el rotor entra en autogiración. Sus ensayos dieron comienzo en el año 1953.

El Fairey-Rotodyne, que ya se ha citado, corresponde a este subgrupo.
En el grupo segundo, convertiplanos de rotor sobre eje que bascula en 90° para pasar del vuelo vertical al horizontal, también se distinguen dos subgrupos:

a)    Convertiplanos en que el rotor y el fuselaje basculan simultáneamente al pasar del vuelo en helicóptero a vuelo en avión, o sea eje del rotor invariable respecto al fuselaje.

b)    Convertiplanos con rotores o reactores de eje basculante respecto al fuselaje que permanece siempre en posición horizontal.

Los aparatos correspondientes al grupo segundo se caracterizan por tratarse en general de aparatos de alas fijas cuyas hélices son de diámetro mucho mayor al que normalmente sería necesario para el vuelo horizontal. En efecto, en este tipo de convertiplano las hélices, que trabajan con eje vertical, han de proporcionar la fuerza de sustentación necesaria para elevar vertical-mente el aparato.

El Hillar X-18 Propelloplane, avión convertible de ala basculante que despega en vertical.

Entre los aparatos del grupo segundo, subgrupo a), figuran los primeros convertibles de realización práctica y cuyos vuelos permitirán la solución del problema para los aviones de caza. Es el VTOL Convair XFY-1, ya citado, y otros como el Coleóptero, que más adelante describiremos con mayor detalle.

Este subgrupo a) es mecánicamente el de más fácil realización;  en cambio, presenta  otros inconvenientes que la práctica indicará la forma en que deberán solucionarse. Son éstos la difícil maniobra del paso de vuelo vertical a horizontal, y viceversa, basculando todo el aparato.

El embarco de los tripulantes y del material en el fuselaje en posición vertical tampoco será fácil. Por último, la estabilidad en el momento de aterrizaje si sopla viento algo fuerte parece precaria dada la altura del centro de gravedad con relación a la reducida base de apoyo sobre la cola.

Como primeros proyectos y realizaciones, merecen citarse los siguientes:
El de Focke-Wulf, que durante la segunda Guerra Mundial proyectó un convertible a base de substituir las alas por un gran rotor tripala situado tras la cabina de mando, accionado por estatorreactores en el extremo de las palas. Esto obligaba a utilizar cohetes de despegue. Los empenajes de tipo normal soportaban el tren de aterrizaje, sobre el cual se apoyaba el aparato en posición vertical para el despegue y aterrizaje.

Parecido al anterior, pero más atrevido, es el proyecto de L. H. Leonard, en el cual dos grandes rotores impulsan un fuselaje en cuya proa se halla la cabina de mando y los empenajes, y en la popa el tren de aterrizaje que, replegado en vuelo, se despliega para el aterrizaje vertical sobre la cola.

Un convertiplano correspondiente a este grupo, que fue construido por encargo de la Marina de los Estados Unidos, es el ala volante semicircular «Chance Vought» XFSU-1, de Zimmerman. En los extremos del ala dos grandes hélices tractoras despegaban el aparato colocado en ángulo de 45° y el aterrizaje se efectuaba en un espacio muy limitado, lo que permitía su utilización sobre las cubiertas de los buques. Fue rescindido el contrato de construcción en serie debido a la precaria estabilidad en el aterrizaje, defecto que, como indicamos, es inherente a este grupo.

Los aparatos del grupo segundo, subgrupo b), se reducen en general a aviones clásicos en los que, bien los motores, bien las alas, pueden bascular en 90° para lograr la posición vertical de las hélices.

Entre éstos pueden citarse el Bell XV-3, monoplano bimotor con dos rotores de 7 metros de diámetro en los extremos de las alas, cuyos ejes giran a la posición vertical para el despegue y a la horizontal para la propulsión. En el Bell-VTOL, monoplano de ala alta del año 1955, son los turborreactores situados bajo el ala los que basculan.

Otro tipo interesante de convertiplano es el Hiller X-18 Propelloplane, de 18 toneladas, cuyos primeros vuelos se realizaron en 1958. El ala, que gira solidariamente con los propulsores, colocándose en posición vertical para el despegue y horizontal para el avance, soporta dos turborreactores provistos de hélices contrarrotativas.

Una disposición análoga presenta el Vertol 76, cuyo primer vuelo completo se llevó a cabo el 15 de julio de 1958. El Kaman 16-B es un aparato anfibio construido según las mismas directrices.

Fuente Consultada:
Enciclopedia Cultural UNIVERSITAS Tomo N°17 -Los Aviones Convertibles-

Historia del Exterminio del Pueblo Armenio por Turquia

Historia Exterminio del Pueblo Armenio Turquia

masacres humanas

Las atrocidades cometidas contra el pueblo Armenio por el Imperio Otomano y el Estado de Turquía durante el transcurso de la Primera Guerra Mundial y años anteriores y posteriores a ésta, son llamadas en su conjunto el Genocidio Armenio.

El Genocidio es una forma organizada de matanza de un conjunto de personas con el objetivo explicito de ponerle fin a su existencia colectiva. Esto requiere un planeamiento central y una maquinaria organizada para implementarlo haciendo que el genocidio sea un prototipo de crimen de estado, ya que solo un estado cuenta con los recursos necesarios para llevar a cabo tal destrucción.

El Genocidio Armenio fue planeado y administrado centralmente por el Estado de Turquía contra toda la población Armenia del Imperio Otomano. Fue llevado a cabo durante la Primera Guerra Mundial entre los años 1915 y 1918.

El pueblo Armenio fue sujeto a deportaciones, expropiaciones, secuestros, tortura, masacre e inanición. La gran mayoría de la población Armenia fue forzosamente removida desde Armenia y Anatolia a Siria, donde una gran parte de la población fue enviada al desierto para morir de hambre y sed.

Gran número de Armenios fueron masacrados metódicamente a lo ancho y largo del Imperio Otomano. Mujeres y niños fueron raptados y brutalmente abusados. Toda la riqueza del pueblo Armenio fue expropiada.

Después de menos de un año de calma al final de la Primera Guerra Mundial, las atrocidades contra el pueblo Armenio fueron reanudadas entre 1920 y 1923, donde los restantes armenios fueron victimas de más masacres y expulsiones. En 1915, treinta años antes de que la Organización de las Naciones Unidas adoptase la Convención sobre la Prevención y Castigo de los Crímenes de Genocidio, la comunidad internacional condenaba el Genocidio Armenio como un crimen contra la humanidad.

Fuente Consultada: www.genocidioarmenio.org

Se caracterizó por su brutalidad en las masacres y la utilización de marchas forzadas con las deportaciones en condiciones extremas, que generalmente llevaba a la muerte a muchos de los deportados.

Genocidio Armenio

Causas de la Segunda Guerra Mundial Resumen Origen

Causas de la Segunda Guerra Mundial-Resumen Origen del Conflicto


Causas , Desarrollo y Consecuencias de la Segunda Guerra Mundial Resumen Batallas Hombres PoliticosCausas , Desarrollo y Consecuencias de la Segunda Guerra Mundial Resumen Batallas Hombres PoliticosCausas , Desarrollo y Consecuencias de la Segunda Guerra Mundial Resumen Batallas Hombres Politicos


►Introducción:

La Segunda Guerra Mundial superó claramente a la Primera Guerra, tanto por la duración y la intensidad de los combates como por las pérdidas humanas y los recursos que se utilizaron: participaron 72 Estados, fueron movilizados 110 millones de hombres, el coste económico de la guerra fue cuantiosísimo y hubo más de 40 millones de muertos.

El norte de China, Japón y Europa quedaron devastados y su equipamiento industrial, ferroviario, portuario y viario quedó muy maltrecho.

Además, la Segunda Guerra Mundial tuvo una extensión realmente mundial, ya que se combatió en casi todos los continentes (Europa, Asia, África y Oceanía) y en todos los océanos.

segunda guerra mundial

En el terreno armamentístico, las grandes potencias enfrentadas perfeccionaron y pusieron a punto instrumentos de ataque suficientemente terribles como para destruir a toda la Humanidad.

La aparición de las grandes unidades blindadas, la utilización de los submarinos, de los portaaviones, de los misiles antiaéreos, del radar y de la aviación como recurso habitual para el transporte de tropas y para los bombardeos sobre la población civil, hicieron de este conflicto una verdadera carrera hacia a destrucción.

Finalmente, la explosión de la primera bomba nuclear marcó un hito en la historia del miedo atómico, al demostrar que era posible destruir la humanidad.

La mayoría de los problemas que llevaron a la S.G.M. fueron conflictos que no se habían resuelto en la P.G.M. o que tenían origen en ella.

La humillación de Alemania en el Tratado de Versalles, la crisis económica de los años 30 y el ascenso al poder del nazismo provocaron en este país un sentimiento de revancha que culminó en una actitud agresiva hacia el resto de Europa.

Esta guerra que estalló en 1939 fue el segundo conflicto que, iniciado en Europa, llegó a convertirse en una “guerra total”, porque directamente incluyó a países de otros continentes e influyó indirectamente en los aspectos políticos, sociales y económicos en el resto del mundo, de manera similar como sucediera con el enfrentamiento armado de 1914.

Pero a diferencia de éste, la Segunda Guerra Mundial lite un conflicto de escala mucho más grande y de mayor duración, que se propagó a territorios más extensos y llegó a ser más cruel e implacable.

En su origen, aparte de la rivalidad internacional inherente a todo conflicto de esta naturaleza, intervinieron otros factores relacionados con los eventos ocurridos en el mundo durante los veinte años del periodo de entreguerras.

►Causas o Factores de origen del Conflicto:

En primer lugar, la Segunda Guerra Mundial surgió en función del enfrentamiento entre ideologías que amparaban sistemas político—económicos opuestos.

A diferencia de la guerra anterior, enmarcada en un solo sistema predominante —el liberalismo capitalista, común a los dos bandos—, en el segundo conflicto mundial se enfrentaron tres ideologías contrarias: el liberalismo democrático, el nazi, fascismo y el comunismo soviético.

hitler-musolini

Estos dos últimos sistemas, no obstante ser contrarios entre sí, tenían en común la organización del Estado fuerte y totalitario y el culto a la personalidad de un líder carismático, características opuestas al liberalismo que postula la democracia como forma de gobierno y la libertad e igualdad de los individuos como forma de sociedad.

En segundo lugar estaban los problemas étnicos que, presentes desde siglos atrás, se fueron haciendo más graves al llevarse a efecto las modificaciones fronterizas creadas por el Tratado de Versalles, que afectaron negativamente sobre todo a Alemania y a Austria —naciones pobladas por germanos— y redujeron de manera considerable sus territorios.

Este hecho fue determinante para difundir en esos pueblos el sentimiento de superioridad de la raza germana —identificada por Adolfo Hitler como “raza aria” de acuerdo con una idea desarrollada en la filosofía alemana del siglo XIX— frente a los grupos raciales, principalmente los judíos que controlaban la economía capitalista, y quienes, según la perspectiva de los nazis, habían dividido a los pueblos germanos e interrumpido su desarrollo económico.

tratado de versalles

Por otra parte, la insistencia de Hitler por evitar el cumplimiento del Tratado de Versalles provocó diferentes reacciones entre los países vencedores: Francia, que temía una nueva agresión de Alemania, quería evitar a toda costa que resurgiera el poderío bélico de la nación vecina.

En cambio, el gobierno británico y el de Estados Unidos subestimaban el peligro que el rearme alemán representaba para la seguridad colectiva; consideraban que el Tratado de Versalles había sido demasiado injusto, y veían con simpatía la tendencia anticomunista adoptada por la Alemania nazi, porque podría significar una barrera capaz de detener el expansionismo soviético hacia Europa, calificado entonces por las democracias occidentales como un peligro mayor y mucho más grave que el propio nazismo.

A causa de ese temor al comunismo, el gobierno británico adoptó una política de “apaciguamiento” respecto al expansionismo alemán, bajo la idea de que al hacer concesiones a Hitler podría evitarse una  nueva guerra y se obtendría, además, su colaboración contra el peligro soviético.

En tercer lugar, en la década de los años treinta la situación del mundo era muy distinta a la de 1914.

Aparte de los trastornos ocasionados por la crisis económica iniciada en Estados Unidos, aún persistían los efectos devastadores de la Primera Guerra Mundial, que había producido una enorme transformación en todos los ámbitos de la vida humana y originado grandes crisis en prácticamente todos los países de la Tierra.

crisisi 1929

Además, la secuela de tensiones internacionales que ese conflicto produjo, preparaban el camino para una nueva guerra, no obstante los intentos de la Sociedad de Naciones por evitarla.

Por esta razón, puede decirse que la Segunda Guerra Mundial se originó directamente de la Primera; de ahí que ambos conflictos, enlazados por el periodo de entreguerras, constituyan lo que se considera como la “Segunda Guerra de los Treinta Años” en la historia moderna de la humanidad.

La crisis económica de la década de 1930 había estimulado a Japón a sustituir a Europa en el Lejano Oriente y a construir lo que ellos mismos llamaban «la gran Asia Oriental«, dominada por el nuevo orden japonés. Así, Japón inició una política expansionista que tenía un doble objetivo.

Por un lado, controlar territorios para extraer materias primas y dominar sus exportaciones, y, por otro, reabsorber la crisis industrial mediante los encargos de armamento.

La expansión «pacífica» de los años veinte se convirtió en la década de los treinta en expansión militar, que se inició en 1931 con la invasión de Manchuria, que se convirtió en Manchukuo, un estado satélite del Japón.

La guerra en el Lejano Oriente comenzó, en realidad, en 1937, cuando se generalizó el conflicto chino japonés, y tuvo su momento decisivo en 1941, con el ataque a la base norte-americana de Pearl Harbour.

A semejanza de la Primera Guerra Mundial, la Segunda se presenta en dos fases:

a) desde 1939 a 1941

cuando se desarrolla fundamentalmente en Europa y muestra una orientación favorable a las potencias del Eje;

b) desde 1942 a 1945,

cuando la guerra adquiere dimensiones mundiales y paulatinamente pasa a ser favorables a los países aliados encabezados por Gran Bretaña, EE.UU. y URSS.

►Stalin se une a Hitler:

Hitler invadió Polonia para abrirse paso hacia la Unión Soviética, pero lo hizo sólo después de intentar neutralizar a los polacos a través de negociaciones.

En marzo de 1939, se ofreció para protegerlos de los soviéticos a cambio de la devolución de Danzig (actualmente Gdánsk), separada de Alemania al final de la Primera Guerra Mundial.

Sin embargo, Polonia, desconfiando de sus dos poderosos vecinos, aceptó una oferta de defensa de Gran Bretaña.

Hitler se enojó. Siempre había contado con el consentimiento de Londres en sus planes contra la Unión Soviética.

stalin-hitler

Cuando los británicos establecieron el servicio militar obligatorio se dio cuenta de que debía atacarlos para poder conquistar la URSS. Pero primero quería utilizarla contra Polonia.

Tras revocar sus tratados de 1935 con Polonia y Gran Bretaña, envió al ministro de Asuntos Exteriores, Joachim von Ribbentrop, a Moscú.

Stalin, inseguro acerca de la ayuda de Occidente en caso de un ataque alemán, llegó a un acuerdo con Hitler.

El líder soviético demostró su ansia de entendimiento al destituir a su ministro de Asuntos Exteriores, un judío.

El 23 de agosto el nuevo ministro, Vyacheslav Molotov, se citó con Von Ribbentrop y firmaron un pacto de no agresión ante la sorpresa del mundo, que consideraba al fascismo y al comunismo como enemigos irreconciliables.

La entrada en vigencia del protocolo secreto del tratado causó una sorpresa todavía mayor: en el caso de una «transformación territorial y política» en la región, los alemanes y los soviéticos se repartirían el este de Europa.

Hitler inició esa transformación unos días más tarde. Cuando culminó, la URSS había obtenido los prometidos dos tercios de Polonia como una zona tapón contra la invasión.

Mientras, Alemania contaba con una plataforma de lanzamiento para este mismo propósito.

►El Pacto de Acero

Benito Mussolini se sintió humillado por la victoria sin sangre de Hitler sobre los checos.

Sin disparar un solo tiro, su «alumno» lo había superado como conquistador.

Deseoso de ponerse a su altura, el Duce decidió la anexión
Ligados por el pacto, soldados Italianos y alemanes conversan en Tirana (Albania).

mussolini

de Albania (sobre la que Italia ejercía un dominio de hecho desde 1934).

Sin embargo, la campaña, lejos de ser gloriosa, llevó a Mussolini a una condición todavía más servil hacia el Führer al firmar el tratado de 1939 que Hitler llamó el Pacto de Acero.

El 7 de abril empezó la invasión en forma completamente desorganizada. En vez de entrar en primer lugar en la capital, Tirana, los comandantes italianos se detuvieron a negociar con enviados del rey Zog de Albania.

Mientras, éste huyó a Grecia, se abrieron las prisiones de Tirana y una multitud saqueó la ciudad.

El Consulado italiano envió una llamada de socorro a Roma, que no sirvió de nada.

A pesar de la incompetencia de los invasores y de su falta de equipamiento, los italianos superaron a una resistencia desorganizada.

El 16 de abril, el país se convirtió en una provincia de Italia. Gran Bretaña protestó y Alemania felicitó al Duce.

Convencido de que el Führer era imparable, Mussolini aceptó firmar una alianza formal.

Para Ampliar Esta Información:

Fuente Consultada:  El Mundo Moderno y Contemporáneo de Gloria Delgado

Segunda Guerra Mundial :Resumen de su Desarrollo

Segunda Guerra Mundial Resumen
Etapas del Conflicto


Causas , Desarrollo y Consecuencias de la Segunda Guerra Mundial Resumen Batallas Hombres PoliticosCausas , Desarrollo y Consecuencias de la Segunda Guerra Mundial Resumen Batallas Hombres PoliticosCausas , Desarrollo y Consecuencias de la Segunda Guerra Mundial Resumen Batallas Hombres Politicos


La II Guerra Mundial fue la mayor y peor conflagración militar de la historia.

En ella participaron países de todo el mundo y fallecieron millones de personas.

En cuanto a la cantidad de sangre derramada, la Segunda Guerra Mundial fue el conflicto más horrendo de la historia.

Como en la Primera, murieron más civiles que soldados, unos cincuenta millones de los primeros y unos quince millones de los últimos.

Pero esta guerra mundial, aún más que la anterior, fue una guerra total, en la que poblaciones enteras fueron movilizadas para el combate o la producción militar, y toda la población se convirtió en objetivo de los ataques.

INTRODUCCIÓN AL TEMA:

El germen de la segunda guerra mundial estaba en la primera, en el descontento, la privación y el enconado resentimiento de Alemania, insatisfecha con los términos del tratado de Versalles.

A los alemanes les disgustaba en especial una cláusula de culpabilidad que los responsabilizaba de todo.

Abominaban el haber perdido territorios: Alsacia y Lorena pertenecían ahora a Francia, la región occidental del Rin era zona desmilitarizada, y la mayoría de los dominios coloniales de ultramar habían sido repartidos entre varias potencias.

Las reparaciones en dinero, fijadas en 6.500.000 libras esterlinas, resultaron demasiado elevadas para una nación arrasada por la guerra.

Ruptura del Tratado:

Hitler moviliza su ejército Adolfo Hitler, jefe de un partido político ultranacionalista que había sido nombrado canciller para convertirse luego en dictador de Alemania (a pesar de ser austríaco), rearmó secretamente el país en la década de 1930 y comenzó a movilizar sus tropas, en violación abierta del tratado de Versalles.

Adolf Hitler ocupó la zona desmilitarizada del Rin, anexó Austria y se dirigió a Checoslovaquia.

Consideraba que estaba en su derecho de actuar contra los checos, ya que había logrado un acuerdo con los gobiernos de Italia, Francia y, en especial, Inglaterra, que le permitía extender el dominio alemán a Checoslovaquia.

Pensaba que la gente de habla alemana de la región de los Sudetes, que había sido otorgada a Checoslovaquia después de la primera guerra, debía formar parte del Tercer Reich alemán.

El dictador italiano, Benito Mussolini, cuyo ascenso posterior a la gran guerra había sido similar al de Hitler, arregló una reunión en Munich, en la cual el primer ministro inglés, Neville Chamberlain, dispuesto a hacer concesiones para evitar un conflicto con Alemania, el primer ministro francés, Edouard Daladier, Mussolini y el propio Hitler, pactaron la entrega de Checoslovaquia sin consultar a los checos.

Además Hitler firmó el pacto germano-soviético con José Stalin, el sucesor de Lenin en Moscú.

Ya en posesión de los Sudetes, los nazis se lanzaron luego sobre Polonia, con la idea de repartirse el país con la Unión Soviética.

A las 5:45 h de la mañana del 1º de septiembre, el primero de un contingente de 1.250.000 soldados alemanes invadió Polonia, tras un duro bombardeo aéreo.

Aquellas divisiones armadas y mecanizadas se movían con rapidez, respaldadas por aviones de combate, y pronto avanzaron hacia el este de la frontera germano-polaca y el sur de Prusia Oriental.

El ejército polaco no estaba preparado para este tipo de guerra y halló dificultades para contraatacar.

En unos días, la Luftwaffe tenía el control de los cielos y había inutilizado el sistema ferroviario polaco.

La invasión alemana de Polonia, en 1939, fue demasiado hasta para Chamberlain, pacifista a ultranza.

Londres no deseaba una nueva guerra, y, en particular, no quería enfrentarse a la formidable Alemania, pero los ingleses hubieron de rendirse a la evidencia de que era imposible evitarla, así que declararon la guerra ese mismo año.

Durante dos días, Gran Bretaña y Francia intentaron poner fin a aquel ataque sobre Polonia por la vía diplomática, mediante el envío por separado de sendos ultimátums al Gobierno nazi exigiéndole que retirara sus tropas o se preparara para enfrentarse a una guerra con las dos naciones europeas más poderosas.

El primer ministro británico, Neville Chamberlain, había dudado acerca de emitir aquel ultimátum, consciente de las consecuencias de que Alemania no lo acatara.

Pero la presión de la Cámara de los Comunes y los miembros de su propio gabinete lo impulsaron finalmente a enviarlo a las 9:00 h de la mañana del domingo 3 de septiembre, comenzaba de esta manera  la segunda guerra global.

La guerra total fue posible, sobre todo, debido a la tecnología moderna, en armamento, comunicaciones y producción industrial.

Sin embargo, la victoria estuvo sujeta a muchos otros factores, tanto materiales como espirituales.

Alemania, el principal agresor, al principio se vislumbraba como la ganadora con un sector industrial coordinado a la perfección y dedicado por completo a la guerra, con aviones modernos y un grupo de generales cuyo sentido de la estrategia (aprendido por el método más duro, el de la derrota) era mucho más sofisticado que el de sus adversarios.

Tras la maquinaria bélica y el pueblo alemán, se encontraba un hombre de ideas fanáticas, de extraordinaria perspicacia política y con un magnetismo personal incomparable.

Adolf Hitler no provocó sin ayuda la Segunda Guerra Mundial pero sus contornos estratégicos y su dimensión moral estaban configurados por sus obsesiones.

Era la encarnación del verso de Yeats: «Lo peor está lleno de intensidad pasional».

Fue un hombre marginal, vomitado del caos de viejos imperios arruinados, la reencarnación demoníaca de Napoleón, inconsciente devoto de la oportunidad.

Para una nación militarmente humillada y económicamente arruinada, Hitler ofrecía un elitismo barato basado en las nociones de la raza (una exageración de teorías que en realidad sostenían incluso algunos académicos) y una visión de la vida como guerra: una lucha darwiniana entre los «arios» superiores y sus inferiores genéticos (sobre todo judíos y eslavos).

Al invocar una imagen pseudohistórica de los alemanes como guerreros nórdicos, el Führer transformó a sus compatriotas disciplinados y moderados en agentes meticulosos del genocidio.

Al principio, su temeridad funcionó, cuando los ataques relámpago confundieron y desmoralizaron a un mundo que deseaba desesperadamente que no se produjera otra Gran Guerra.

guerra mundial

Para Ampliar Esta Información:

OTROS TEMAS TRATADOS AQUI:

Campos de Concentración

Mitos de la Segunda Guerra Mundial

Biografía de Adolf Hitler

Biografía de Franklin D. Roosevelt

Científicos NAZI en Argentina

Biografía de Churchill Winston

Síntesis de la Segunda Guerra Mundial

Evolucion Tecnologica de las Armas de Guerra:Historia

LA EVOLUCIÓN DE LAS ARMAS EN LA HISTORIA

Quizá la manifestación inteligente inicial del ser humano en su estadio primitivo haya sido precisamente el descubrimiento de la primera arma,

Cierto día, ese ser indefenso, atacado y perseguido desde todos los rincones por animales más fuertes que él, habrá visto algún palo o hueso grande y habrá pensado en emplearlo para defenderse de sus atacantes.

Este mazo, sin duda, fue su compañero inseparable en las batallas.

No tardarían en imitarlo sus compañeros de grupo.

Y la transmisión del conocimiento de cómo usar este accesorio habrá sido una pauta cultural en la historia de la civilización a través del sucederse de las generaciones.

Por desgracia, junto con las primeras armas nació la guerra.

LA EVOLUCIÓN DE LAS ARMAS EN LA HISTORIA

Los primeros progresos del incipiente armamento fueron el descubrimiento de la punta y el filo, que pronto se pusieron al servicio de los mazos, transformándolos en lanzas y machetes.

La próxima necesidad fue la de arrojar las lanzas con mayor violencia y precisión.

Entonces se inventaron los arcos, capaces de mantener una cuerda tensa, la que se empleó para arrojar flechas.

Transcurrieron muchos siglos para que se produjera una evolución a partir de estas armas básicas.

Los sucesivos inventos quizás hayan sido la coraza -primero de cuero y, más tarde, de metal y la honda.

Acerca de esta última, aclaremos que se trataba de dos cintas de cuero unidas hacia uno de sus extremos por otra pieza del mismo material pero de mayor superficie.

Aquí se colocaba una piedra y el tirador ponía en movimiento circular a todo el sistema.

Cuando la piedra había adquirido la velocidad suficiente, soltaba una de las tiras, permitiendo que la fuerza centrífuga actuara sobre el proyectil imprimiéndole gran potencia.

También la cerbatana, basada en la presión de aire generada por los pulmones sobre un dardo ubicado dentro de un tubo recto, es un invento de las etapas iniciales de la civilización.

Miles fueron las tretas a las que acudieron los hombres para mejorar sus armamentos.

Ya a fines de la Edad Media se habían ideado las catapultas, capaces de lanzar enormes piedras contraías murallas de los castillos, y los arcos se habían perfeccionado al punto de dar lugar a la ballesta, un artefacto capaz de lanzar flechas automáticamente mejorando mucho la posición de tiro, lo que se traducía en un mayor porcentaje de eficacia.

Sin embargo, todos estos adelantos en materia bélica quedaron atrás cuando apareció la pólvora como material impulsante.

Si bien ya la conocían los chinos, según lo atestiguan los relatos de Marco Polo, la emplearon los occidentales por primera vez durante la guerra entre españoles y moros en la península ibérica, a fines del siglo XIII.

Hasta llegar a nuestros días, la evolución ha sido enorme, y se conocen con la denominación genérica de «armas de fuego» todas aquellas capaces de disparar proyectiles con la fuerza generada por la expansión de los gases producida por una explosión, en una cámara cuya única salida está bloqueada.

Por supuesto, es el mismo proyectil o bala el que cubre la salida de escape de los gases.

La guerra ha servido de acicate a la tecnología desde antes de que existiera la lanza. Los ingenieros militares asirios, los inventores macedónicos de armamento y los constructores romanos de fortificaciones fueron los técnicos de sus épocas respectivas.

Es difícil imaginar a alguien inventándose una sustancia tan horrible como el fuego griego, líquido altamente combustible que se anticipó por mucho tiempo al napalm del siglo veinte, excepto como arma.

Las necesidades de armeros y fabricantes de armas impulsaron el trabajo de los metales.

Sin embargo, las invenciones fomentaron la guerra.

Hace más de un milenio, la pólvora y el estribo, excelentes innovaciones procedentes de Asia, produjeron muchos ajustes en la conducción de la guerra, y cambios en la percepción de la gente acerca de la lucha.

La pólvora: Los chinos produjeron la primera muestra en el siglo noveno d.C., pero no intentaron hacer explotar a alguien con ella hasta poco después.

El estribo: Menos fulgurante que el anterior pero en extremo práctico, el adminículo para poner el pie, subir al animal y cabalgar formaba ya parte de la dotación del soldado chino en el siglo cuarto d.C.

Los árabes también empleaban estribos en sus caballos, que eran animales rápidos y relativamente pequeños.

Además de ser excelentes jinetes, la fuerza de su entusiasmo espiritual les ayudó a propagarse hacia el oriente, a través de Oriente Medio hasta la India, y hacia el occidente, hasta el norte de Africa y España.

No obstante, Constantinopla resistió el ataque de los árabes.

La capital bizantina (la actual Estambul, en Turquía) gozaba de una envidiable posición estratégica, por su ubicación en un promontorio que se proyecta sobre el mar.

Incapaces de tomar la ciudad por tierra mediante la caballería, los árabes intentaron usar los barcos en el siglo octavo, estableciendo un bloqueo naval, que hubiera tenido éxito de no ser por el fuego griego.

El fuego griego, secreto militar, era probablemente nafta, obtenida por la refinación de aceite de carbón situado en depósitos subterráneos, que se filtraba a la superficie.

Dondequiera que estuviera, se prendía al impacto; además flotaba.

Los bizantinos lanzaron con catapultas vasijas de arcilla llenas de fuego griego sobre los puentes de las naves enemigas, incendiándolas. Aun si la vasija fallaba el blanco, su contenido se quemaba en el agua.

A veces los bizantinos usaban bombas manuales para arrojarlo.

Después de perder demasiados barcos, los árabes levantaron el bloqueo.

• El desafío de los moros

Los árabes no tomaron Constantinopla, es cierto, pero su estrategia de caballería ligera, es decir, de unidades de caballería ligeramente armadas en las que se da prioridad a la velocidad, tuvo éxito en casi todas partes.

En 711 d.C., los árabes musulmanes conquistaron España, que permaneció bajo control islámico hasta mucho después de que el gran Imperio Árabe se fragmentara en reinos islámicos regionales.

Los musulmanes de España, que procedían del norte de África, rápidamente fueron llamados moros.

A los cristianos que vivían más al norte, especialmente a los francos, no les gustaban sus vecinos.

Los francos, que dominaban la Galia (lo que ahora es Francia y gran parte de Alemania), eran luchadores bárbaros de a pie, al viejo estilo, pero tenían disciplina y deseos de adaptarse a las nuevas circunstancias.

Cuando los rápidos jinetes moros incursionaron en las fronteras, el rey franco comprendió que necesitaba mayor velocidad y tomó las medidas del caso para desarrollar su caballería.

El estribo se originó en China o en Asia central, entre las tribus y clanes nómadas que solemos llamar bárbaros.

Las incursiones como estilo de vida del jinete

Los soldados chinos comenzaron a utilizar el estribo hacia el siglo cuarto d.C., pero los pueblos nómadas asiáticos llamados ávaros, grandes jinetes, los usaban probablemente desde el siglo primero d.C.

Los pies de sus hombres se ajustaban a los estribos cuando se abalanzaron sobre Europa oriental en 568 d.C. y arrebataron el valle del Danubio al Imperio Bizantino.

Los ávaros y otros pueblos bárbaros usaban el estribo al atacar poblaciones y ciudades para obtener lo que deseaban: valiosos productos comerciales, alimento, dinero y, algunas veces, hasta el control de una región o un imperio .

Las incursiones rápidas se convirtieron en el modo de vida de algunas tribus nómadas de las estepas del Asia central.

Como esos pastores y cazadores tenían poco que ofrecer a cambio a los agricultores establecidos y a la gente de las ciudades, tales como los chinos, resolvieron tomar lo que deseaban por la fuerza.

Las incursiones se realizan mejor con rapidez.

Se da el golpe, y luego se pone la mayor cantidad de distancia posible entre los autores y el objetivo.

La habilidad de sus jinetes dio ventaja a los invasores, y el estribo la hizo mayor todavía.

Custodia de las fronteras bizantinas

El rico Imperio Bizantino  era un objetivo apetecido para los invasores, razón por la cual era mejor encargar la custodia de las fronteras a rápidas patrullas de jinetes.

Los estribos, probablemente copiados de los ávaros, dieron a las patrullas bizantinas una ventaja sobre los europeos occidentales, quienes no poseían todavía esta tecnología.

Dicha superioridad, unida al empleo de una intendencia general, organización de apoyo que aseguraba a la infantería y la caballería todo lo necesario para alimentarse, aun durante largos asedios, dificultó en extremo la entrada en el Imperio Bizantino de los intrusos.

Constantinopla, capital bizantina, necesitó durante los siglos séptimo y octavo toda su capacidad para enfrentar una nueva y permanente amenaza: los árabes.

Con el legendario rey Arturo, cuya existencia es hipotética.

Si vivió en realidad, es probable que haya conducido a los bretones celtas contra los invasores sajones en el siglo sexto d.C., pero sin armadura de metal.

La armadura de placa metálica se puso de moda 800 años después, en el siglo XIV.

Anillos metálicos entrelazados:

La cota de mallas: Antes de la armadura metálica los caballeros usaban la cota de mallas, y antes de ésta empleaban la armadura de escamas imbricadas, introducida desde la época de los asirios como defensa contra las flechas.

Esta armadura, al igual que las escamas del lagarto, empleaba pequeñas piezas metálicas cosidas en filas sobrepuestas sobre el vestido de cuero.

La cota de mallas era más ingeniosa: estaba formada de anillos metálicos entrelazados, dispuestos en forma de jubón o chaqueta ajustada.

Los cruzados la usaron cuando fueron a Oriente para liberar la Tierra Santa del control musulmán.

La cota de mallas se volvió obsoleta cuando hubo mejores arcos, con los cuales se podía lanzar una flecha y penetrar la protección metálica.

Más potencia para la ballesta de los arqueros

La ballesta fue otra invención china, y muy antigua por cierto, pues data del siglo cuarto a.C.

Los arqueros europeos redescubrieron su mortífero poder en el siglo décimo d.C.

Se componía de un arco corto y extremadamente rígido montado sobre un madero, con un mecanismo para fijar la cuerda del arco y mantenerla estirada, a mayor tensión que la que un hombre podía lograr al tirar hacia atrás la cuerda manualmente.

La flecha se disparaba con una palanca manual, o gatillo.

La ballesta disparaba flechas cortas, o saetas, que solían ser de metal; volaban rápido y penetraban superficies que una flecha lanzada por un arco convencional no podía horadar. Los normandos la usaron en 1066, en su conquista de Inglaterra.

Por ironías del destino, para derrotar a los moros invasores en la batalla de Poitiers, en 732 d.C., el rey franco, Carlos Martel, ordenó desmontar a sus caballeros. Enfrentándose a los jinetes atacantes con lanzas y escudos, los francos resistieron y repelieron con éxito a los moros.

Más aún, a pesar del retorno a las tácticas de la infantería, esta batalla marcó el comienzo de la época caballeresca, edad en que los caballeros con armadura dominaron la guerra europea.

La época caballeresca

Los términos caballerosidad y caballeresco están relacionados con el francés chevaux (caballos), y con otras palabras derivadas del nombre del animal.

Estas palabras muestran cómo la gente de la Edad Media asociaba la nobleza, la gentileza y el valor con los guerreros a caballo.

Esta era, como muchas otras anteriores y posteriores, ensalzó la violencia. La gente consideraba la habilidad en el combate como una muestra de civilización. Jean Froissart, cronista e historiador francés del siglo catorce, escribió:

“Los caballeros nobles han nacido para luchar, y la guerra ennoblece a todos aquéllos que combaten sin temor o cobardía”.

Ennoblecedora o no, la guerra costaba dinero, y era extraordinariamente oneroso equipar a un caballero.

Carlos Martel ayudó a sus jinetes a pagar sus pertrechos, expropiando tierras de la Iglesia medieval  y entregándolas a los guerreros nobles.

Bajo el feudalismo los terratenientes se beneficiaban de las cosechas de sus labriegos arrendatarios.

Carlomagno, quien sería poco después rey de los francos, además de ser el primero en unir gran parte de Europa tras la calda de los romanos, llevó a cabo la unificación con su caballería.

La armadura para detener los golpes a armas mortales

La cultura caballeresca prevaleció durante centenares de años en Europa.

Esta cultura de la armadura blindada está asociada en las películas

Arco largo: combinación de precisión y potencia

El arco largo inglés, refinamiento de una antigua tecnología galesa, se convirtió en el último grito de la moda en armamentos durante el siglo catorce.

Preciso y potente en manos de un arquero experimentado, el arco largo fue una razón adicional para que los caballeros usaran sólidas armaduras metálicas.

El arco largo era poderoso, pero tanto su precisión como su alcance eran limitados. El modelo inglés podía causar daño a una distancia de 225 metros y se recargaba rápidamente.

No obstante, sólo un arquero experimentado podía manejarlo a cabalidad, de modo que Inglaterra exigía a los pequeños propietarios de tierras que se enrolaban como soldados, de ser necesario, como en la antigua Grecia y en Roma, un entrenamiento para adquirir buena puntería.

En la batalla de Crécy, librada en 1346 durante la guerra de los cien años entre Inglaterra y Francia, los arqueros ingleses provistos de arcos largos derribaron las filas francesas una tras otra.

Francia perdió ese día más de 1.500 caballeros y 10.000 soldados de infantería. Inglaterra perdió menos de 200 hombres en total, entre ellos solamente dos caballeros.

A corto plazo, Crécy obligó a los franceses y a otras naciones europeas a cubrirse de armaduras más pesadas.

Nadie presentía entonces que los caballeros estaban en vías de extinción. Los cañones venían en camino. Un siglo más tarde las armas de fuego superarían en el disparo y la penetración a cualquier arco inventado hasta entonces.

La pólvora aumenta la potencia de fueqo

Entre los siglos doce y dieciocho, los cañones pasaron de China al occidente de Asia, y de allí a Europa. Se desarrollaron a partir de los primeros experimentos hasta alcanzar una tecnología de precisión.

Los militares fueron obligados a revisar sus estrategias, adaptando a veces las viejas formaciones de batalla para acoplarlas al nuevo armamento, a la vez que los defensores hallaban nuevas maneras de reforzar puestos fronterizos y ciudades.

El papa Urbano II condenó la ballesta en 1096, como “odiosa a los ojos de Dios”, y la Iglesia prohibió en 1139 su uso contra cristianos. Por supuesto que si se trataba de sarracenos, como llamaban entonces a los turcos y otros musulmanes, su empleo estaba permitido.

ORIGEN DE LA PÓLVORA

Según se cree, ios chinos ya conocían la pólvora y La usaban en fuegos de artificios en el siglo VI de nuestra era, quizás en ceremonias religiosas. Habrían comenzado a utilizarla con. fines bélicos hacia 1161, bajo la dinastía de los Sung.

En el siglo siguiente las armas de mego llegaron a alcanzar gran desarrollo bajo el dominio de los mogoles, quienes las emplearon durante la invasión realizada en 1241.

Otros historiadores afirman que, por su parte, los alquimistas árabes del siglo XIII también pulverizaban y mezclaban porciones de salitre, carbón y azufre, y que, poniendo esta mezcla en sus morteros con algunas piedras encima, la encendían y provocaban su explosión, con el consiguiente lanzamiento de los proyectiles.

Pero estos no fueron sino ensayos experimentales —como los que se atribuyen al monje Bertoldo Schwartz en el siglo XIV— sobre la fuerza expansiva de la pólvora.

Hacia 1270, Marco el Griego escribió el Libro de fuegos para quemar enemigos, en donde se refiere a la composición de la pólvora. Y en la misma época (1267), el monje inglés Rogelio Bacon, que fue el más famoso científico medieval, escribió lo siguiente en su Opus Majus (Obra Mayor): «Se han descubierto importantes artes contra los enemigos del Estado, de modo que sin espada ni ninguna otra arma que requiera contacto físico, se pueda destruir a todos los que opongan resistencia.

Con la fuerza de la sal llamada salitre, se produce un sonido tan horrible al estallido de una cosa tan pequeña; a saber, un pequeño trozo de pergamino, que excede al retumbar de un gran trueno, y la llama excede al máximo resplandor del rayo que acompaña al trueno».

Así señalaba el advenimiento de la era de la pólvora.

A la carga con la lanza

Aunque los cruzados emplearon la ballesta, su uso les pareció poco honorable. Los valores caballerescos se centraban en el combate personal. Cuando no había guerra, los caballeros se enfrentaban unos a otros en feroces y con frecuencia mortales torneos.

La lanza, arma larga y puntiaguda que el caballero llevaba apretada bajo el brazo, liberaba una fuerza inverosímil.

Los jinetes, con el tiempo cada vez más recubiertos de metal, se balanceaban sobre los estribos y se apoyaban en las sillas de respaldo alto al usar esta variedad de la antigua pica para tratar de desmontar al contendor de su corcel.

Las armaduras, cada vez más pesadas, los protegían de ser traspasados.

Estas batallas simuladas daban a los caballeros renombre y los mantenían preparados para la guerra, pero la lucha en los torneos era real.

En uno celebrado en 1241 en Neuss, Alemania, hubo cerca de 80 muertos, entre hombres y niños.

fabricaban campanas de iglesia, fueron los primeros fabricantes europeos de cañones; a veces las fundían para fabricarlos.

Los constructores pronto se dieron cuenta de que un tubo funcionaba mejor, y que deberla disparar un proyectil de metal, con el cual se podría echar abajo el portal de un castillo, o destruir una casa.

Aparecen los grandes cañones

El escritor y estadista italiano Nicolás Maquiavelo observó a comienzos del siglo dieciséis:

“No existe muro, por grueso que sea, que no pueda ser destruido en pocos días por la artillería”.

Los cañones ya eran grandes, aunque algunos de los de mayor tamaño no funcionaban bien. A comienzos del siglo quince algunos pesaban 750 kilogramos y disparaban balas de 75 centímetros de diámetro. ¿Cómo podía fabricar alguien un tonel de metal fundido de semejante tamaño?

En primer lugar no era fundido, sino armado con piezas de hierro forjado, como las tablas que forman las paredes curvas de los barriles de encurtidos. Varios aros de hierro sostenían las piezas en su lugar, por lo menos temporalmente.

En 1445, los artilleros borgoñones (el ducado de Borgoña era entonces independiente; más tarde se uniría a Francia) estaban disparando una de esas monstruosas bombardas (los primitivos cañones) contra los invasores turcos cuando estalló uno de los aros.

Lo curioso es que dispararon de nuevo, y saltaron dos aros más y una de las piezas longitudinales.

En 1440, uno de sus propios cañones explotó, dando muerte a Jacobo 11, rey de Escocia, y a muchos miembros de su séquito.

Se cree que los sarracenos, en Granada, utilizaron armas de fuego hacia el año 1275.

En la primera mitad del siglo XIV, su uso se generalizó en Italia, Francia e Inglaterra. Se trataba de ‘bombardas» o cañones que se cargaban por la boca con una porción de pólvora y hasta una docena de piedras. Luego se encendían por un orificio de la recámara.

dice que por el año 1378, un monje alquimista dio a Venecia la fórmula de una aleación de gran resistencia, para fundir cañones de una sola pieza.

Con ellos, los venecianos obtuvieron notables victorias, pero encarcelaron al inventor por considerarlo peligroso, debido a su talento.

En el siglo XV se adoptó la costumbre de grabarles nombres terroríficos a los cañones (la leona, el áspid, el terremoto, etc.), e inscripciones que ponderaban sus estragos; tales como ésta: «Llamada soy la fiera serpentina, que allano fuertes con inmensa ruina».

En el sitio de Constantinopla (1453) Mahomet II mandó instalar un gigantesco cañón que fue arrastrado por sesenta bueyes y 200 hombres hasta su emplazamiento. Es fama que arrojaba proyectiles de 200 libras.Dos horas llevaba cargarlo, y entre una y otra descarga se refrescaba con agua y aceite.

Los dos primeros cañonazos parecieron horrísonos terremotos. Pero en el tercero reventó, mutando a su constructor, el húngaro Orban.

Hasta 1420, aproximadamente, los proyectiles consistían en simples piedras. Después empezaron a utilizarse balas de hierro y plomo, que se generalizaron a fin de siglo, y que podían ser rayadas para que siguieran una trayectoria más recta.

En 1500 el cañón ya había adquirido el aspecto definido que se mantendría invariable durante siglos.

El caño fue montado sobre dos ruedas para facilitar el trasporte, y balanceado sobre un perno para regular la puntería.

El artillero, con un largo cazo, colocaba en el fondo del caño una porción de pólvora y la comprimía contra la culata; luego introducía un disco de madera para separar la pólvora de la bala y, finalmente, siempre por la boca, introducía el proyectil.

En esta operación los artilleros arriesgaban seriamente la vida, por las explosiones accidentales y porque se exponían al fuego enemigo.

CAÑONES DE RETROCARGA

A partir de 1380 se empezaron a construir cañones de retrocarga, con culata desmontable, que el artillero cargaba desde atrás, al reparo de una estacada o almena.

Pero hasta el siglo pasado, en que se perfeccionó la técnica de su fundición, de modo que el cierre llegó a ser hermético, los cañones siguieron cargándose por la boca.

La artillería destructiva de las murallas de Constantinopla

En algunos casos un gran cañón era lo que hacía falta. Recordemos que los árabes no pudieron vencer la determinación de Constantinopla.

Decidido a enfrentar el desafío con grandes cañones, el sultán turcomano Mohamed II contrató a un fabricante húngaro, quien construyó un cañón capaz de lanzar un proyectil a 1,6 kilómetros de distancia.

Se enciende el fuego del descubrimiento

Si se enciende fuego en un montón de basura que contenga azufre, se disparará una reacción sibilante.

Alguien cuyo nombre se ha perdido en la historia observó este fenómeno en China hace siglos, y comenzaron entonces los experimentos con mezclas de azufre concentrado y carbón de leña.

Hacia el siglo noveno d.C., otro genio agregó cristales de nitrato de potasio (salitre).

Si la mezcla se prendía, se obtenían chispas que servían para decorar las ceremonias formales.

Los monjes taoístas jugaron con estos compuestos químicos hasta lograr la pólvora para fuegos artificiales.

Los fabricantes de juegos pirotécnicos aprendieron con el paso del tiempo que su mezcla, la pólvora, podía explotar peligrosamente.

Los militares también se percataron de ello.

Hacia el siglo doce, los ejércitos de la dinastía Sung introdujeron en su arsenal las granadas metálicas; por otra parte, los chinos fueron los primeros en usar bombas de fragmentación, en las que la envoltura se hacía añicos, y se esparcía cual mortal metralla.

En el siglo siguiente, las fábricas chinas de armamento construyeron centenares de cohetes militares y bombas, algunas de las cuales contenían sustancias venenosas, como el arsénico, que se liberaban con el impacto; otras, diseñadas para causar incendios, llevaban alquitrán y aceite.

Los chinos construyeron también cañones primitivos, simples barricas llenas de pólvora, que disparaban rocas o bolas metálicas.

Se propagan noticias

Las noticias se propagaron hacia Occidente por la ruta de la seda, el antiguo camino comercial.

Los árabes ya tenían armas de fuego primitivas hacia finales del siglo trece, pero la receta para la fabricación de la pólvora llegó a Europa en 1267, en las manos del científico inglés Roger Bacon.

Menos de un siglo después, los ejércitos europeos usaban ya toscos cañones; pero no fueron los innovadores soldados que ensayaban pequeñas, ruidosas y apestosas marmitas de fuego quienes decidieron la batalla de Crécy, ya mencionada, sino sus camaradas arqueros armados con el arco largo. Sin embargo, esta especie de cañón primitivo era un síntoma de desarrollos futuros.

Los primeros cañones europeos fueron llamados marmitas de fuego porque tenían la forma de una olla; disparaban flechas (sí, flechas) con una fuerza asombrosa, pero con poca confiabilidad y ninguna precisión. Los artesanos, que hasta entonces

Armas de fuego para los soldados

Al principio los cañones fueron considerados el reemplazo de la catapulta y el ariete, armas destructivas pero imprecisas. Con el desarrollo de la artillería, fueron ganando en utilidad y precisión.

Los fabricantes diseñaron pronto modelos para emplear en el propio campo de batalla, como artillería ligera (comúnmente un cañón sobre ruedas tirado por caballos) y armas para los soldados.

El cañón manual, como se llamaban los cañones más pequeños, hería los caballos del enemigo (y también el propio, si a ello vamos) y tal vez intimidaba a un par de caballeros, si mucho. No obstante, durante un buen tiempo el cañón manual no parecía un reemplazo práctico de la espada y los arcos.

¿Cómo podía uno llevar el cañoncito, apuntar, y también prender fuego exitosamente a la carga de pólvora?

A mediados del siglo quince, la solución consistía en usar una mecha , empapada en alcohol y cubierta con salitre, sujeta a un disparador. Empujando el disparador, la mecha lenta se ponía en contacto con el oído del cañón y prendía la carga de pólvora.

Esta arma de mecha lenta, liberaba las manos del tirador, que podía apuntar, por ejemplo, un arcabuz (del alemán Hakenbüchse, que significa cañón de gancho). Algunos arcabuces tenían un gancho que solía asegurarse al borde de un muro para disparar sobre él.

El gancho recibía parte del golpe producido por el fuerte retroceso del arma.

La palabra mosquete viene de mosquito. Como su nombre lo indica, se suponía que esta arma irritaba al enemigo. Pero los mosquetes no eran en nada parecidos, por su tamaño, al mosquito.

Muchos tenían que reposar sobre una horquilla, como una muleta, para que el tirador apuntara y disparara. Así que, además del pesado cañón, el mosquetero tenía que arrastrar su incómodo soporte.

En 1453, el sultán disparó de seguido su cañón, apodado Mahometa, contra las murallas de la capital. Como muchos de esos gigantes, el cañón se rompió al segundo día, y a la semana era inutilizable.

Pero Mohamed tenía más, así que, después de 54 días de asedio, el Imperio Bizantino de mil años de antigüedad cayó finalmente.

Refinamiento de las nuevas armas

Aunque las enormes bombardas funcionaban, los jefes militares sabían que debía haber un medio menos engorroso que ganar batallas a cañonazos.

Los fabricantes pusieron manos a la obra y diseñaron cañones más ventajosos y versátiles, que vinieron a cubrir necesidades específicas en el arsenal del Renacimiento.

Cañones más livianos  mas fáciles de maniobrar

Andando el tiempo, los expertos en artillería comprendieron que podían fundir algunos cañones en bronce, metal resistente pero más liviano, en lugar de emplear el hierro, de modo que fueran más manejables y menos propensos a estallar, de suerte que pudieran ser colocados más rápidamente en posición y disparados con mayor frecuencia (algunos de los cañones grandes podían disparar sólo un proyectil cada dos horas). Con tales cañones se haría más daño que con los grandes.

La pólvora se mejora con coñac

Había mejores cañones, pero la pólvora requería perfeccionamiento ya que el azufre, el carbón y el salitre tenían pesos distintos.

Los cristales de salitre se iban al fondo en tanto que el carbón se quedaba en la superficie.

Mezclar correctamente los ingredientes antes de cargar el cañón, única manera de asegurar la efectividad de la pólvora, era una labor difícil y demorada.

Entonces a alguien se le ocurrió mezclar la pólvora con coñac, para que los ingredientes se integraran mejor y de manera homogénea, y dejar secar la pasta resultante en forma de granos.

¡Pero qué desperdicio de coñac! Los soldados ensayaron sustitutos como vinagre, que funcionaba bien, orina humana, que era todavía mejor, en particular si provenía de un soldado que había dado al coñac un uso más placentero (esto no mejoró el olor de la pólvora, por cierto).

Armas de fuego para los soldados

Al principio los cañones fueron considerados el reemplazo de la catapulta y el ariete, armas destructivas pero Imprecisas.

Con el desarrollo de la artillería, fueron ganando en utilidad y precisión.

Los fabricantes diseñaron pronto modelos para emplear en el propio campo de batalla, como artillería litera comúnmente un cañón sobre ruedas tirado por caballos con  los soldados)

El cañón manual, como se llamaban los cañones más pequeños, hería los caballos del enemigo (y también el propio, si a ello vamos) y esta  vezintimidaba a un par de caballeros, si mucho.

No obstante, durante un buen tiempo el cañón manual no parecía un reemplazo práctico de la espada y los arcos.

¿Cómo podía uno llevar el cañoncito, apuntar, y también prender fuego exitosamente a la carga de pólvora?

A mediados del siglo quince, la solución consistía en usar una mecha empapada en alcohol y cubierta con salitre, sujeta a un disparador. Empujando el disparador, la media lenta se ponía en contacto con el oído del cañón y prendía la  carga de pólvora.

Esta arma de mecha lenta, que aparece en la figura, liberaba las manos del tirador, que podía apuntar, por ejemplo, un arcabuz (del alemán Hakenbflchse; que significa cañón dé gancho).

Algunos arcabuces tenían un gancho que solía asegurarse al borde de un muro para disparar sobre él.

El gancho recibía parte del golpe producido por el fuerte retroceso del arma.

La palabra mosquete viene de mosquito. Como su nombre lo indica, se suponía que esta arma irritaba al enemigo.

Pero los mosquetes no eran en nada parecidos, por su tamaño, al mosquito. Muchos tenían que reposar sobre una horquilla como una muleta, para que el tirador apuntara y disparara.

Así que, además del pesado cañón, el mosquetero tenía que arrastrar su incómodo soporte.

Producción de la chispa

Como la mecha lenta producía a veces demasiado pronto la chispa que prendía la carga, el mosquete era peligroso para el mosquetero; en consecuencia los armeros inventaron otra manera de prender la carga de pólvora: un trozo de pedernal en contacto con una rueda de acero provista de un resorte.

Si examinamos las partes móviles de un encendedor de cigarrillos, comprenderemos cómo salta la chispa.

Con el tiempo, un dispositivo más simple, consistente en un martillo provisto de un resorte que golpeaba un trozo de pedernal, se convirtió en la tecnología dominante, que prevaleció desde cerca de 1650 hasta el siglo diecinueve.

Fortalezas flotantes

Después de que la pólvora revolucionara el armamento, las batallas navales se libraron empleando cada vez más artillería, en lugar de remar hasta la nave enemiga, abordarla y combatir cuerpo a cuerpo en el puente.

La galera, que había sido una formidable nave de guerra en el Mediterráneo, se fue volviendo obsoleta porque los barcos tenían ahora que erizarse de bocas de fuego; no necesitaban remos ni remeros. Las naves se convirtieron en fortalezas flotantes.

Fortificaciones en forma de estrella

Desde la época de las primeras ciudades amuralladas , una buena barrera defensiva debía ser tan alta como fuera posible, pero ahora el fuego de los cañones podía derribarla, de suerte que los arquitectos inventaron a mediados del siglo quince un nuevo tipo de fortaleza.

En Génova, Italia, Leon Battista Alberti diseñó fuertes en forma de estrella, con muros relativamente bajos pero muy gruesos.

En la figura vemos el Castillo de San Marcos, construido por los españoles en San Agustín, Florida, durante el siglo dieciséis.

Las salientes en ángulo permitían a los defensores apuntar sus cañones en diagonal a las líneas enemigas, de suerte que un proyectil podía pasar por encima de la línea, destruyendo más hombres, cañones, caballos y pertrechos en general.

Fuente Consultada: Historia del Mundo – Peter Haugen

ALGO MAS…
EL TÚNEL DEL TIEMPO:

AYER: Cuando Caín mató a su hermano usando una quijada de res, las escrituras relatan el momento que puede considerarse como punto de partida de una historia que tiene la misma antigüedad que el hombre sobre el planeta: la del uso de las armas.

El humano primitivo era esencialmente cazador, y usaba para ese fin utensilios de piedra tallada (hachas, mazas y extremos de lanzas).

Y fueron estos mismos elementos los que empleó para el ataque entre poblaciones. Luego de estas primeras armas aparecen las correspondientes al Neolítico (10.000- 3000 a.C).

No eran mucho más sofisticadas, pero la piedra pulimentada y el uso de algunos metales permitieron realizar efectivas puntas de flecha, y hachas de sílex tallado.

Las primeras armas eran más contundentes que efectivas, y estaban concebidas para el combate a corta distancia.

La Edad de Bronce trajo la novedad de los cuchillos y las espadas metálicas, englobadas bajo el término de «armas blancas», esto es, las de hoja de acero. Hasta la aparición de la pólvora, el principio general del armamento era «cortar, machacar y golpear».

El ingenio en la creación de armas nunca se detuvo, y así aparecieron las catapultas, capaces de lanzar grandes y destructivas piedras hacia las fortificaciones enemigas y se desarrolló la arquería, con los más sofisticados tipos de flechas (las había envenenadas e incendiarias).

En el siglo XIII, un invento marcaría el fin de una época: la pólvora.

Poco después de su creación se les ocurrió a los hombres la idea de disparar proyectiles por medio de tubos: aparecieron los primeros cañones, cuya primer referencia indiscutible data del año 1326 en Florencia, Italia.

Había comenzado el desarrollo de las armas de fuego, que en cientos de formas cada vez más perfeccionadas y eficaces, llegarían hasta nuestros días.

• SIGLO XX:

A diferencia de otras invenciones humanas, en las que un elemento sustituyó a otro por completo, el fin de siglo muestra cómo coexisten primitivas (pero insustituibles) armas blancas con sofisticados sistemas de exterminio nuclear.

Luego de dos guerras mundiales el perfeccionamiento y puesta a punto de diversas armas alcanzó su punto culminante.

Hoy, la «vedette» del armamento contemporáneo son los misiles. Letales cohetes que pueden ser lanzados desde barcos, bases terrestres o aviones. Capaces de recorrer medio planeta hasta dar precisamente con su objetivo, pueden llevar en su extremo explosivos comunes o el increíble poder destructivo de una bomba nuclear.

Además de las armas convencionales existen hoy en el mundo las llamadas «armas químicas»: letales elementos de exterminio capaces de diseminar sobre el enemigo diversas sustancias que van desde gases tóxicos hasta venenosos líquidos capaces de matar toda forma de vida en un radio de 40 kilómetros.

cohete teledirigido arma siglo xx

El armamento contemporáneo encuentra en los misiles la expresión más alta de tecnología militar. Estos artefactos pueden recorrer medio mundo hasta dar precisamente en su blanco.

De hecho, su uso y fabricación está expresamente prohibido por numerosos reglamentos internacionales (al igual que las anuas biológicas, con las que se diseminan mortales microbios y virus entre las tropas enemigas).

Con los recientes acuerdos para reducir drásticamente el número de armas nucleares, la moderna industria armamentista apunta, (y aquí vale a expresión) al desarrollo de sistemas estratégicos basados fundamentalmente en detectar un posible ataque mucho antes de que se produzca.

Desde tierra, aire y océano, una compleja red de sensores y radares limita al máximo el riesgo de un ataque internacional.

Sin embargo, hoy, frente a la inestable situación política de numerosas naciones, el interés y los planes de fabricación están centrados nuevamente en las armas de mediano alcance y las sofisticadas armas de fuego manuales (fusiles de asalto, morteros y similares).

• EL FUTURO:

Hasta hace poco tiempo resultaba difícil prever la dirección futura del desarrollo armamentista. Existían numerosos proyectos en diferentes sentidos. Sin embargo, el gran cambio que experimentó el balance político a nivel global clarificó las cosas.

El futuro del armamento en el mundo sólo dependerá dé la investigación desarrollada en el mundo occidental y, en particular, los Estados Unidos.

Y este país mira al espacio. La posibilidad de aprovechar el programa del transbordador para poner en órbita dispositivos militares ultrasensibles no será desaprovechada. Se completará un cordón de satélites estratégicos con un increíble poder de detección: serán capaces de medir el calor producido en una fabrica clandestina de armamentos.

La energía nuclear no será usada para la fabricación de armas.

De todas maneras, la capacidad de propulsión de los futuros misiles será potenciada hasta dotar a los cohetes de un alcance ilimitado, y el desarrollo de explosivos sintéticos ultracompactos permitirá emplazar en la cabeza de los «Minuteman» estadounidenses un potencial explosivo 30 veces mayor que el actual.

Siguiendo con las grandes armas, los llamados «misiles inteligentes» pasarán a serlo realmente: podrán desviar su ruta a pocos segundos de llegar al objetivo, siguiendo las precisas instrucciones que recibirá su ordenador de dirección asistido por satélite.

Si la colisión es inevitable, la carga explosiva será automáticamente anulada desde el centro de lanzamiento, aunque éste se halle a más de 13.000 kilómetros de distancia.

El futuro de la tecnología armamentista mundial estará claramente gobernado por los avances en el terreno aeroespacial pero, aún más, por los acontecimientos políticos que aguarden al comienzo de un nuevo siglo.

Temas Relacionados

Primeras Armas de Fuego :Uso de la Polvora,Mosquete y Pistolas
• Evolucion Tecnologica de las Armas de Guerra:Historia
• Armas de la Segunda Guerra Mundial Ametralladora Inglesa
• Armas en la edad Media Historia de las Armas Arco Largo Mosquete
• Armas Biológicas o Químicas Para El Terrorismo Mundial
• Historia del uso de las Armas Quimicas
• Caracteristicas del Bombardero Aleman Stuka
• Avion Caza Bell Usado en la Guerra Mundial

Enlace Externo:• Diez armas que se estrenaron en la Guerra Civil Española

Sintesis de la Segunda Guerra Mundial

SÍNTESIS DE LA SEGUNDA GUERRA MUNDIAL (1939-1945)

Segunda Guerra Mundial: En 1935, Hitler anuló las restricciones impuestas por los aliados y reanudó el rearme de Alemania.

Lo hizo dirigido por un grupo de hábiles estrategos, creadores de una nueva forma de guerra: la blitzkrieg (guerra relámpago). Consistía en la ruptura del frente de combate en un punto, seguida por un avance fulminante.

El éxito del ataque —precedido por bombardeos en picada de gran precisión— se debía al empleo masivo de tanques.

La artillería autopropulsada y la infantería, compuesta en parte por motociclistas, progresaban con gran rapidez, sostenidas por tropas aerotransportadas a puntos clave de la retaguardia del enemigo.

Confiado en esta superioridad, Hitler emprendió una política cada vez más audaz, aprovechando el temor de las naciones occidentales frente al comunismo, y favorecido por sus divergencias y dificultades internas y por el franco apoyo de Mussolini, con quien formó el llamado «Eje Roma-Berlín».

En 1938 anexó Austria y reclamó la inmediata entrega de los Súdeles, poblaciones checoslovacas de raza germánica.

En la entrevista de Munich, el 29 de septiembre de 1938, el ministro inglés, Neville Chamberlain, y el francés, Eduardo Daladier, consintieron la cesión.

Poco después, los nazis ocuparon el resto de Checoslovaquia.

El Tratado de Versalles creó en 1919, la ciudad libre de Danzig, separándola de Alemania.

Poco después Polonia obtuvo una salida al mar Báltico a través del llamado «corredor polaco», que aisló del territorio germano la Prusia Oriental.

En 1939, Hitler exigió la reincorporación de ambos.

Chamberlain se trasladó otra vez a Munich, en procura de un arreglo, sin éxito.

bomba hiroshima
Fin de la guerra mundial, con la bomba en Hiroshima

Hitler firmó en noviembre un «pacto de neutralidad» con el dictador ruso Stalin, que en la práctica lo autorizaba a proceder con «mano libre» en Polonia.

Seguros de que tampoco esta vez Francia e Inglaterra se moverían, los nazis cruzaron la frontera polaca el 1° de septiembre de 1939.

Gran Bretaña y Francia, garantes de la independencia de ese país, se vieron obligados a declarar la guerra Polonia fue conquistada en pocassemanas, hasta una línea divisoria acordada con Rusia, que ocupo la otra parte.

Los rusos también se anexaron los estados bálticos: Estonia, Letonia y Lituania y rectificaron en su favor la frontera con Finlandia, al cabo de una breve guerra.

Inglaterra y Francia no estaban convenientemente preparadas para oponerse.

Francia confiaba en su defensa y había invertido la mayor parte de su presupuesto militar en la construcción de la línea Maginot, cadena de fortificaciones en su frontera con Alemania.

En la primavera de 1940, los germanos ocuparon sin resistencia Dinamarca y Noruega. Luego invadieron Holanda y Bélgica, repitiendo la maniobra de flanqueo de las fortificaciones francesas realizada en 1914.

La invasión de Bélgica originó un avance franco-inglés para contenerla, pero no lo consiguió.

La blitzkrieg abrió  una amplia brecha encerrando a una parte de sus adversarios en el puerto de Dunkerke.

Desde allí la mayoría pudo embarcarse a Inglaterra, aunque con grandes pérdidas.

Simultáneamente, las tropas alemanas entraban en Francia y ocupaban París, el 14 de junio.

Tres días después el mariscal Petain firmaba el armisticio. Francia quedó dividida en dos partes: la del norte y del oeste ocupada por los invasores, y la otra, con capital enVichy, bajo el gobierno de Petain, que fue sujeta a un severo control nazi.

Muchos franceses resistieron el dominio alemán en ambas zonas, alentados desde Inglaterra por el general Charles De Gaulle.

Italia, hasta entonces neutral, entró en la guerra junto a Alemania en junio de 1940 y ocupó algunas porciones fronterizas de Francia; atacó también a Grecia, con poca suerte. Intervino entonces el ejército alemán, que ocupó Rumania, Yugoslavia, Bulgaria y derrotó a los griegos.

Los nazis planearon la invasión de Gran Bretaña, entonces su único oponente.

La precedieron con intensos e ininterrumpidos bombardeos aéreos, que se prolongaron desde agosto de 1940 a junio de 1,941, cuando la aviación inglesa logró contenerlos, después de casi un año de lucha.

El pueblo inglés, que había atravesado esta dura prueba bajo la guía de su primer ministro Winston Churchill, demostró un valor y una disciplina extraordinarios.

Recibió importante ayuda militar de los Estados Unidos.

La conversión de las industrias de este país, de la producción comercial a la bélica, se hizo con sorprendente celeridad.

Gran cantidad de aviones y tanques partieron directamente de las líneas de montaje al lugar de la lucha.

Un nuevo proceso de construcción naval, puesto en práctica por el industrial Henry Kaiser, permitió la construcción acelerada de los barcos (modelo llamado Liberty) necesarios para el continuo cruce del Atlántico.

Alemania estaba preparada para cortar esa vital ruta. Contaba para ello con una importante flota de submarinos y acorazados rápidos.

Los navíos mercantes efectuaron la travesía en grupos (convoyes) con fuerte protección. A pesar de las pérdidas, cumplieron su objetivo.

Los nazis explotaron al máximo los recursos de los territorios ocupados, en apoyo de su esfuerzo bélico.

En los países agredidos se constituyeron movimientos clandestinos de resistencia, dedicados al espionaje y al hostigamiento.

A fines de 1940, tropas italianas acantonadas en su colonia de Libia, invadieron el protectorado inglés de Egipto para cortar el canal de Suez, vital ruta de abastecimiento de combustibles para los aliados, pero fueron rechazados.

A principios de 1941, Alemania necesitó comprometer tropas en este frente: el Afrika Korps, al mando del general Rommel, sostuvo una guerra de vehículos blindados en el desierto, enfrentando a los ejércitos del mariscal inglés Montgomery.

Tras varias campañas con éxitos de ambas partes, y con la intervención de los norteamericanos, entrados francamente en guerra, los ingleses alcanzaron en El Alamein (octubre de 1942) una victoria decisiva.

En noviembre, una expedición norteamericana desembarcó en Marruecos y Argelia, y avanzó hacia Túnez. Encerrados allí los italo-alemanes debieron rendirse.

Dejando sin efecto su pacto con Rusia, Hitler la invadió el 22 de Junió de 1941.

La blitzkrieg llevó rápidamente sus tropas a las puertas de Moscú y de Leningrado, donde obtuvieron importantes victorias en las batallas deSmolensk y Minsk.

Su propósito era quebrar la defensa antes de la llegada del crudo invierno soviético.

Entonces se agravaría el problema de la desmesurada extensión de sus líneas de abastecimiento (superior a los 1300 kilómetros), causa que precipitó la derrota de Napoleón en 1812.

Con ese fin los rusos, en su retirada destruían cuanto pudiera ser utilizado por los invasores (táctica de tierra arrasada). La denodada resistencia rusa contuvo el avance alemán, cuyas tropas sufrieron un gran desgaste durante el invierno.

Los aliados enviaron importantes cantidades de armas, municiones y vehículos en convoyes que, desafiando a los submarinos, las transportaron a lo largo de la costa de Noruega, hasta puertos rusos en el mar Ártico.

En 1942 los alemanes concentraron su ofensiva en el sudeste, procurando conservar la región petrolera rusa, pero sufrieron un aplastante derrota en la batalla de Stalingrado.

La magnitud del conflicto se hizo gigantesca con el ataque sorpresivo de la aviación japonesa a la escuadra norteamericana anclada en Pearl Harbour (base naval de las islas Hawaii), dejándola prácticamente destruida (7 de diciembre de 1941).

Un ataque similar realizado pocos días después en el golfo de Siam dio cuenta de la flota británica en el Pacífico.

Asegurado el dominio del mar, las tropas japonesas ocuparon Filipinas, Birmania, Indonesia, Nueva Guinea, los importantes puertos de Singapur y Hong Kong y se aprestaron a la invasión de Australia.

Ante la imposibilidad de reparar en breve plazo los grandes acorazados cuyos cañones de largo alcance eran tradicionalmente la base del poder ofensivo, los norteamericanos idearon un nuevo tipo de guerra naval, basado en el uso de portaaviones (muchos de ellos barcos mercantes adaptados).

De esta forma pudieron atacar a la flota japonesa desde posiciones fuera del alcance de tiro de la misma.

Obtuvieron así grandes victorias en las batallas navales de Midway, Mar del Coral y Leyte, reconquistando el dominio del mar y estableciendo el del aire.

La estrategia norteamericana se basó entonces en la conquista de un rosario de islas que los llevaría directamente a las costas japonesas. En cada una encontraron enconada resistencia.

Las fuerzas, al mando del general Douglas Mac Arthur, ocuparon así, las islas de Guadalcanal, Guam, Iwo Shima y Okinawa, entre otras (1943 a 1945).

Los japoneses sufrieron el ataque de los británicos que reconquistaron Birmania en 1944, y se replegaron en China ante la ofensiva del generalísimo Chang-Kai-Shek; los norteamericanos los desalojaron de Nueva Guinea y Filipinas.

En África, luego de reconquistar Túnez, las fuerzas aliada ocuparon Sicilia, en julio de 1943; luego desembarcaron al sur de Nápoles. Producida la renuncia de Mussolíni, Italia se retiró de la guerra y fue inmediatamente ocupada por los alemanes.

Siguió una lucha,’tenaz a lo largo de la Península, a /medida que los aliados avanzaban hacia el norte.

El 6 de junio de 1944 un poderoso ejército norteamericano estacionado en Inglaterra, unido a otras fuerzas aliadas, desembarcó en la costa francesa de Normandía.

Fue la operación de ese tipo más grande de la Historia, en la que operaron más de dos millones de hombres y enormes cantidades de equipos pesados, artillería y tanques, movilizados por buques de desembarco especialmente diseñados y puertos flotantes remolcados desde Inglaterra. Esta operación, fue planeada y dirigida por el general Dwight Eisenhower.

Capturado el puerto de Cherburgo, los aliados entraron en París el 25 de agosto.

El general Charles De Gaulleasumió el gobierno de la Francia liberada, mientras el avance seguía hacia Bélgica y Holanda. El’15 de agosto, más fuerzas francesas y norteamericanas desembarcaron en el sur de Francia y progresaron a lo largo del valle del Ródano.

En 1943, los rusos tomaron entonces la iniciativa y la mantuvieron hasta el fin de la campaña.

Su sostenido avance los llevó finalmente hasta la ciudad de Berlín. Sus ejércitos llegaron a superar diez millones de combatientes.

A partir de 1943, la aviación aliada emprendió continuados bombardeos de «saturación» contra puntos estratégicos y centros industriales. Miles de toneladas de bombas arrasaron ciudades enteras; vencidos en todos los frentes, los alemanes retrocedieron hasta sus propias fronteras.

Calculaban resistir el tiempo suficiente para utilizar una nueva arma: los proyectiles guiados (llamados bombas voladoras V1 y V2), capaces de cambiar el curso de la guerra, porque eran dirigidas matemáticamente a blancos fijados.

Londres fue intensamente bombardeada.

A fines de 1944, y con el objeto de retardar el avance aliado, los alemanes lanzaron, desde la región de las Ardennes (Luxemburgo y noreste de Francia) una importante contraofensiva, pero fueron rechazados.

Los aliados avanzaron entonces en tres columnas: inglesa al norte, norteamericana en el centro y francesa al sur, penetrando en Alemania. Los soviéticos, por su parte, anticiparon el ataque a Berlín y la ocuparon el 2 de mayo de 1945.

Ese día, Hitler, encerrado en un «bunker» (recinto fuertemente fortificado) se suicidó para esquivar la humillación de su inminente captura; a esto sucedió la rendición incondicional germana, el 7 de mayo.

En el Pacífico, la guerra duró cuatro meses más. Los aliados comunicaron al Japón poseer una «bomba atómica» de aterrador poder, intimándole la rendición.

Ante una desdeñosa negativa, el presidente norteamericano HarryTruman, que sucedió a Roosevelt por el fallecimiento de éste, dio la orden.

Una bomba fue lanzada el 6 de agosto sobre la populosa ciudad de Hiroshima, dejándola totalmente destruida; tres días después, cayó otra sobre el importante puerto de Nagasaki. El 14 de agosto, Japón aceptó una paz «sin condiciones».

Las conferencias de Yalta y Postdam, celebradas por los máximos dirigentes aliados (Roosevelt, Churchill y Stalin), decidieron la suerte de los vencidos.

Tanto Alemania como Austria y la ciudad de Berlín quedaron divididas cada una en cuatro zonas de ocupación a cargo de la Unión Soviética, los Estados Unidos, Gran Bretaña y Francia, respectivamente.

Austria logró más tarde su indo pendencia. Alemania fue dividida en la República Federal Alemana (al oeste) y la República Democrática Alemana (comunista, al este). Prusia oriental fue separada del Reich y repartida entre Rusia al norte y Polonia al sur, con el importante puerto de Danzig.

Francia recuperó Alsacia y Lorena; Italia debió ceder Trieste y la zona circundante del litoral Adriático a Yugoslavia, y a Grecia las islas del Dodecaneso.

Rusia anexó las naciones bálticas: Estonia, Letonia y Lituania y territorios de Polonia, Hungría y Finlandia.

Japón fue despojado de sus posesiones de ultramar, entregó a Rusia la parte sur de la isla de Shakalin y las islas Kuriles y cesó en sus pretensiones de ocupar la importante isla de Formosa, que había conquistado.

Resumen de la Vida de las Estrellas, Evolucion Estelar y Muerte

Resumen de la Vida de las Estrellas y Su Evolución Estelar Hasta La Muerte

LA VIDA DE UNA ESTRELLA:

Las estrellas tienen una fuente interna de energía.

Pero, al igual que todo tipo de combustible, sus reservas son limitadas.

A medida que consumen su suministro de energía las estrellas van cambiando y cuando se les acaba, mueren.

El tiempo de vida de las estrellas, aunque muy largo comparado con las escalas de tiempo humanas, es, por lo tanto, finito.

A medida que envejecen sufren profundos cambios en sus tamaños, colores y luminosidades, siempre como consecuencia de la disminución de sus reservas.

Para aumentar su expectativa de vida, la estrella lucha continuamente contra la fuerza gravitatoria que intenta contraerla.

Las distintas etapas evolutivas son sucesiones de contracciones que terminan cuando la estrella comienza a quemar otros combustibles que mantenía en reserva y logra establecer una nueva situación de equilibrio.

Galaxias y estrellas del universo

El factor más importante en el desarrollo de una estrella es su masa inicial.

Las estrellas más masivas tienen mayores temperaturas centrales y, en consecuencia, producen energía y consumen combustible a un ritmo creciente.

Este hecho fue determinado observacionalmente y se llama relación masa-luminosidad.

Podría parecer que las estrellas más masivas, las que tienen más combustible, deberían tener vidas más largas.

Pero en realidad sucede exactamente lo contrario.

Al igual que con el dinero o la comida, la duración del combustible estelar depende tanto de la cantidad disponible como del ritmo de consumo.

Por ejemplo, la vida del Sol será de 10 mil millones de años.

Una estrella de masa 10 veces mayor tiene 10 veces más combustible, pero lo quema a un ritmo tan grande (de acuerdo a la relación masa-luminosidad) que termina de consumirlo en 30 millones de años.

En el otro extremo, una estrella de 0,1 M0 brillará durante 3 billones de años antes de morir.

¿Cómo se mide la masa, esa propiedad fundamental que determina completamente la estructura y evolución de una estrella?

El único método de determinación directa de masas es el estudio del movimiento de estrellas binarias.

Las estrellas dobles o binarias están muy próximas entre sí y cada estrella gira alrededor del centro de gravedad del par.

Aplicando a estos sistemas las leyes de Newton es posible deducir su masa.

Sin embargo, la masa de cada estrella del sistema se puede determinar sólo en el caso de que el sistema binario sea ecipsante (es decir cuando una de las estrellas eclipsa a la otra).

Estas mediciones, aunque pocas en número, son interesantes porque a partir de ellas se han podido establecer algunos resultados que dieron la clave para comprender la evolución estelar.

Una manera indirecta de determinar la masa estelar es usando la relación masa-luminosidad que pudo ser establecida cuando se desarrolló una de las herramientas más poderosas con que cuentan los astrofísicos, el diagrama R-R que consideraremos a continuación.

Se han observado estrellas muy masivas, hasta 120 M0, pero ¿hay una masa mínima para las estrellas?.

La respuesta a esta pregunta está todavía en estudio.

Las estrellas de menor masa observadas son Ross 614B, de 0,08 M0 y Luyten 726-8B con 0,04 M0, pero la mayoría de las estrellas tienen masas de entre 0,3 y3 M0.

https://historiaybiografias.com/bullet8.jpg

EL DIAGRAMA H-R  

En el año 1911 el astrónomo danés E. Hertzsprung comparó la magnitud absoluta y la luminosidad de estrellas pertenecientes a varios cúmulos.

Trazó la curva de variación de uno de estos parámetros en función del otro y observó que los puntos no estaban esparcidos al azar en el diagrama, sino que se distribuían a lo largo de una línea bien definida.

En 1913, el astrónomo norteamericano H. Russell llegó a la misma conclusión con datos de otras estrellas.

Mostró empíricamente la existencia de una relación entre la luminosidad y temperatura estelares.

El diagranta resultante se llama diagrama Hertzprung-Russell (H-R), y está representado en la figura.

La posición de unaa estrella en el diagrama H-R depende de su estado de evolución, y por eso la estructura y la historia de nuestra galaxia se pueden estudiar con este instrumento básico.

Así como los botánicos pueden estimar la edad de un árbol a partir de la cantidad de anillos de su tronco, los astrónomos encuentran en el H-R la herramienta que les permite estimar la edad de una estrella.

Diagrama estelar E. Hertzsprung

El diagrama Herzprung-Russell. Cada estrella se representa según su magnitud absoluta, que mide su brillo intrínseco, y su tipo espectral, que refleja su color y su temperatura. Esta última aumenta hacia la izquierda

Un examen en el diagrama H-R de las estrellas con distancias conocidas muestra que no están distribuidas al azar, sino que muchas (entre ellas el Sol) están agrupadas en una banda angosta sobre la diagonal, llamada secuencia principal.

Otro grupo de estrellas, la rama de las gigantes, se extiende horizontalmente sobre la secuencia principal.

Las estrellas con luminosidades mayores que las gigantes se llaman supergigantes, mientras las estrellas sobre la secuencia principal se llaman enanas.

Estudiando los sistemas binarios se pudo establecer que la luminosidad de una estrella de secuencia principal es proporcional a su masa elevada a la potencia 3,5.

Es decir que una estrella 2 veces más masiva que el Sol será 11 veces más 1 luminosa.

Esta relación masa-luminosidad es una forma de estimar la masa de una estrella que no pertenece a un sistema binario a partir de su luminosidad, con la condición de que pertenezca a la secuencia principal, lo que se puede determinar, como veremos, con criterios espectroscópicos.

Las cantidades fundamentales que definen este diagrama se pueden medir con distintos parámetros, dándole así distintas formas.

El H-R clásico usa dos cantidades: el tipo espectral (que es una determinación cualitativa de la temperatura) y la magnitud absoluta.

• ►El Tipo Espectral

La única fuente de información sobre la naturaleza de las atmósferas estelares es el análisis de su espectro, del que se pueden hacer dos tipos de aproximaciones: cuantitativas y cualitativas.

Como hemos visto en el capítulo anterior, el análisis cuantitativo pernúte determinar los parámetros físicos que describen la atmósfera estelar.

El análisis cualitativo descansa en la simple observación de que los espectros pueden agruparse en familias: esta clasificación espectral considera sólo la apariencia del espectro en el visible.

Según ella, las estrellas se ordenan en 7 clases principales (de acuerdo a su temperatura) a las que se designa con las letras O, B, A, F, G, K y M. Para tener en cuenta las diferencias de apariencia entre espectros de la misma clase fue necesario establecer una subdivisión decimal, y entonces el tipo espectral se representa por BO, B1, B2, …, B9, AO, A1…

La clasificación espectral se basa en la presencia o ausencia de líneas de ciertos elementos, lo que no refleja una composición química diferente de las atmósferas sino sólo las diferencias de temperatura atmosférica.

Así el H, que es el elemento más abundante del universo y del que todas las estrellas tienen casi la misma abundancia, predomina en las líneas espectrales de estrellas con temperaturas cercanas a lO.0000K, porque la excitación del átomo de H es máxima a esta temperatura.

En las atmósferas de las estrellas más calientes, de tipo espectral o, el H está casi todo ionizado y entonces no produce un espectro significativo de líneas de absorción.

En las atmósferas de estrellas frías (por ejemplo de tipo espectral K) los átomos de H son neutros (no ionizados) y prácticamente todos están en el estado fundamental, no excitado.

El espectro de líneas así producido pertenece principalmente al rango ultravioleta, no observable desde la Tierra, mientras que las líneas de H observadas en el visible son muy débiles.

Las estrellas de tipo o que son las más calientes, muestran en sus espectros líneas de He ionizado, pero no líneas de H.

Yendo a tipo BO hasta AO la intensidad de las líneas de He también decrece cuando las condiciones de temperatura no son favorables y la de los metales (elementos más pesados que el He) crece para tipos espectrales correspondientes a temperaturas más bajas.

En las estrellas más frías, las líneas de metales neutros se hacen más y más intensas y aparecen bandas características de moléculas.

Las clasificación en “gigantes” y “enanas”, tiene sentido sólo para un dado tipo espectral.

Si se consideran dos estrellas del mismo tipo espectral, una de la secuencia principal y la otra de la rama de las gigantes, las dos muestran gran diferencia en luminosidad.

Como son del mismo tipo espectral, tienen la misma temperatura.

La diferencia de luminosidad se origina entonces en la diferencia de tamaño.

Comparemos, por ejemplo, dos estrellas de clase M.

La luminosidad de la gigante es 10.000 veces mayor que la de la enana (o de secuencia principal).

Por lo tanto su área superficial debe ser 10.000 veces mayor y entonces el radio de la gigante será 100 veces mayor que el de la enana.

(La ley de Stefan-Boltzmann dice que:  L es proporcional a R2.T4).

Las estrellas que aparecen por debajo de la secuencia principal son las enanas blancas, cuyos radios son muy pequeños.

https://historiaybiografias.com/bullet8.jpg

■ COMO NACE UNA ESTRELLA

Como ya hemos dicho la vida estelar es una sucesión de contracciones.

La primera gran contracción es la de la nube interestelar que crea la estrella.

La cuna de las nuevas generaciones de estrellas en nuestra galaxia parece estar en las nubes interestelares de átomos y moléculas.

La densidad promedio del medio interestelar en la galaxia es de cerca de un átomo por cm3.

La formación de una estrella requiere una densidad 1024 veces mayor.

El único mecanismo capaz de actuar a grandes distancias y de originar tal factor de compresión es la fuerza de la gravedad, que juega aquí un papel esencial.

Por otro lado el movimiento térmico de las moléculas y el movimiento turbulento del gas interestelar producen una presión que impide una contracción abrupta impuesta por el campo gravitatorio.

Cuando la gravedad rompe este equilibrio se puede formar una estrella o un grupo de estrellas.

En términos muy generales, esto sucede cuando la masa de la nube sobrepasa una cierta masa crítica.

Una nube colapsará si, por ejemplo, su masa aumenta por colisiones con nubes más pequeñas, pero su temperatura promedio sólo aumenta ligeramente, o si la masa de una nube permanece constante, pero su temperatura disminuye, de manera que la presión no puede frenar el colapso.

Estas dos situaciones podrían ocurrir simultáneamente.

Los cálculos indican que en nubes con masas mayores que unas 2.000 M0 la gravedad gana sobre las fuerzas de presión.

La nube se hace gravitatoriamente inestable y se contrae más y más rápido. Como la masa de una estrella típica es unas 1.000 veces menor, hay que concluir que la nube se fragmenta.

Los complejos moleculares gigantes muy fríos, con temperaturas de unos 10 a 90 0K, son los lugares reconocidos de formación estelar.

Sus masas son muy grandes; alcanzan hasta 1.000.000 M0.

El polvo de la nube oculta las nuevas estrellas al astrónomo óptico, pero éstas se pueden detectar en el infrarrojo.

Hay un tipo de nubes moleculares pequeñas, llamadas “glóbulos de Bok”, algunos de los cuales se han observado en contracción gravitatoria.

Su velocidad de colapso es de aproximadamente medio km/seg, y su radio es del orden de 2 años luz.

Si nada frena su colapso, estos glóbulos se condensaran en estrellas dentro de 1.000.000 años, lo cual, en términos de la vida total de la estrella, es un período muy breve.

Estos objetos aislados (que se ven como zonas negras contra el fondo de la Vía Láctea) ilustran los modelos teóricos de formación estelar.

La región central, altamente comprimida y mucho más densa que la periferia, atrae a la materia que la rodea.

La temperatura aumenta progresivamente y la presión se hace suficientemente alta como para parar momentáneamente el colapso del núcleo.

Poco a poco toda la materia en la envoltura cae hacia la protoestrella.

Cuando su temperatura pasa los 10 millones de °K, comienzan las reacciones termonucleares, es decir el autoabastecimiento de energía.

En este momento la estrella entra en la secuencia principal y comienza su vida normal.

En las galaxias espirales, como la nuestra, las estrellas se forman en los brazos espirales, donde se encuentran el polvo y el gas interestelares.

La observación de estrellas en formación o estrellas muy jóvenes junto con su ambiente provee importantes contribuciones a la teoría de formación estelar.

En el esquema presentado la formación de estrellas está directamente relacionada a la evolución de las nubes moleculares, pero aunque es el caso más estudiado, no es el único.

Una forma de aprender más sobre formación estelar es investigar galaxias vecinas.

La formación estelar en la Gran Nube de Magallanes presenta algunos problemas para este esquema: en una región llamada 30 Dorado se observan unas 50 estrellas O y B asociadas con una nube de 50 millones de M0 de hidrógeno neutro.

No hay polvo en esta región ni se ha detectado ninguna nube molecular.

Esto muestra claramente que la teoría de formación estelar basada en nubes moleculares no explica todos los nacimientos estelares.

Este es un tema de gran actualidad en astrofísica que todavía no está resuelto.

La protoestrella entra al diagrama H-R por la derecha (la parte roja o fría), en el momento en que la temperatura central se hace suficientemente alta (recordemos que bajo compresión la temperatura de un gas aumenta) y la estrella comienza a convertir H en He.

La posición inicial de la estrella en el H-R define la llamada secuencia principal de edad cero (ZAMs).

Cuanto más masiva nace una estrella más arriba comienza su vida de secuencia principal y más luminosa es.

La posición de la ZAMS sobre el diagrama H-R depende de las composiciones químicas de las estrellas que se forman.

La abundancia de metales (elementos más pesados que el He) aumenta de generación a generación, a medida que las estrellas más viejas evolucionan y enriquecen el medio interestelar con elementos pesados.

En consecuencia la ZAMS se desplaza cada vez más hacia la derecha sobre el H-R a medida que la galaxia envejece, y este corrimiento permite estimar la edad de la galaxia.

La secuencia principal representa la primera pausa y la más larga en la inexorable contracción de la estrella.

Durante este intervalo las estrellas son hornos nucleares estables y a esta estabilidad debemos nuestras propias vidas, ya que el Sol se encuentra en esta etapa.

A medida que la estrella envejece se hace un poco más brillante, se expande y se calienta. Se mueve lentamente hacia arriba y a la izquierda de su posición inicial ZAMS.

Evolución de las Estrellas

Para una persona, incluso para una toda generación de seres humanos resultaimposible observar una única estrella para descubrir todo lo que le sucede en el transcurso de su existencia, ya que la vida estelar media es del orden de los miles de millones de años.

Identificar y ordenar las distintas etapas en la vida de las estrellas, puede compararse con obtener una fotografía en conjunto de todos los habitantes de una ciudad; en la foto se tendría una visión de las posibles fases o estadios de la vida humana: habrían recién nacidos, niños, adultos, ancianos, etc.

Al analizar la imagen obtenida de cada persona y clasificándola de acuerdo a cierto carácter, podría establecerse el ciclo de la vida humana con bastante precisión; se podría estimar el ciclo completo, captado en un único instante de tiempo en la fotografía de conjunto.

Debido a la cantidad y a la gran variedad de estrellas existentes, se logra tener una idea de su evolución observando estrellas en las diversas fases (o etapas) de su existencia: desde su formación hasta su desaparición.

Al respecto se debe tener en cuenta que, efectivamente, se han visto desaparecer estrellas (por ejemplo, la supernova de 1987) como también se han hallado evidencias de la formación de otras nuevas (como en el profundo interior de la Nebulosa de Orión, por ejemplo).

Ya mencionamos que en el estudio de las estrellas, se utilizan parámetros físicos como la temperatura o la masa, entre otros.

Pero debe señalarse también otra de las técnicas usuales en Astronomía, denominada Espectroscopía.

La luz estelar se descompone en su gama intrínseca de colores, llamándose «espectro» al resultado de esa descomposición cromática (la palabra espectro que significa «aparición», fue introducida por I. Newton, quien fue el primero es descubrir el fenómeno).

En el espectro de las estrellas, además de los colores, aparecen ciertas líneas o rayas bien nítidas.

Esas líneas o mejor dicho, cada una de las series de líneas, se corresponde, según su posición en el espectro, por una parte con la T de la superficie estelar y por otra, con los elementos químicos presentes en la atmósfera de la estrella.

Diferentes elementos químicos absorben o emiten luz según la temperatura a que se encuentren; de esta manera la presencia (o ausencia) de ciertos elementos en la atmósfera de la estrella, indica su temperatura.

Los astrónomos han diseñado un sistema de clasificación de estrellas, de acuerdo a las características que presentan sus respectivos espectros.

En ese esquema, las estrella s se ordenan desde las más calientes a las más frías, en tipos espectrales que se identifican según el siguiente patrón de letras: O B A F G K M

Las estrellas más calientes (O) tienen temperaturas de unos 40.000 ºC; en el otro extremo, las más frías (M), alcanzan sólo 2.500 ºC; en este esquema, el Sol, con una temperatura superficial de 6.000 ºC, resulta una estrella de tipo espectral intermedio entre las más calientes y las más frías: es una estrella tipo G.

Este sistema de clasificación se corresponde además con los colores de las estrellas: las de tipo (O) son azules-violáceas y las de tipo M, rojas; el Sol (tipo G) es amarillo.

Los colores observados también se relacionan con la temperatura, ya que las estrellas más calientes emiten la mayor parte de su luz en la zona azul del espectro electromagnético, mientras que las más frías lo hacen en la zona roja.

En las estrellas más calientes, las distintas capas interiores deben vencer mayor atracción gravitacional que las capas más externas, y por lo tanto la presión del gas debe ser mayor para mantener el equilibrio; como consecuencia, mayor es la temperatura interna.

Implica que la estrella debe «quemar» combustible a gran velocidad, lo que produce una ingente cantidad de energía.

Esta clase de estrellas sólo puede tener una vida limitada: unos pocos millones de años.

Las estrellas frías (generalmente pequeñas y con una fuerza de gravedad débil) sólo producen una modesta cantidad de energía; en consecuencia aparecen brillando tenuemente.

Así, estas estrellas pueden existir como tales sólo algunas decenas de miles de millones de años.

En la siguiente Tabla se indican la temperatura característica (en grados centígrados, ºC) de cada tipo espectral (T.E.).

Tipo EspectralTemperatura (ºC)
O40.000
B25.000
A11.000
F7.600
G6.000
K5.100
M2.500

Ahora bien, la temperatura y consecuentemente, la cantidad de energía que emite una estrella, depende de su masa: cuanto mayor es su masa, mayor es la temperatura y por consiguiente mayor es la cantidad de energía que irradia.

Pero hasta que en su núcleola temperatura no alcance un valor de algunos millones de grados, no se producirán transformaciones nucleares (del tipo de transmutación de hidrógeno en helio) y, por lo tanto, mientras eso no ocurra, la cantidad de energía que emiten será bastante pequeña (objetos de esta clase son denominados protoestrellas).

Cuando se inicia la vida de una estrella, el calor de su interior procede de la energía gravitacional, es decir, de la nube de gas que se comprime sobre sí misma (colapso).

La etapa de protoestrella se corresponde con grandes inestabilidades en su estructura interna, las que acaban cuando la temperatura de su núcleo alcanza los 10 millones de grados, iniciándose entonces la transmutación del hidrógeno en helio y, por lo tanto, la generación de energía desde su núcleo: en esa etapa el astro se considera ya una estrella.

Las estrellas contienen suficiente hidrógeno como para que la fusión en su núcleo dure un largo tiempo, aunque no para siempre.

La velocidad de combustión del hidrógeno depende de la masa, o sea de la cantidad de materia que compone la estrella.

Llegará un momento en que se acabará todo el hidrógeno disponible y sólo quede helio.

En esas condiciones la estrella sufrirá diversos tipos de transformaciones: aumentará de tamaño y el helio acumulado se transmutará en elementos más pesados como el carbono, el nitrógeno, el oxígeno, etc, mediante otras reacciones nucleares.

Entonces la estrella dejará de ser estable: sufrirá cambios de volumen y expulsará al espacio parte de su material.

Las capas mas externas serán las primeras en alejarse.

Después de cinco a diez mil millones de años, una estrella como el Sol evoluciona a un estado denominado de gigante roja: un objeto de gran tamaño (de dimensiones mayores que las originales), mucho más fría y de una coloración rojiza.

Su temperatura superficial disminuye y por lo tanto toma color rojizo.

La gigante roja brillará hasta que su núcleo genere cada vez menos energía y calor.

En esas condiciones la estrella empieza a contraerse: disminuye su diámetro y al mismo tiempo aumenta su temperatura superficial.

Si la estrella, al formarse, tiene una masa cuarenta veces mayor que la masa del Sol, pasará al estado de gigante roja en sólo unas pocas decenas de millones de años.

Luego irá disminuyendo de tamaño y perderá rápidamente una cantidad significativa de su masa expulsando materia hacia el espacio.

Otra modo de expulsar materia es lentamente, a través de fuertes vientos estelares; de esta forma los astrónomos han observado que se forma una envoltura gaseosa que circunda la estrella y que puede llegar a ser bastante densa; si ese proceso continúa puede dar lugar a un objeto denominado nebulosa planetaria.

Con el nombre de nebulosas planetarias, se define a una estrella muy caliente y pequeña, rodeada por una esfera de gas fluorescente en lenta expansión; algunas fotografiadas con potentes telescopios, muestran que esas nebulosas tienen forma de anillo, razón por la cual se le ha dado ese nombre, ya que su aspecto observada en el telescopio es similar al disco de un planeta.

Finalmente, hacia el término de su existencia, esas estrellas se convierten en objetos de pequeñas dimensiones (del tamaño de la Tierra o aún menor), calientes y de color blanco: son las enanas blancas.

La materia de estos objetos se halla extremadamente comprimida: 1 centímetro cúbico de la misma puede pesar varias toneladas.

En otras palabras, en un volumen similar al de nuestro planeta se halla condensada la misma cantidad de materia que hay en un volumen comparable al del Sol.

Pero no todas las estrellas acaban como enanas blancas.

Cada estrella termina su vida de un modo que depende mucho de su masa inicial, aquella que tuvo cuando comenzó su existencia.

Una estrella de gran masa (varias veces la del Sol) y que no pierde mucha materia durante su evolución termina su vida en una explosión muy violenta que se denomina supernova; cuando esto ocurre la estrella brillará tanto como toda la galaxia en la cual se encuentra, aunque su brillo será efímero: la estrella ya está condenada a extinguirse como tal.

En el siguiente cuadro se muestran los distintos estados evolutivos finales para estrellas de diferente masa inicial (M).

La masa está expresada en masas solares (Msol = 1).

Masa InicialEstado evolutivo final
M < 0,01Planeta
0,01 < M < 0,08Enana marrón
0,08 < M < 12Enana blanca
12 < M < 40Supernova + estrella de neutrones
40 < MSupernova + agujero negro

Distintos estados evolutivos finales para estrellas de diferente masa inicial <M>. La masa está expresada en masas solares (Msol = 1).

Los restos gaseosos de una supernova (que se denominan remanentes) se esparcen cubriendo una extensa zona del espacio, formando una nube en permanente expansión que se aleja a varios miles de kilómetros por segundo y cuyas características son bastante peculiares (por ejemplo, aparecen campos magnéticos sumamente intensos).

El gas que compone un remanente de supernova es bastante diferente al gas de la nube que formó a la estrella.

La nube de origen estuvo compuesta casi exclusivamente por helio y helio, mientras que en el remanente existe una gran variedad de elementos químicos, restos de la fusión nuclear que ocurriera en la estrella desaparecida y también otros formados durante la explosión que se produce en la fase de supernova.

En el siguiente cuadro se muestran algunas estrellas con sus características físicas más importantes.

Estrella Magnitud
aparente (m)
Magnitud
Absoluta
Temperatura
(en ºC)
Radio
(en radios solares)
Características
Centauri 0,6-5,021.00011gigante
Aurigae 0,1-0,15.50012gigante
Orion 0,4-5,93.100290supergigante
Scorpi 0,9-4,73.100480supergigante
Sirio B 8,711,57.5000,054enana blanca

De este modo se recicla el material estelar: las estrellas que se formen con el gas expulsado en una explosión de supernova, serán menos ricas en hidrógeno y helio, pero más ricas en los elementos químicos más pesados, que las estrellas de su generación anterior.

Pero sucede que luego de la explosión de una supernova, lo que queda del astro, además de sus remanentes, es un cuerpo de apenas algunos kilómetros de diámetro, conformado por él núcleo de la estrella original.

En la explosión de supernova se produce un catastrófico colapso de la estrella; debido a su gran masa, la enorme fuerza de gravedad comprime la materia con mucha más intensidad que en el proceso que genera a una enana blanca .

En estas condiciones toda la masa de una estrella ordinaria (como el Sol) se comprime en una pequeña esfera de apenas 15 Km. de diámetro; a estos diminutos astros se los ha bautizado estrellas de neutrones (su denominación se debe a que se trata de objetos compuestos básicamente de neutrones).

La materia en estos objetos se ha comprimido a tal extremo y su densidad alcanza a valores tan grandes, que los electrones se combinan con los protones dando lugar a la formación de nuevos neutrones.

evolucion estelar desde la nube de gas hasta agujero negro

Fuente Consultada: Astronomía Elemental de Alejandro Feinstein y Notas Celestes de Carmen Nuñez

SÍNTESIS DEL TEMA…

Ningún astrónomo ha podido contemplar, hasta ahora, el interior de las estrellas, pero todos los científicos conocen ya los fenómenos que se producen en el centro de éstas y en los estratos que lo cubren hasta llegar a la superficie visible.

Las estrellas son enormes esferas de gas, de un diámetro medio, equivalente a cien veces el de la Tierra.

El gas que las compone contiene, aproximadamente, un 80 % de hidrógeno y un 18 % de helio.

La mayor parte de los elementos se hallan presentes en ellas, aunque en cantidades insignificantes.

La superficie de las estrellas está incandescente: su temperatura oscila, según el tipo de estrella, entre miles y decenas de millares de grados centígrados.

Pero, a medida que se penetra en su interior, esa temperatura va haciéndose cada vez más alta, hasta alcanzar, en el centro, decenas de millones de grados, lo cual pone a los átomos en un estado de «agitación» tan violenta, que los lleva a chocar entre sí, perdiendo electrones y formando iones (átomos que han perdido, por lo menos, uno de sus electrones).

El gas de los iones y electrones se ve sometido a presiones tan altas, que en ocasiones alcanza una densidad miles de veces superior a la del agua.

¿Qué es lo que comprime el gas en el interior de las estrellas?.

El peso de los estratos superiores. Todo el mundo ha oído hablar de las elevadas presiones existentes en el fondo del mar o en el centro de la Tierra (éstas, particularmente, alcanzan cifras asombrosas).

Pero, en el centro de una estrella, a una profundidad cien veces mayor, las presiones son tan enormes, que bastan para comprimir toda la materia estelar en un reducidísimo espacio.

Los átomos, chocando entre sí, perdiendo y, a veces, adquiriendo electrones, emiten una gran cantidad de luz, comparada con la cual la superficie del Sol parecería oscura.

Llegados a este punto, conviene explicar que la luz ejerce presión sobre los cuerpos que ilumina: poca presión, cuando su intensidad es débil, y mucha, cuando es fuerte.

Esta propiedad de la luz se encuentra, naturalmente, fuera de los límites de nuestra experiencia, ya que la Tierra, por fortuna, nunca se ve expuesta a radiaciones luminosas de tanta intensidad.

Pero éstas son lo suficientemente intensas, en el interior de las estrellas, como para ejercer, sobre los estratos superficiales, presiones que llegan al millón de toneladas por centímetro cuadrado.

Es decir: equilibran, en parte, la presión hacia el interior de estos estratos y evitan que la estrella se convierta en un pequeño y densísimo núcleo.

A las temperaturas descritas, los átomos chocan en forma tan violenta que, cuando los núcleos de hidrógeno entran en colisión entre si, o con núcleos de otros elementos (carbono y nitrógeno), se funden y originan núcleos de helio.

Este proceso de fusión de núcleos se llama «-reacción termonuclear», lo que significa «reacción nuclear provocada por la temperatura».

Cada vez que se forma un nuevo gramo de helio, se libera una energía equivalente a la que se obtendría quemando media tonelada de carbón. ¡Y se forman millones de toneladas de helio por segundo!

La fusión del hidrógeno es, pues, la reacción que mantiene el calor de las estrellas.

Como la mayor parte de éstas contiene casi exclusivamente hidrógeno, y basta consumir un poco para obtener una gran cantidad de energía, se comprende que las estrellas puedan brillar ininterrumpidamente durante miles de millones de años.

La zona del interior de las estrellas en las que se produce ,La energía termonuclear es pequeña: muy inferior a una décima parte del volumen total de la estrella.

Lo cual dificulta notablemente la llegada del calor a la superficie.

Una parte de éste se transmite por radiación (es decir: la energía térmica producida en el núcleo central es enviada, bajo forma de radiaciones electromagnéticas, a los átomos exteriores, que la absorben y la envían, a su vez, hacia átomos más exteriores, hasta que así, de átomo en átomo, la energía llega a la superficie de la estrella, irradiándose en el espacio).

Pero la mayor parte de la energía térmica es transportada a la superficie por la circulación de la materia estelar, que se halla en continuo movimiento: sube caliente del centro, se enfría en la superficie, por cesión de calor, y vuelve fría al centro, en busca de más calor.

Esta forma de transporte se llama transporte por «convección».

Los movimientos convectivos de la materia estelar provocan importantes fenómenos magnéticos, que repercuten en la superficie, produciendo maravillosas y fantasmagóricas manifestaciones: fuentes de gas incandescente, gigantescas protuberancias de gas luminoso coloreado, y manchas oscuras de materia fría, rodeadas por campos magnéticos, de extensión .e intensidad enormes.

De esta naturaleza son las famosas manchas solares descubiertas por Galileo, que siempre han despertado gran interés entre los investigadores, por su influencia sobre la meteorología de nuestro planeta, sobre las transmisiones electromagnéticas, e incluso, al parecer, sobre algunos fenómenos biológicos.

La existencia de una estrella depende, por tanto, del perfecto equilibrio entre los mecanismos que producen la energía en su interior y los encargados de transportarla a la superficie.

Cuando este equilibrio es inestable, las estrellas experimentan variaciones (estrellas variables); cuando, en cambio, se altera completamente, puede producirse uno de los más grandiosos fenómenos cósmicos: la explosión de una estrella, de lo cual nos ocuparemos en otro artículo.

Otros Temas Tratados en Este Sitio

Big Bang

Origen de la Vida

Origen del Hombre

Teoría de la Evolución

Muerte de una Estrella Los Pulsares Enana Blanca

Peso de Una Estrella de Neutrones

La Vida del Sol Tiempo de Vida Hidrogeno del Sol

La Luna Muestra Siempre la Misma Cara

Origen del aire que respiramos El Oxigeno

Agujeros Negros Origen, Formación y Características :Breve y Fácil

Origen y Características de los Agujeros Negros: Muerte de Estrellas

Desde hace mucho tiempo uno de los temas predilectos de la ciencia-ficción han sido los agujeros negros, y en estrecha relación con ellos, el viaje a través del tiempo.

El concepto de agujero negro fue popularizado por el físico británico Stephen Hawking, de la Universidad de Cambridge, quien describe con ese nombre a una región del Universo de la que no puede salir ningún objeto una vez que entró allí.

Con esto en mente, sería interesante preguntarse qué le sucedería a alguien en el hipotético caso de encontrarse en las cercanías de una de estas regiones, qué sensaciones tendría y si la realidad que lo rodea sería igual a la que nos es familiar.

Hawking Físico astronomo

Para el físico Stephen Hawking y para la mayoría de los científicos un agujero negro es una región del Universo de la que no puede salir ningún objeto una vez que entró allí.

Agujeros negros:

Como hemos visto en el nacimiento de las estrellas, una vez que el H y el He, el combustible termonuclear se han consumido en el núcleo de la estrella, sobreviene un colapso gravitatorio.

La evolución estelar culmina con la formación de objetos extremad mente compactos como enanas blancas o estrellas de neutrones cuando masa de la estrella no excede las 3 Mo (masa del Sol).

Si la masa es mayor, la compresión gravitatoria ya no se puede compensar con las fuerzas de repulsión de  electrones o neutrones degenerados y continúa tirando materia sobre la estrella: se forman los agujeros negros.

En efecto, cuando los neutrones entre en colapso no existe ningún mecanismo conocido que  permita detener contracción.

Esta continúa indefinidamente hasta que la estrella desaparce, su volumen se anula y la densidad de materia se hace infinita.

¿Cómo entender una “estrella” más pequeña que un punto y con semejante densidad de materia en su interior?

Si una estrella se contrae, el campo gravitatorio en su superficie aumenta, aunque su masa permanezca constante, porque la superficie está más cerca del centro.

Entonces, para una estrella de neutrones de la misma masa que el Sol la velocidad de escape será de unos 200.000 km/seg.

Cuanto mayor es la velocidad de escape de un cuerpo más difícil es que algo pueda escapa de él.

En cierto momento la velocidad de escape llega al limite de 300.000 km/s. çEsta es la velocidad de las ondas electromagnéticas en particular de la luz que será entonces lo único que puede escapar de estos objetos.

Ya hemos mencionado que no es posible superar esta velocidad y por lo tanto cuando la velocidad de escape de una estrella sobrepasa este limite, nada podrá escapar de ella.

Los objetos con esta propiedad se llaman agujero negros.

Desde 1915, con la teoría de la relatividad general de Einstein se sabía que la gravedad generada por un cuerpo masivo deforma el espacio, creando una especie de barrera; cuanto más masivo es el cuerpo, mayor es la deformación que provoca.

Los agujeros negros se caracterizan por una barrera  profunda que nada puede escapar de ellos, ni materia ni radiación; así toda la materia que cae dentro de esta barrera desaparece del universo observable.

Las propiedades físicas de estos objetos son tan impresionantes que por mucho tiempo quitaron credibilidad a la teoría.

Esta predice la existencia de agujeros negros de todos los tamaños y masas: los miniagujeros negros tendrían la masa de una montaña concentrada en el tamaño de una partícula; un agujero negro de 1cm. de radio sería tan masivo como la Tierra; los agujeros negros estelares tendrían masas comparables a las de las estrellas dentro de un radio de pocos kilómetros; finalmente, los agujeros negros gigantes tendrían una masa equivalente a varios cientos de millones de estrellas dentro de un radio comparable al del sistema solar.

Una forma de detectar agujeros negros sería a través de ondas gravitatorias.

Estas ondas son para la gravedad lo que la luz es para el campo electromagnético.

Sin embargo la tecnología actual no permite todavía esta posibilidad.

El colapso de una estrella o la caída de un cuerpo masivo sobre un agujero negro originarían la emisión de ondas gravitatorias que podrían ser detectables desde la Tierra con antenas suficientemente sensibles.

 Aunque estas tremendas concentraciones de materia no se han observado todavía directamente hay fuerte evidencia de la existencia de estos objetos.

Los astrofísicos comenzaron a interesarse activamente en los agujeros negros en la década del 60, cuando se descubrieron fenómenos sumamente energéticos.

Las galaxias superactivas, como las Seyferts, cuásares y objetos BL Lacertae emiten una cantidad de energía mucho mayor que una galaxia normal, en todas las longitudes de onda.

Todos estos violentos fenómenos parecen asociados con cuerpos compactos muy masivos: estrellas de neutrones o agujeros negros estelares en el caso de binarias X, estrellas supermasivas o agujeros negros gigantes en los núcleos galácticos activos.

Las aplicaciones más importantes de los agujeros negros a la astrofísica conciernen a los núcleos activos de galaxias y cuásares.

Los efectos de las enormes energías involucradas allí podrían ser sumamente interesantes y podrían permitir explicar fenómenos que todavía no se comprenden.

Fuente Consultada:Notas Celestes de Carmen Nuñez

GRANDES HITOS EN LA HISTORIA DE LOS AGUJEROS NEGROS

1783 El astrónomo británico John Michell señala que una estrella suficientemente masiva y compacta tendría un campo gravitatorio tan grande que la luz no podría escapar.

1915 Albert Einstein dio a conocer su teoría de la gravitación, conocida como Teoría General de la Relatividad.

1919 Arthur Eddington comprobó la deflexión de la luz de las estrellas al pasar cerca del Sol.

1928 S. Chandrasekhar calculó el tamaño de una estrella que fuera capaz de soportar su propia gravedad, una vez  consumido todo si combustible nuclear. El resultado fue que una estrella de masa aproximadamente una vez y media la del Sol nc podría soportar su propia gravedad. Se le otorgó el Premio Nobel 1983.

1939 R. Opphenheimer explice qué le sucede a una estrella qué colapsa, de acuerdo con la Teoría de la Relatividad General.

1963 M. Schmidt identifica un quasar desde el observatorio de Monte Palomar.

1965 – 1970 R. Penrose y S, Hawking demuestran que debe haber una singularidad, de densidad y curvatura del espacio-tiempo infinitas, dentro de un agujero negro.

agujero negro

En el interior de un agujero negro, el retorcimiento del tiempo y el espacio aumentan hasta el infinito. A esto los físicos llaman singularidad.

■ Un rayo de luz se curva al pasar cerca de un objeto masivo ya que está curvado el espacio que atraviesa.

Si el rayo pasa sucesivamente por varios cuerpos su trayectoria se curvará hasta que el rayo quede girando en círculo, del que no puede escapar.

Este es el efecto gravitatorio de los agujeros negros.

■ Un agujero negro es una zona del universo con una gravedad tan enorme que ni el tiempo puede salir de él.

■ Los pulsares y los quasars proporcionan información complementaria sobre la ubicación de los agujeros negros.

■ Detectar un agujero negro no es fácil. Se los descubre por la poderosa emisión de rayos X que los caracteriza.

Si un astronauta penetrara en un agujero negro no tendría forma de vivir.

Debido a la intensísima fuerza gravitoria nos estiraríamos como un fideo hasta despedazarnos.

■ En el interior de un agujero negro el espacio y el tiempo aumentan hasta lo, infinito.

■ Se estima que el número de agujeros negros en el Universo es muy superior al número de estrellas visibles y son de mayores dimensiones que el Sol.

■ Existen varios agujeros negros identificados, uno se halla en nuestra Via Láctea: el Cygnus X-1.

AMPLIACIÓN DEL TEMA:
Fuente: Magazine Enciclopedia Popular: Los Agujeros Negros

Hagamos un ejercicio mental e imaginemos por un momento que somos intrépidos astronautas viajando al interior de un agujero negro…

Repasemos algunas ideas importantes. Los físicos saben desde hace mucho que un rayo de luz se curva al pasar cerca de un objeto masivo ya que está curvado el espacio que atraviesa. Pero ¿qué sucede si este rayo pasa sucesivamente cerca de varios cuerpos?.

Cada vez su trayectoria se curvará un poco más hasta que finalmente el rayo estará girando en círculo, del que no podrá escapar. Este efecto gravitatorio se manifiesta en los agujeros negros, donde la atracción es tan fuerte que nada, ni siquiera la luz, puede escapar de él una vez que entró.

La gravitación distorsiona además del espacio, el tiempo. Veamos qué sucede en la superficie de un agujero negro, el horizonte de sucesos, que coincide con los caminos de los rayos luminosos que están justo a punto de escapar, pero no lo consiguen.

DONDE EL TIEMPO SE DETUVO
Según la Teoría de la Relatividad, el tiempo para alguien que esté en una estrella será distinto al de otra persona lejana, debido al campo gravitatorio de esa estrella. Supongamos que nosotros, astronautas, estamos situados en la superficie de una estrella que colapsa, y enviamos una señal por segundo a la nave espacial que está orbitando a nuestro alrededor.

Son las 11:00 según nuestro reloj y la estrella empieza a reducirse hasta adquirir untamaño tal que el campo gravitatorio es tan intenso que nada puede escapar y nuestras señales ya no alcanzan la nave.

Desde ella, al acercarse las 11:00, nuestros compañeros astronautas medirían intervalos entre las señales sucesivas cada vez mayores, pero este efecto sería muy pequeño antes de las 10:59:59. Sin embargo, tendrían que esperar eternamente la señal de las 11:00. La distorsión del tiempo es aquí tan tremenda que el intervalo entre la llegada de ondas sucesivas a la nave se hace infinito y por eso la luz de la estrella llegaría cada vez más roja y más débil.

El tiempo, desde nuestro punto de vista como astronautas sobre la superficie de la estrella, se ha detenido. Llegaría un punto en que la estrella sería tan oscura que ya no podría verse desde la nave, quedando sólo un agujero negro en el espacio.

Pero como astronautas, tenemos un problema más angustiante.

La gravedad se hace más débil cuanto más nos alejamos de la estrella, es decir, varía rápidamente con la distancia. Por lo tanto, la fuerza gravitatoria sobre nuestros pies es siempre mayor que sobre nuestra cabeza. Esto significa que debido a la diferencia de fuerzas, nos estiraríamos como un fideo o, peor aún, nos despedazaríamos antes de la formación del horizonte de sucesos (a diferencia de lo que sucede en la Tierra, donde la gravedad para nosotros prácticamente no varía con la altura). Este experimento no es, por ahora, recomendable.

¿Qué ocurre con la materia dentro del agujero negro? Las teorías de Stephen Hawking y Roger Penrose, de la Universidad de Oxford aseguran que en el interior el retorcimiento del espacio y del tiempo aumentan hasta el infinito, lo que los físicos llaman una singularidad. Si una estrella esférica se encogiera hasta alcanzar el radio cero, ya no tendría diámetro, y toda su masa se concentraría en un punto sin extensión. ¿Qué sucede si la materia no puede salir del agujero?.

Sólo caben dos respuestas: o deja de existir o viaja a otra parte. Esta última posibilidad dio pie a la teoría del agujero de gusano: al caer en el agujero podríamos salir en otra región de Universo. Para desgracia de los novelistas de ciencia-ficción, esta posibilidad no posee gran aceptación científica hasta ahora.

¿ALGUIEN HA VISTO UN AGUJERO NEGRO?
Dado que se conoce muy poco acerca de estos huecos en el espacio, su estudio comenzó a desarrollarse mediante modelos matemáticos, aun antes de que hubiese evidencia de su existencia a través de observaciones. Pero, ¿cómo podemos creer en objetos cuya existencia se basa sólo en cálculos?.

La lista de evidencias comienza en 1963, cuando desde el observatorio de Monte Palomar en California, se midió el corrimiento al rojo de un objeto parecido a una estrella en dirección a una fuente de ondas de radio. Este corrimiento era muy grande, por lo que se pensó que se debía a la expansión del Universo y, por lo tanto, el objeto estaba muy lejos. Para ser visible, este objeto debería ser muy brillante y emitir una enorme cantidad de energía.

A ellos se los llamó quasars (quasi-strange objects), y podrían proporcionar evidencia acerca de la existencia de los agujeros negros.

Otros candidatos para darnos información sobre los agujeros negros son los pulsares, que emiten ondas de radio en forma de pulso debido a la compleja interacción entre sus campos magnéticos y el material intergaláctico.

También las estrellas de neutrones, objetos muy densos, podrían colapsar para convertirse en agujeros negros.

Detectar un agujero negro no es tarea fácil.

La forma más utilizada está basada en el hecho de que estos objetos son fuentes emisoras de rayos X.

Esto se relaciona con los sistemas binarios, formados por una estrella y un agujero negro.

La explicación para este hecho es que de alguna forma se está perdiendo materia de la superficie de la estrella visible.

Como en una pareja de baile en una habitación pintada de negro donde la chica está vestida de blanco y el chico de negro, muchas veces se han observado sistemas en los que sólo hay una estrella visible girando alrededor de algún compañero invisible.

Vemos girar a la chica, aunque no podamos distinguir a su pareja.

Cuando la materia va cayendo en este compañero comienza a girar como una espiral y adquiere gran temperatura, emitiendo rayos X.

Además, el agujero negro debe ser pequeño.

Actualmente se han identificado varios agujeros negros: uno de ellos es el caso de Cygnus X-l en nuestra galaxia, y otros en dos galaxias llamadas Nubes de Magallanes.

Sin embargo, el número de agujeros negros se estima que es muy superior, pudiendo ser incluso mayor al de estrellas visibles y de mayores dimensiones que el Sol.

Temas Relacionados

Científicos Premio Nobel de Física Mas Influyentes

El Conocimiento Científico La Fisica y de la Naturaleza

Fisica Cuantica:Teoria del Cuanto de Energia

El Cuanto de Energia – Fisica Cuantica

Grandes Matemáticos Que Aportaron Ideas A La Fisica

Enlace Externo:• Unión Astronómica Internacional (International Astronomical Union)

Formacion de una Estrella de Neutrones y Sus Caracteristicas

Formacion de una Estrella de Neutrones y Sus Caracteristicas

Ante todo definimos una estrella, gran cuerpo celeste compuesto de gases calientes que emiten radiación electromagnética, en especial luz, como resultado de las reacciones nucleares que tienen lugar en su interior.

Por ejemplo el Sol es una estrella. El número de estrellas observables a simple vista desde la Tierra se ha calculado en un total de 8.000, la mitad en el hemisferio norte celeste y la otra mitad en el sur. Durante la noche no se pueden ver más de 2.000 al mismo tiempo en cada hemisferio.

En 1934 los teóricos usaron la mecánica cuántica para predecir la existencia de las estrellas de neutrones: cuando la gravedad se hace demasiado fuerte como para que una enana blanca resista el colapso, los electrones son empujados al interior de los núcleos atómicos convirtiendo a los protones en neutrones.

Pero al igual que los electrones, los neutrones obedecen un principio de exclusión, de acuerdo al cual cada neutrón puede ocupar un determinado nivel de energía que no puede compartir con otro.

Cuando todos estos niveles son ocupados, los neutrones están completamente degenerados y ejercen una presión capaz de frenar el colapso gravitatorio.

Así, una estrella de neutrones es en muchos aspectos una versión extrema de una enana blanca: para la misma masa (aproximadamente 1 Mo*) una estrella de neutrones tiene un radio mucho menor (unos 15 km) y una densidad fantástica (un millón de toneladas por cm3).- (*):Mo es igual a la masa del Sol.

La temperatura es de unos 10 millones de grados, pero debido a su tamaño pequeño, estos objetos son en general imposibles de detectar ópticamente.

La masa de una estrella de neutrones no puede exceder 3 Mo: por encima de este valor la gravedad le gana a la presión de los neutrones degenerados y el único estado final posible es un agujero negro.

La rápida rotación y los fuertes campos magnéticos son dos características importantes de estas estrellas ultradensas. Sabemos que todas las estrellas rotan.

Al colapsar, la velocidad de rotación aumenta de manera de conservar el momento angular (así como un patinador baja los brazos para girar más rápidamente) La velocidad de rotación de las estrellas de neutrones es de varias vueltas por segundo.

También todas las estrellas tienen campos magnéticos pero cuando colapsan, éste aumenta.

Los campos magnéticos de las estrellas de neutrones son un billón de veces más intensos que el terrestre. Estas dos propiedades son las que permiten detectar a las estrellas de neutrones en forma de púlsares.

La primera detección de un púlsar se produjo en 1986 en Inglaterra, 34 años después de haber sido predichos teóricamente.

Aparece como un objeto que emite pulsos de radio de intensidad variable, pero espaciados a intervalos de tiempo regulares: el período, increíblemente preciso, es de 1,33730113 segundos.

El fenómeno fue interpretado como una estrella de neutrones cuyas líneas de campo magnético aceleran los electrones a lo largo del eje magnético, causando la emisión de un rayo de ondas de radio que rotan con la estrella y producen un pulso cuando el rayo intercepta la línea de Visión del observador.

Desde entonces se han descubierto otros varios púlsares y se ha encontrado que algunos de ellos no sólo emiten en radio, sino también en frecuencias más altas como rayos x y y.

Se conocen actualmente más de 300 púlsares, situados mayormente en el plano galáctico, a unos pocos kpc del Sol. Los lugares con más posibilidades para encontrar púlsares son los remanentes de supernova.

La famosa Nebulosa del Cangrejo es el remanente de la supernova de 1054 y contiene efectivamente el púlsar del Cangrejo.

Debido a su reciente formación es uno de los que rotan más rápido: da 33 vueltas por segundo. Podemos predecir con facilidad, que la velocidad de rotación de un púlsar disminuirá lentamente con el tiempo, de acuerdo a la velocidad con que disipa energía. Por eso los púlsares más jóvenes rotan más rápido que los viejos.

Sus períodos van de 0,006 a 0,03 segundos hasta 4,3 segundos. Cuando la velocidad de rotación se hace pequeña, el mecanismo del púlsar no sirve: su vida promedio es de unos pocos millones de años.

Hay otro efecto que contribuye a la modificación de la velocidad de rotación pero de manera más abrupta: son los “glitches”, que disminuyen el período de rotación una parte en un millón en pocos días.

Se interpreta como sismos estelares debido a inestabilidades en la corteza o el núcleo de la estrella de neutrones. Estos fenómenos son muy útiles para estudiar la estructura interna de los púlsares, pero sólo aparecen durante unos pocos pulsos.

El púlsar de la supernova de 1987 trajo muchas sorpresas. Apareció antes de lo esperado y su rotación era extremadamente veloz, su período de 0,5 milisegundos era de lejos el más corto que se conocía. Todavía los científicos encuentran entretenimiento en este objeto.

Aunque la detección de púlsares en los remanentes de supernovas se ha hecho difícil y rara, hay un fenómeno más extendido que permite descubrir muchos de estos objetos: las fuentes compactas de rayos x.

En 1971, a partir del lanzamiento del satélite astronómico Uhuru, se descubrieron fuentes galácticas emisoras de un fuerte flujo de rayos x.

La fuente llamada Centauro x-3, por ejemplo, tiene una luminosidad en rayos x 10 veces mayor que la luminosidad total del Sol.

Se eclipsa cada 2,087 días, lo que demuestra que la fuente de rayos X está en movimiento orbital alrededor de un objeto más masivo.

Esta fuente es parte de un sistema binario formado por la estrella de neutrones y una estrella gigante. La primera atrae el viento estelar de la segunda y convierte la energía gravitatoria del gas en rayos x.

Este tipo de púlsares binarios proveen una de las pruebas de la teoría de la relatividad que predice que un cuerpo masivo acelerado radiará energía en forma de ondas gravitatorias.

La disipación de energía de esta forma causa el temblor de la órbita y en consecuencia una lenta disminución del período orbital del púlsar a lo largo del tiempo.

Las predicciones teóricas de Einstein concuerdan muy bien con las observaciones del periodo orbital de PSR 1913+16, que está disminuyendo unos 76 milisegundo por año.

Fuente Consultada:Notas Celestes de Carmen Nuñez

Muerte de las Estrellas Enanas Blancas: Vida y Evolucion

Muerte de las Estrellas Enanas Blancas: Vida y Evolucion

ESTRELLAS MORIBUNDAS: Enanas blancas:

Cuando la estrella agota su combustible no tiene con quéeluchar contra la contracción gravitatoria, por lo que entra en colapso y se convierte en enana blanca.

Sin embargo, la compresión que puede sufrir la materia tiene un limite dado por el llamado principio de exclusión de Pauli.

Las altas densidades observadas en las enanas blancas son difíciles de encontrar en otros cuerpos celestes o en la Tierra.

En verdad, la posibilidad de existencia de materia más densa que la observada en el sistema solar no fue considerada hasta que se desarrolló la mecánica cuántica.

La comprensión de la naturaleza atómica de la materia permitió considerar la existencia de materia degenerada, mucho más concentrada que la materia ordinaria.

El Sol tiene una densidad promedio semejante a la del agua: cerca de 1 gr/cm3 y se comporta como un gas, con sus partículas moviéndose libremente.

El Hidrógeno (H) en su interior, a una temperatura de 15 millones de grados, está en su mayoría ionizado.

Los electrones se han separado de sus núcleos y la alta temperatura reinante les impide acercarse a ellos.

Como consecuencia, 1 cm3 de materia solar ordinaria es esencialmente vacío. Los protones y electrones pueden moverse libremente casi sin chocar entre sí.

En una enana blanca en cambio, una masa como la del Sol puede estar comprimida en un volumen no mayor que el de la Tierra.

La densidad asciende a 1.000 kg/cm3.

Aun cuando la temperatura ha disminuido por debajo de la temperatura de ionización, los átomos permanecen disociados por la enorme presión de la gravedad.

Las fuerzas gravitatorias actuantes en un cuerpo celeste masivo pueden comprimir su materia hasta un estado de degeneración electrónica y no más, ya que el principio de exclusión impide a dos electrones ocupar el mismo nivel de energía.

Este efecto cuántico se llama presión de degeneración electrónica y es el limite que impone la mecánica cuántica a la compresión de un gas de electrones.

Esto es lo que ha sucedido en las enanas blancas.

Su interior es “frío” (aunque la  temperatura puede alcanzar hasta un millón de grados) en el sentido de que para mantener a la estrella en equilibrio, las fuerzas autogravítantes no están compensadas por movimientos térmicos como sucede en las estrellas de secuencia principal, sino por la presión ejercida por los electrones degenerados que llegan al limite de compresión.

El interior de una enana blanca no está en estado gaseoso sino que es como mi cristal gigante que se enfría lentamente.

Las partículas están superpuestas y ya casi no hay espacios vacíos entre ellas.

Por lo tanto, su posición y velocidad están determinadas cuánticamente.

El principio de exclusión impide que dos partículas ocupen el mismo estado de energía y mientras en un gas ordinario quedan niveles de energía libre (no ocupados por ninguna partícula), los electrones de un gas degenerado ocupan todas las posiciones cuánticamente admisibles.

Las enanas blancas se descubrieron en 1910, aunque entonces no se entendían.

Su temperatura superficial es muy alta y su luminosidad anormalmente baja.

Esto sólo podía explicarse si su radio era muy pequeño, comparable al radio de la Tierra (Ley de Stefan).

S. Chandrasekhar (nacido en 1910) fue quien elaboró la teoría de una esfera de gas degenerado y este trabajo le valió el Premio Nobel de Física de 1983.

Contrariamente a lo que podría suponerse, cuanto más grande es la masa de una enana blanca, menor es su radio. Esto resulta de la necesidad de una presión del gas suficiente para balancear la presión gravitatoria.

La masa y el tamaño de una enana blanca están fijos por la composición de la estrella.

Los cálculos teóricos indican que si está compuesta esencialmente de H tendrá una masa máxima posible de 5,5 M0.

Pero si contiene elementos más pesados llegará sólo a 1,4 M0.

Estos valores se conocen como limites de Chartdrasekhar.

Una estrella más masiva perdería masa o sufriría una catástrofe antes de transformarse en enana blanca.

Actualmente sólo se han identificado algunos cientos de enanas blancas.

Como tienen baja luminosidad intrínseca, sólo pueden observarse aquellas cercanas al sistema solar.

Los modelos indican que son la fase evolutiva final de las estrellas de poca masa y, en ese caso, el 10% de las estrellas de nuestra galaxia deberían ser enanas blancas.

Aunque la temperatura central de una enana blanca es menor al millón de grados (compárese con los 15 millones de grados del Sol) su atmósfera es, por lo general, más caliente que la de una estrella de secuencia principal.

Los electrones degenerados juegan también un rol muy importante en la determinación de la estructura térmica de la estrella.

Esta función es semejante a la de los electrones exteriores de los átomos en los metales ordinarios:

SU capacidad para moverse libremente es responsable de la capacidad de los metales para conducir calor eficientemente.

De la misma forma, los electrones degenerados son excelentes conductores de calor en las enanas blancas.

En consecuencia, estas estrellas tienen casi la misma temperatura en todo su volumen, son casi isotérmicas. Cerca de la superficie la presión es suficientemente baja y los electrones no están degenerados, entonces las propiedades de la materia son más normales.

La temperatura superficial es de unos 10.000°K.

Los espectros de las enanas blancas presentan la sorprendente característica de tener líneas correspondientes a un único elemento.

Cerca de 80% de las enanas blancas observadas muestran en sus espectros sólo líneas de absorción de hidrógeno; la mayoría de las restantes tiene sólo líneas de He.

El ciclo de contracciones gravitatorias impuestas por su propia evolución, ha purificado las capas exteriores de las enanas blancas más allá de la estratificación observada en las estrellas normales.

De la misma forma en que los espectros de las estrellas ordinarias se clasifican en B, A, E y G de acuerdo a su temperatura superficial, los de las enanas blancas se dividen en DB, DA, DF Y DG (D indica dwarf :en inglés enana), correspondientes a temperaturas de 100.000 a 4.000 ºK.

Las más calientes consumen energía a velocidades tan grandes y evolucionan tan rápidamente que esto nos da la posibilidad de observar a estas estrellas envejecer en el transcurso de unos pocos años.

La evolución de las enanas blancas se ha estudiado intensamente en los últimos años y el modelo aceptado actualmente postula que cerca de 10 millones de años después de su formación, la luminosidad de una enana blanca se ha debilitado hasta un décimo de la solar y su temperatura superficial ha disminuido hasta los 30.000 °K.

La teoría sugiere que a una enana blanca le lleva cerca de mil millones de años enfriarse hasta transformarse en una tibia esfera de gas degenerado.

Los cálculos indican que en esta etapa la estrella sufre un último cambio importante: comienza a cristalizarse.

A través de su evolución hasta este punto permaneció en estado gaseoso.

A medida que se enfría cada ion del gas comienza a sentir fuerzas eléctricas con sus vecinos, produciendo una fase líquida en la materia.

Mientras estas fuerzas comienzan a dominar a mayores distancias, más y más núcleos se unen y forman un cristal.

Dicho proceso se debe a la disminución de la temperatura, pero es ayudado por la alta presión que comprime a los núcleos.

Este cambio de estado tiene un efecto importante en las etapas finales de evolución de la estrella.

Primero el cambio de liquido a sólido libera energía, pero una vez que se ha cristalizado una fracción importante de su interior, la enana blanca se enfría rápidamente.

Como el tiempo necesario para que una enana blanca llegue a la etapa de cristalización se calcula semejante a la edad de nuestra galaxia, se puede estimar la época inicial de formación de estrellas en la Vía Láctea observando las enanas blancas más frías.

Fuente Consultada:Notas Celestes de Carmen Nuñez

El Fuego Griego Historia de las Armas

 El Fuego Griego Historia de las Armas

El «fuego griego» era una mezcla viscoza, un especie de aceite que tenía propiedades combustibles y se usaba antes que se inventara la pólvora.

Parece que en el siglo VII cuando los musulmanes atacaron Siria un arquitecto e inventor llamado Calínico logró crear este tipo de bomba incendiaria que ni siquiera el agua podía apagarla.

Su fórmula real no se ha encontrado en los libros de aquella época, y solo se puede inducir que era mezcla de materiales inflamables como el sulfuro y el betún, en una base de petróleo.

Para logra el lanzamiento con precisión y mayor distancia se inventaron tubos accionados por bombas que empujaban las bolas de fuego hacia el objetivo.

Los árabes emergieron de su península en 632 y empezaron una sorprendente serie de conquistas que, en el lapso de cincuenta años, parecieron infundir nueva vida al viejo Imperio persa, con la adición de Arabia y el norte de África.

Todo parecía indicar la próxima caída de la ciudad de Constantinopla, a la que seguirían los antiguos dominios europeos del extinto Imperio romano.

En 673, al ejército árabe no le separaba de Constantinopla más que el Helesponto, y su flota se concentraba frente a la costa.

Parecía que nada iba a poder salvar la ciudad.

El Fuego Griego Historia de las Armas

Pero en la capital vivía un alquimista llamado Calínico (siglo VII), nacido en Egipto o Siria, que había llegado a Constantinopla como refugiado.

Inventó una mezcla que contenía nafta, nitrato potásico y óxido de calcio, que tal vez (pues no se conoce la fórmula exacta) no sólo ardía, sino que continuaba ardiendo en el agua incluso con mayor fuerza.

Este fuego griego era expelido mediante tubos contra los barcos de madera de los árabes. 

El temor a ser víctimas del fuego y la visión horrible del agua ardiendo forzó a la flota árabe a retirarse, y Constantinopla se salvó.

Fuente Consultada: Lo Se Todo Tomo III

Kalashnikov fusil de asalto mas utilizado en los conflictos belicos

Kalashnikov fusil de asalto mas utilizado en los conflictos bélicos

Un arma fuera de control

La historia del fusil de asalto que, por el escaso control internacional sobre su comercialización, seguirá siendo en los próximos veinte años el arma más empleada en los conflictos bélicos que azotan el planeta.

No hay guerra que les sea ajena, ni masacre en la que no participen.

En un mundo que multiplica sus conflictos, los que matan los llevan encima.

Favoritos entre las muchas «máquinas de matar”, los AK47, como se conoce técnicamente a los tristemente célebres Kalashnikov, son el armamento bélico más usado en todo el planeta, con unos cien millones de unidades y sus replicas repartidas en cinco continentes, según un informe de Amnistía Internacional, Oxfam International y la Red Internacional sobre Armas de Pequeño Calibre, entidades que integran la Campaña para el Control de Armas.

En la actualidad, “el Kalashnikov» se fabrica en un mayor número de países y es utilizado para causar mayores dañas que en cualquier otro momento de sus sesenta años de historia, afirman las tres organizaciones en su informe.

Miles de personas mueren cada año como consecuencia de los disparos de este arma, utilizada para cometer matanzas indiscriminadas en países tan distintos como Afganistán, la República Democrática del Congo, Sierra Leona y en los Estados Unidos.

Se cree que entre el 50 y 60%  por ciento de las armas utilizadas en el conflicto en el este del territorio congoleño son AK-47 y sus réplicas.

El Kalashnikov integra el arsenal público de al menos 82 países, y es producido por al menos catorce naciones, entre ellas Alemania, China, Corea del Norte, Egipto, Hungría, India, Irak, Polonia Rumania y Rusia.

Kalashnikov fusil de asalto mas utilizado en los conflictos belicosY esta cifra se verá incrementada con la aplicación por parte del gobierno de Venezuela de un acuerdo para el montaje local de esas armas. el primero de ese tipo en el continente americano.

El gran número de centros de producción en todo el mundo, la disponibilidad generalizada de excedentes de fusiles Kalashnikov y la ausencia de leyes que regulen su transferencia facilitan que las armas caigan en manos de traficantes de armas sin escrúpulos, milicias armadas y organizaciones criminales.

Aprecios increíbles.

En las regiones más convulsionadas del África, puede comprarse un AK-47 por tan sólo 30 dólares.

‘Debido a la falta de control. el AK-47 ha sido utilizado para asesinar y  mutilar, ha alimentado los conflictos y la pobreza en los países mas pobres del mundo’, dice el director de Oxfam lnternational, Jeremy Hobbs.

“NO ES MI CULPA»

El ya legendario fusil fue diseñado tras la Segunda Guerra Mundial por Mijail Timofeyevich Kalashnikov (foto) , a quien debe su nombre, y quien en un reciente comunicado dirigido a las entidades organizadoras de la Campaña para el Control de Armas pidió controles más estrictos sobre los traficantes.

El primer modelo de Kalashnikov soviético fue el AK47, cuyo nombre se refiere al año en que entró en servicio.

El más moderno es el AK-100. E1AK-47 puede disparar hasta 600 balas por minuto y tiene un alcance máximo de hasta mil metros.

El creador del instrumento letal más popular del mundo lamentó que este tipo de armas se haya empleado y se emplee en conflictos interétnicos.

«Yo creé un arma que ayudara a defender las fronteras de mi patria, y  sigue siendo su objetivo.

Lamento que esos fusil es, que llevan mi nombre, no siempre sigan los fines para los que fueron creados», declaró Kalashnikov, quien actualmente tiene 85 años, ha escrito cinco libros sobre armamento y preside la Unión de Armeros de Rusia.

“No es mi culpa que sean empleados en conflictos interétnicos y de otro tipo. Son los políticos los culpables.”

Sesenta años después, el inventor defiende las virtudes patrióticas de su feroz criatura, para la guerra entre naciones y critica su utilización en guerras fratricidas, olvidando que, a fin de cuentas, la muerte es la misma para todos.

No obstante, el creador del fusil AK-47 aceptó que hubiera sido mejor crear, por ejemplo, un aparato para facilitar las duras labores del campo en la Unión Soviética, pero adujo que la invasión nazi a su país torció el rumbo de su vida hacia la carrera armamentista.

«Ver a los nazis quemando aldeas, masacrando a todos, y que nosotros no tuviéramos armas de fuego automáticas, me impulso a crear una eficaz para los nuestros», señaló.

El armero, ruso sostiene que su primer diseño, pese a ser el más conocido y valorado, es el más feo e inservible, porque lo hice en condiciones difíciles». Recuerda que en 1947, siendo un joven sargento de primera, le otorgaron el «Premio Stalin» de primera clase, valuado en 150 mil rublos de la época (equivalentes por entonces a 5.475 dólares) por el ser el inventor del fusil AK, y que con ese dinero se compró un automóvil.

LA MUERTE FÁCIL

Los especialistas en armas consideran que AK-47 es el mejor fúsil automático que se pudo inventar, y destacan la alta confiabilidad, la eficacia y la facilidad de manejo de esta ametralladora.

Según sus pronósticos, se mantendrá como principal arma de los conflictos bélicos durante, por lo menos, veinte años más, hasta que un nuevo invento venga a ofrecer una forma más fácil y segura de matar.

Hasta aquí, el Kalashnikov es el fusil preferido, tanto por los ejércitos regulares como por las guerrillas; alcanzó la cumbre de su fama en Vietnam y, en cierto modo se convirtió, en muchos países del Tercer Mundo, en símbolo de la insurrección contra el imperialismo.

El Kalashnikov es la única arma de fuego que flamea en una bandera nacional, en la de Mozambique, pues gracias a él logró su independencia.

Tiene, para destruir, muchas cosas a favor:

en, primer lugar, su ingenioso sistema de recarga de cartuchos, que utiliza la fuerza de los gases de expulsión producidos por el disparo para facilitar la entrada de un nuevo cartucho y expulsar el casquillo usado, lo cual logra que el fusil tenga un menor retroceso y, en consecuencia, mayor confiabilidad en el disparo.

Otro elemento distintivo del AK-47 es el cargador curvo, que le da mayor capacidad en un espacio reducido (por esa forma, los narcotraficantes mexicanos lo llaman «cuerno de chivo».

Y, sobre todo, su increíble fortaleza: antiguos modelos de AK con décadas de guerra encima, continúan funcionando, y siguen disparando aun después de ser sumergidos en agua o barro, o ser pisados por un camión.

Eficaces y baratos, proliferan por el mundo como instrumento predilecto de todos los que hacen la guerra, de un bando y del otro, sembrando una muerte fácil….

Dentro de muy poco los celebre fusiles AK se fabricaran en América Latina.

Como parte de un acuerdo complementario a la compra de armas risas, el presidente venezolano Hugo Chávez decidió la instalación de una fabrica de fusiles en la ciudad de Maracay, 80 Km. al oeste de Caracas.

Recientemente Rusia le había vendido a Venezuela (además de 10 helicópteros de transporte y ataque) unos 100 mil fusiles de asalto AK-103, un tercio de los cuales ya fueron distribuidos entre la Fuerzas Armadas de ese país.

Mientras Chávez declara que Venezuela no puede dejar de pertrecharse ante la posibilidad de una invasiones de EE.UU. las compras de material bélico a Rusia se ampliaran en breve con mas helicópteros y aviones caza de origen ruso, para disgusto del Departamento de estado estadoudinense.

Pero el anuncio mas sorpresivo fue, hace quince días, el de la fabrica de Maracay que se prevé comenzar a producir fusiles Kalashnikov en el año 2009.

Fuente Consultada: Revista RUMBOS Año 3 Nro. 150

Enlace Externo:

La Teoria del Flogisto: Para Explicar la Combustión

La Teoria del Flogisto: Teoria de la Combustión

Según las antiguas concepciones griegas, todo lo que puede arder contiene dentro de sí el elemento fuego, que se libera bajo condiciones apropiadas.

Las nociones alquímicas eran semejantes, salvo que se concebían los combustibles como algo que contenía el principio de «azufre» (no necesariamente el azufre real).

Una preocupación central de la química en el siglo XVIII era el proceso de combustión.

Cuando las sustancias se calentaban hasta el punto de incandescencia, los científicos vieron que emitían algo —vapores o humo—, y lo interpretaron como una pérdida de la sustancia original.

Ese «algo» que supuestamente se perdía en el proceso de combustión se llamó flogisto, una palabra acuñada en 1697 por el químico alemán Ernst Stahl.

TEORÍA DEL FLOGISTO

(imagen: Ernst Sthal)

Pero qué era exactamente ese flogisto seguía siendo materia de debate.

Para algunos, era un elemento en sí mismo; para otros, era una esencia contenida en los materiales combustibles, sin la cual la combustión era imposible.

————-  00000 ————

Georg Ernst Stahl (1660-1734), siguiendo a su maestro Becher (1635-1682), creyó que las sustancias estaban formadas por tres tipos de “tierra”, más el agua y el aire.

A una de las tres tierras, aquella que Becher había llamado “combustible”, la rebautizó como flogisto (del griego, que significa “quemado” o “llama”), al que le asignó el noble y supremo propósito de ser el agente y el sostén de la combustión.

La combustión, según Stahl, consistía en un intercambio de flogisto, que fluía entre los materiales con la soltura (aunque con más calor) del éter; quemarse era dejar escapar flogisto (que como un humo invisible se mezclaba con el aire), y lo que un químico moderno llamaría reducción consistía en incorporar el flogisto flotante como para tenerlo listo para una nueva combustión.

————-  00000 ————

El concepto del flogisto dio lugar a algunas anomalías.

Si fuera un componente de los materiales combustibles, al perderse durante la combustión, los residuos tenían que pesar menos de lo que pesaban las sustancias antes de quemarse, y ése era el caso de algunas, como la madera.

Pero ciertos metales, cuando se calentaban, se convertían en una sustancia blanda llamada calx; en estos casos, el residuo pesaba más que el metal original.

Esta anomalía fue ignorada por muchos defensores de la teoría del flogisto.

Otros la racionalizaban sugiriendo que el flogisto tenía un peso negativo, provocando que el residuo pesase más cuando el flogisto se había consumido.

————-  00000 ————

Algunos historiadores afirman que la teoría del flogisto puede considerase como la primera gran teoría de la química moderna.

A principios del siglo XVIII, el médico Georg Ernst Stahl (1660-1734) siguiendo las ideas de su maestro J.J.Becher (1635-1682), propuso una explicación conjunta de la calcinación de los metales, la combustión de los cuerpos combustibles y la respiración de los animales, basada en la existencia de un «principio de la combustibilidad» que denominó «flogisto».

De acuerdo con sus ideas, los metales estaban formados por flogisto y la cal correspondiente, de modo que, cuando se calcinaban, el flogisto se desprendía y dejaba libre la cal.

Del mismo modo, para obtener el metal a partir de la cal, era necesario añadirle flogisto, el cual podía obtenerse a partir de una sustancia rica en este principio, como el carbón.

————-  00000 ————

La gente que creía fehacientemente en la existencia del flogistola esencia del calor— era consciente de que una vela colocada en un recipiente sellado se apagaba pronto.

Ellos lo interpretaban como una prueba de que el aire del recipiente se había saturado con el flogisto de la vela era incapaz de recibir más y la combustión ya no era posible.

Aplicando este razonamiento, en químico inglés Priestley concluyó que su gas era aire que contenía poco flogisto o ninguno, y por consiguiente se sentía «hambriento» del flogisto de la vela. Por tanto, llamó a su nuevo gas «aire deflogistizado».

Priestley José Oxigeno

Priestley estudio los gases y descubrió el oxígeno

Mirando retrospectivamente, cuando la mayoría de las personas educadas hoy día comprende el papel del oxígeno en la combustión y todos los estudiantes de química saben que la combustión es un proceso de cambio químico, cuyo resultado no produce pérdidas o ganancias significativas de masa, es fácil sentirse superior a aquellos tempranos buscadores de la verdad.

Pero eran personas capaces, y sus razonamientos tenían sentido bajo la luz del limitado conocimiento que poseían.

Fuente Consultada: Historia de las Ciencias Desiderio Papp

Naufragio del Monte Cervantes Hundimiento buque en Canal Beagle

Naufragio del Monte Cervantes – Hundimiento en el Canal Beagle

La mayoría de los 1.500 pasajeros que llevaba el Monte Cervantes en su crucero de turismo por los canales fueguinos, se hallaba sobre cubierta en la tarde del 22 de enero.

Nadie quería perderse el maravilloso espectáculo que se ofrecía a medida que la nave avanzaba hacia el Este, proa al faro de Les Eclaireurs.

De improviso, el paquebote, orgullo de la industria naviera alemana, se sacudió, crujió fuertemente y se escoró hacia babor.

Había chocado contra una roca.

Una fuerte detonación seguida de espesa humareda, al estallar el tanque de combustible de proa, hizo cundir el pánico.

Parecía a punto de epilogar trágicamente el alegre viaje iniciado en Buenos Aires, de donde procedía la casi totalidad del  pasaje.

Barco Monte Cervantes Hundido
Con las hélices hacia arriba, se observan los últimos minutos del Monte Cervantes, orgullode la industria alemana. También fue tumba del capitán Dreyer.

El capitán Dreyer, ante el naufragio inminente, ordenó una arriesgada maniobra: procurar que el barco calzara en las rocas para dar tiempo al salvamento.

La maniobra dio resultado, e inmediatamente los botes insumergibles y las lanchas a motor de que estaba provisto el buque, comenzaron a dirigirse hacia la costa cercana.

Mientras tanto, desde Ushuaia, un vigía observó lo acontecido y pronto el telégrafo vibró llevando la angustia a centenares de hogares.

Buenos Aires vivió horas de tremenda incertidumbre, apenas atenuada por el anuncio de que el transporte Vicente Fidel López, llegado al lugar,, estaba recogiendo a los últimos náufragos.

Finalmente, la consoladora noticia de: «No hay victimas entre los pasajeros».

En ese mismo momento, el Monte Cervantes, con sus hélices fuera del agua y con grandes rumbos en la quilla, agonizaba lentamente.

El suntuoso palacio flotante iba desapareciendo para convertirse en tumba del capitán Dreyer.

El bravo marino, ya salvados todos, cumplió el código de honor de los hombres de su estirpe, prefiriendo perecer con su barco.

Más tarde, la ciudad alborozada recibió a los que habían sido rescatados de una muerte casi segura.

Pero aquel sacrificio no fue olvidado. Y hasta la mole gigante llegaron manos piadosas a rendir homenaje al valor que siempre o casi siempre, alcanza resonancia espiritual.

Tragedia Buque Presidente Roca

Rompehielos Irizar

Tragedia Principessa Mafalda

Tragedia del Kursk

Boeing 767:Historia de su Fabricación-Principales Aviones de Linea

Boeing 767 – Principales Aviones Comerciales

Boeing B-767

El 26 de septiembre de 1981, con el bautismo del aire del primer Boeing B-767, la industria aeronáutica norteamericana y Boeing, en particular, volvieron a tener en la mano, firmemente, el mercado mundial del transporte civil y comercial.

Efectivamente, el B-767 es el primero de los dos aviones de línea de la nueva generación (el otro es el más pequeño B-757) construidos por Boeing para responder al desafío de los costes —sobre todo, los del combustible— que ha producido la gran crisis del transporte aéreo desde finales de los años setenta y comienzos del decenio posterior.

El B-767 está destinado a reemplazar al B-707 y, seguramente, a volver a ofrecer el éxito de este verdadero cabeza de serie de toda una generación de aviones de línea.

El B-767

En la fecha del primer vuelo, los pedidos acumulados ascendían a un total de 173, más otras 135 opciones por parte de 17 de las principales compañías internacionales y norteamericanas.

El comienzo de la actividad operativa se fijó, para agosto de 1982, con los colores de la compañía United.

Fue precisamente esta compañía norteamericana, en julio de 1978, la que dio comienzo al comprometido programa de producción del B-767, con un pedido inicial de 30 unidades.

En aquella fecha, Boeing tenía dispuesto, prácticamente, el proyecto para el nuevo y revolucionario avión de línea de medio radio de acción, resultado de doce años de estudios, de avanzada tecnología, elevada capacidad y, sobre todo, alta economía de explotación.

La crisis petrolífera y el consiguiente aumento vertical del coste del combustible eran los enemigos más temibles que combatir y el proyecto preparaba para las compañías una arma particularmente idónea para contrarrestar, también en el futuro, estos problemas, ya que el B-767 prometía, además de una disminución general de los costes operativos, una reducción del consumo de combustible igual al 35 por 100.

Estos brillantes resultados podían conseguirse gracias, sobre todo, al empleo de una nueva ala caracterizada por una excepcional reducción de la resistencia inducida y de la parásita, mediante una estructura más ligera, con amplio recurso a materiales compuestos, de propulsores particularmente avanzados (más económicos y más silenciosos) y de una aviónica especialmente sofisticada.

La construcción del prototipo B-767 fue iniciada el 6 de julio de 1979.

El avión tomó la forma de un gran birreactor de fuselaje considerablemente más ancho (1,24 metros) que el del B-757 y capaz de proporcionar en su interior una distribución de los pasajeros en filas de asientos separadas por dos pasillos centrales.

La de la capacidad fue una característica que no permaneció constante antes de la elección de la configuración definitiva, ya que, inicialmente, la versión base debía ser la 767-100, con una capacidad de 180 plazas; posteriormente, se pasó a la variante 767-200MR, de 255 pasajeros; finalmente, se decidió adoptar una capacidad variable de 211 a 289 pasajeros, y la versión fue designada 767-200.

La compañía Boeing ha subcontratado una amplia serie de trabajos para el programa, que comprenden incluso importantes componentes estructurales: Grumman Aerospacees responsable de la construcción de la sección central del ala, de la parte inferior adyacente al fuselaje y de los mamparos; Vought construye los planos de cola horizontales, y Canadair, la parte posterior del fuselaje.

Además, Aeritalia es responsable de las superficies móviles de las alas, de los timones de profundidad, de la deriva y del timón de dirección (todo construido en fibras compuestas); las compañías japonesas Fuji, Kawasaki y Mitsubishi, asociadas a la Civil Transpon Development Corporation, construyen, finalmente, otros componentes menores, tales como paneles, puertas y carenados diversos.

De los 173 pedidos en firme en la fecha del 26 de septiembre de 1981, 66 habían sido cursados por compañías estadounidenses, 20 por Canadá y 46 por transportistas de otros estados; en Europa sólo dos, por parte de Britannia Airways.

Características  Avión: Boeing B-767
Constructor: Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1981
Motor: 2 turborreactores Pratt & Whitney JT9D-7R4D, de 21.773 kg. de empuje cada uno.
Envergadura: 47,55 m. Longitud: 48,51 m.
Altura: 15,85 m. Peso al despegar: 136.080 kg.
Velocidad de crucero: Mach 0,80
Techo máximo operativo: 11.920 m.
Autonomía: 5.058 km.
Tripulación: 6-8 personas
Carga útil: 211-289 pasajeros

Fuente Consultada: Aviones de Todo el Mundo de Enzo Angelucci – Paolo Matricardi

Temas Relacionados

Presurizacion en los Aviones

Historia de los Primeros Aviones de Guerra Argentinos

Caracteristicas de los Aviones Boeing 747

Historia de los Aviones Comerciales Mc Douglas

Curtiss P-40 Tigre Volador Aviones de la Segunda Guerra Mundial

Historia de los Aviones de Pasajeros BAC VC 10

Enlace Externo:• Informacion sobre El Boeing 747

Historia de Boeing 757 Principales Aviones de Lineas Comerciales

Historia de Boeing 757 – Principales Aviones

Boeing B-757

La segunda carta ganadora de la compañía Boeing para los años ochenta se llama B-757, un birreactor de corto y medio radio de acción desarrollado al mismo tiempo que el mayor B-767 y con las mismas características tecnológicas muy avanzadas.

Historia del Boeing 757

El impacto que este nuevo avión producirá en el mercado internacional, se demuestra con pocas cifras: 6 meses antes del bautismo del aire del prototipo (febrero de 1982), los pedidos acumulados por Boeing ascendían a más de 136 unidades, más unas 60 opciones.

Desde el momento de la entrada en servicio, fijada para enero de 1983, el B-757 permite un ahorra de combustible por asiento a ocupar igual al 47 por 100 respecto al trirreactor B-727, al que sustituirá.

El anuncio del proyecto B-757 fue dado por Boeing en los primeros meses de 1978 y la respuesta de las compañías no se hizo esperar mucho: el 31 de agosto, Eastern Air Lines y British Airways anunciaron la intención de adquirir un gran lote de los nuevos aviones (21 y 19, más 24 y 18 en opción, respectivamente).

En marzo de 1979, estos pedidos iniciales fueron formalizados (entretanto, British había aumentado el pedido a 27 unidades) y Boeing estuvo, por lo tanto, en condiciones de dar el visto bueno oficial al programa de construcción.

La fecha fue el 23 de marzo, y nueve meses después, el 10 de diciembre, se inició el trabajo en fábrica.

Con el avance de la actividad, llegaron pedidos sucesivos por parte de otras compañías aéreas, y, entre éstas, las principales fueron Delta, American, Monarch y Trans Brasil.

En el transcurso de la construcción, los técnicos de la compañía Boeing no escatimaron esfuerzos para poner en práctica un riguroso programa de reducción de peso, con miras también a la economía de explotación.

Aunque basado en el fuselaje del modelo 727, el B-757 presenta, en efecto, muchas modificaciones estructurales (gracias, sobre todo, al empleo de materiales compuestos) derivadas de la necesidad de aligerar el avión sin perjudicar por esto su robustez.

Las propuestas de tal reducción fueron más de 5.200, y más de un millar de ellas ha encontrado aplicación concreta, con ventajas individuales que van de pocos gramos a un máximo de 77 kilos, distribuidos en muchísimos detalles del avión.

En total, Boeing ha logrado reducir en el 5,2 por 100 el peso total, en vacío, del proyecto, y los resultados de este esfuerzo se prevén particularmente brillantes.

Según los técnicos, efectivamente, suponiendo 1.400 vuelos al año, cada uno de 1.795 kilómetros, se podrá llegar a un ahorro de combustible igual más de 85.000 litros por avión.

Naturalmente hay también otros factores que determinarán la consecución de estas excepcionales prestaciones operativas por ejemplo, el ala, complementaria proyectada de nuevo respecto  a la del B-727 y caracterizada por un elevado rendimiento aerodinámico; o los propulsores de alta eficacia y bajo consumo.

A este respecto, Boeing prevé la instalación de una amplia gama de grupos motores, a elección del cliente.

En particular los B-757 destinados a British Airways y a Eastern (designados B-757-200) estarán dotados de turbo insufladores Rolls-Royce RB.211 (por primera vez este caso, Boeing ha utilizado propulsores no norteamericanos para un nuevo avión), mientras que los aviones posteriores tendrán motores Pratt & Whitney y serán entregados a finales de 1984.

También en el programa 757, la compañía Boeing ha subcontratado una amplia serie de trabajos.

En particular, Rockwell International es responsable de las secciones centrales del fuselaje; Vought, de los planos de cola y de la sección posterior; Fairchild Republic, de la cabina de pasajeros en la parte situada sobre el ala y sobre los hipersustentadores del borde de ataque; Grumman, de los «spoilers» (frenos aerodinámicos), y CASA, española, de los hipersustentadores posteriores externos.

Características  Avión: Boeing B-757
Constructor: Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1982
Motor: 2 turborreactores Rolls-Royce RB 211 -535, de 16.965 kg. de empuje cada uno
Envergadura: 37,95 m. Longitud: 47,32 m.
Altura: 13,56 m.
Peso al despegar: 108.860 kg.
Velocidad de crucero: Mach 0,80
Techo máximo operativo: 11.703 m.
Autonomía: 4.336 km.
Tripulación: 6-8 personas
Carga útil: 178-233 pasajeros

Fuente Consultada: Aviones de Todo el Mundo de Enzo Angelucci – Paolo Matricardi

Temas Relacionados

Presurizacion en los Aviones

Historia de los Primeros Aviones de Guerra Argentinos

Caracteristicas de los Aviones Boeing 747

Historia de los Aviones Comerciales Mc Douglas

Curtiss P-40 Tigre Volador Aviones de la Segunda Guerra Mundial

Historia de los Aviones de Pasajeros BAC VC 10

Enlace Externo:• Informacion sobre El Boeing 747

Historia Boeing 737 Características y Medidas Avion Comercial Datos

Historia Boeing 737: Características y Medidas

El peso de la compañía Boeing en el sector de la aviación comercial está reforzado por otro gran éxito, que acompaña al representado por el modelo 727: se trata de otra «carta ganadora» del gigante norteamericano: el birreactor B-737 que, desde 1967 (fecha de las primeras entregas) hasta hoy, ha logrado alcanzar el umbral de las 1.000 unidades solicitadas.

Efectivamente, en diciembre de 1981, los pedidos de este pequeño y versátil avión de transporte civil habían alcanzado las 972 unidades) de las cuales 111 en el transcurso del año.

Entre las verdaderas primacías comerciales, al B-737 le corresponden las de haber sido, durante 1980 y 1981, el avión más vendido del mundo, con un número de pedidos superior al del B-707 y segundo, solamente, respecto al del más afortunado B-727.

Avión Comercial Boeing 737


El proyecto de este bimotor de alta capacidad, para el corto y medio radio de acción, recibió el visto bueno en mayo de 1964 y la fase de desarrollo prosiguió a gran velocidad.

Para ahorrar tiempo (y dinero), Boeing eligió una configuración bastante semejante, en muchos componentes estructurales, a la del modelo 727, de mayores dimensiones y ya en producción: por ejemplo, buena parte del fuselaje, compuertas, paneles diversos y distribución interior; incluso los motores eran los mismos, instalados, no obstante, de manera convencional por debajo del ala.

El anuncio oficial del programa fue dado el 19 de febrero de 1965, y, en aquel mismo día, Boeing comunicó haber formalizado con Lufthansa un pedido de 21 unidades de producción.

Efectivamente, la compañía aérea alemana había participado activamente en la definición final del avión, sobre todo por lo que se refería a la capacidad y a la autonomía.

El prototipo 737 emprendió el vuelo el 9 de abril de 1967 y fue seguido, un mes después, por el primer avión de serie (737-100) destinado a la compañía Lufthansa; el 8 de agosto apareció el primer avión de la segunda serie (737-200) solicitado por la compañía United Air Lines y ya pedido en aquella fecha en 40 unidades.

Respecto a la versión inicial, la característica predominante de la nueva variante estaba representada por el aumento de la capacidad de pasajeros (de 100-115 a 130), obtenida mediante el alargamiento del fuselaje en casi 1,83 metros.

A estas versiones se añadieron, al año siguiente, dos nuevas variantes, desarrolladas por Boeing de manera semejante a lo que se había hecho con el modelo 727: la 200 C convertible y la 200 QC, semejante, pero caracterizada por tiempos de transformación interior bastante rápidos.

La evolución del avión no conoció detenciones.

En 1969, Boeing empezó a construir la nueva serie Advanced200, modificada, todavía más, estructuralmente, potenciada en los grupos motores, y mejorada netamente en las prestaciones.

El primer avión emprendió el vuelo el 15 de abril de 1971 y fue puesto en servicio por la compañía All Nippon Airways, poco más de dos meses después.

También los 737 Advanced 200 fueron ofrecidos en las versiones especializadas C y QC, a las cuales se agregaron una variante para ejecutivos, y otra caracterizada por un incremento de la autonomía de más de 1.200 kilómetros respecto de la serie de base.

Contrariamente al Boeing 727, el birreactor Boeing no sufrirá, en los próximos años, la competencia de los aviones de la nueva generación. Por el contrario, con una nueva versión (la 300), el 737 se incluirá, de manera bastante homogénea, entre los Boeing 757 y 767.

Efectivamente, esta serie prevé mejoras significativas en las prestaciones y en los consumos, gracias a la incorporación de una extensa gama de modificaciones estructurales, entre las cuales se encuentra la adopción de una mayor cantidad de materiales compuestos.

Boeing programó introducir estos cambios en los B-737-200 actuales, en producción a partir de 1982.

El nuevo modelo 300 hará su presentación en el mercado al año siguiente.

Características  Avión: Boeing B-737-200
Constructor Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1967
Motor: 2 turborreactores Pratt & Whitney JT8D-15, de 7.030 kg. de empuje cada uno
Envergadura: 28,35 m.
Longitud: 30,48 m.
Altura: 11,28 m. Peso al despegar: 49.435 kg.
Velocidad de crucero: 915 km/h. a 6.675 m. de altitud
Techo máximo operativo: 9.145 m.
Autonomía: 3.555 km.
Tripulación: 5 personas
Carga útil: 115-130 pasajeros

Temas Relacionados

Presurizacion en los Aviones

Historia de los Primeros Aviones de Guerra Argentinos

Caracteristicas de los Aviones Boeing 747

Historia de los Aviones Comerciales Mc Douglas

Curtiss P-40 Tigre Volador Aviones de la Segunda Guerra Mundial

Historia de los Aviones de Pasajeros BAC VC 10

Enlace Externo:• Informacion sobre El Boeing 747