Armas de la Segunda Guerra Mundial

Cuadro sinoptico del Universo, Sistema Solar, Planetas y Galaxias

SINTESIS EN UN CUADRO SOBRE EL SISTEMA SOLAR

►El Sistema Solar

Nuestro sistema solar que está contenido en la galaxia llamada Vía Láctea, está conformado por el Sol y ocho planetas que gravitan a su alrededor.

Los planetas siguen órbitas que, casi en su totalidad, están situadas en el mismo plano; y todos se desplazan en torno al Sol en el mismo sentido.

El tiempo que tardan en dar una vuelta constituye el año de cada planeta: Mercurio, el más cercano, demora tres meses terrestres.

Además de los planetas, entre Marte y Júpiter circulan cuerpos pequeños, bloques de rocas cuyo diámetro no suele pasar los pocos kilómetros.

Se cree que estos asteroides son los restos de un planeta que, o bien se fragmentó, o no llegó a formarse jamás.

Ampliar Sobre la Evolución del Universo

cuadro sinoptico universo

Ver Tambien: Sistema Solar Para Niños de Primaria

►Diferentes clases de astros

Los astros se pueden dividir en cuatro tipos:

a) los que poseen luz propia, como el Sol, las estrellas, las nebulosas de emisión y algunos cometas:

b) los que brillan con luz reflejada, como la Luna, los planetas, satélites, asteroides, ciertos cometas y ciertas nebulosas:

c) los que no emiten luz alguna, como las nebulosas obscuras, cuya existencia se conoce en virtud de que impiden pasar la luz de los astros situados detrás de ellas; y

d) las estrellas fugaces y bólidos, que lucen porque al entrar velozmente en nuestra atmósfera se tornan incandescentes al rozar con los gases de ésta.

Los movimientos aparentes de los astros difieren según los casos.

Las estrellas, los conglomerados, las nebulosas y las galaxias, describen un círculo completo alrededor de la Tierra en 24 horas menos cuatro minutos.

Los planetas tienen un movimiento aparente complejo. Se clasifican eñ interiores o exteriores según sea que su órbita esté, respectivamente, dentro o fuera de la que sigue la Tierra.

Los planetas interiores, Mercurio y Venus, siguen una ruta cercana al astro mayor y sólo son visibles antes de orto o salida de éste, y después de su ocaso o puesta.

Vistos a través del telescopio los planetas interiores presentan fases porque,estando sus órbitas dentro de la terrestre, su disco se ve más o menos iluminado por el Sol.

Cuando se hallan a la mayor distancia aparente del Solmáxima elongación- tienen la mitad del disco iluminado.La elongación puede ser oriental u occidental, de acuerdo a cómo están situados respecto del Sol.

Los planetas exteriores se ven de noche y, por lo común, viajan aparentemente de O a E a través de las estrellas, pero, según los movimientos combinados de cada planeta y la Tierra, hay un momento en que parece que se detienen: están estacionarios; acto seguido cambian de rumbo y se dirigen de E a O, hasta llegar a otro punto donde permanecen de nuevo estacionarios, para continuar posteriormente con su marcha normal.

Entre dos posiciones estacionarias llegan a la oposición, en que se sitúan en la línea Sol, Tierra y planeta. Si la disposición es planeta, Sol y Tierra, se dice que el planeta está en conjunción (con el Sol interpuesto).

Los planetas se mueven dentro del Zodíaco, que es una faja de 8o de anchura a cada lado de la eclíptica.

► Otros Temas Tratados en Este Sitio

Big Bang

Origen de la Vida

Origen del Hombre

Teoría de la Evolución

Muerte de una Estrella Los Pulsares Enana Blanca

Peso de Una Estrella de Neutrones

La Vida del Sol Tiempo de Vida Hidrogeno del Sol

La Luna Muestra Siempre la Misma Cara

Origen del aire que respiramos El Oxigeno

Propergoles Combustibles para cohetes Tipos y Componentes

Propergoles, Combustibles para Cohetes – Tipos y Componentes

Las aeronaves que operan dentro de la atmósfera utilizan considerablemente el aire, puesto que lo necesitan como sustentación para sus alas, queman el combustible con su oxígeno y, si poseen hélices, requieren aire a cierta presión para que éstas puedan «aferrarse».

Como por encima de la atmósfera terrestre hay tan pocas moléculas de gas, los métodos convencionales de propulsión resultan insuficientes, al par que la falta de oxígeno obliga a que las aeronaves lleven consigo su provisión de él, ya sea en forma del elemento propiamente dicho, en estado líquido, o en la forma de algún compuesto oxidante.

Se han inventado varios tipos de combustibles y de fuentes de oxígeno para la propulsión de cohetes y otros vehículos espaciales, pero el principio fundamental de toda propulsión de cohete es el mismo en todos los casos, o sea, el principio de acción y reacción de la dinámica.

Al quemarse el combustible, ya sea sólido o líquido, crea enormes cantidades de gases calientes, que se encuentran a gran presión, debido al reducido tamaño de la cámara de combustión.

Los gases que escapan por la parte de atrás del motor proveen el empuje necesario para impulsarlo hacia adelante. Los estadounidenses parecen preferir los propergoles líquidos.

Entre las combinaciones que han utilizado con buen éxito está la de hidrógeno y oxígeno líquido, que al combinarse producen vapor.

También emplearon el oxígeno líquido como oxidante de combustibles tales como el queroseno y el amoníaco.

La combustión del queroseno produce vapor y bióxido de carbono.

Como alternativa, en lugar de oxigeno han usado a veces el peróxido de hidrógeno (agua oxigenada), que se descompone en oxígeno y vapor.

En otros cohetes, la combinación era dimetil-hidrazina, oxidada mediante ácido nítrico.

Cuando se emplean propergoles líquidos, el combustible y el oxidante deben ser mantenidos en recipientes separados.

Los propergoles sólidos, por el contrario, deben ser mezclados antes de formar las «tortas» de combustible compacto.

Los ingredientes típicos de una de esas tortas pueden ser: perclorato de aluminio (agente oxidante), el ácido acrílico polibutadieno y polvo de aluminio (combustible), más un agente que tiene la función de endurecer la torta luego que ésta ha sido formada en el molde.

Las proporciones de agente oxidante y combustible se disponen de manera que siempre haya un ligero exceso de agente oxidante.

Para esto hay dos razones: si la cantidad de agente oxidante es apenas la justa para la combustión completa, existe un serio riesgo de explosión, y, además, el aumento de presión que sufre el agente oxidante excedente, debido al calor de la combustión, se añade al aumento total de presión dentro de la cámara de combustión del motor cohete.

DISTINTAS FUENTES DE ENERGÍA PROPULSORA

Se obtiene el máximo aprovechamiento de la energía disponible por el combustible de un cohete, cuando la velocidad de salida de los gases de la combustión iguala a la velocidad con que el cohete se mueve hacia adelante.

Por ello resulta conveniente comunicarle la energía inicial mediante algún medio exterior, tal como podría ser un poderoso motor, que le proporciona la energía de movimiento, o cinética, requerida para que su velocidad alcance un valor aproximado al de salida de los gases de combustión.

El principio de acción y reacción, en el cual se fundamenta la propulsión de cohetes, puede aplicarse no sólo con combustibles sólidos o líquidos convencionales, sino que podríanlos pensar en energía obtenible de distintos modos.

En efecto, sabemos que cargas eléctricas, colocadas en un punto del espacio donde exista un campo eléctrico, experimentan fuerzas de naturaleza eléctrica.

En los aceleradores modernos de partículas cargadas se obtienen valores elevados de la velocidad de las mismas.

Éste sería un método apropiado para obtener la energía necesaria para la impulsión del cohete.

Las partículas podrían ser aceleradas mediante poderosos campos eléctricos.

Dado que la materia es una dura concentración de energía, tal como surge de la teoría de la relatividad de la física moderna, fácil es ver que un combustible como éste ocuparía poco espacio, pero en cambio serían indispensables complejos aparatos construidos por la tecnología más avanzada.

Los cohetes de propergol sólido fueron conocidos desde hace mucho tiempo, pero sólo se volvieron a emplear hace muy pocos años.

Ello se debió a la simplicidad del sistema y a la facilidad de almacenamiento.

Los trabajos de investigación con combustibles sólidos son, en la actualidad, constantes.

En los Estados Unidos se ha desarrollado, en la década de los 70, un combustible sólido que tiene la consistencia del caucho.

Es el thiokol, que se fabrica en base a un derivado del caucho sintético líquido, mezclado con un oxidante sólido.

El rendimiento potencial de un combustible depende de la eficacia de la oxidación.

Una idea de la bondad del combustible la da el impulso específico.

Utilizando ácido nítrico como oxidante y anilina como combustible, se obtiene un empuje específico de 221, mientras que empleando oxígeno como oxidante y alcohol etílico como combustible, se obtiene un empuje específico de 242.

La fluorina como oxidante y el amoníaco como combustible dan una mezcla combustible de empuje específico igual a 288.

El ozono y el hidrógeno, como oxidante y combustible respectivamente, dan una mezcla de empuje específico igual a 369.

La fluorina es uno de los agentes oxidantes más eficaces que se conocen.

Es muy probable, con todo, que se mantenga, secreto el conocimiento de algún oxidante de rendimiento superior del tipo del ozono.

La fluorina da un buen rendimiento oxidante, sobre todo con fluorita, pero el costo de esta mezcla es actualmente muy elevado.

El ozono tiene un mayor poder oxidante que la fluorina, pero ofrece el inconveniente de que en estado puro manifiesta una marcada tendencia a descomponerse explosivamente.

El trimetilo es un compuesto de aluminio, fluido y de poder inflamable sumamente elevado.

Su combustión es espontánea al ponerse en contacto con el aire.

Su aplicación a la propulsión de cohetes no se halla desarrollada; mas puede constituir un elemento útil para el futuro.

Una fuente de energía hasta ahora prácticamente desconocida está en los radicales libres, que no son más que fragmentos moleculares libres de carga eléctrica, que se forman durante una reacción exotérmica.

Las regiones superiores de la atmósfera terrestre son una fuente prácticamente inagotable de estos radicales libres, los cuales son originados por la radiación solar.

Los radicales libres son el resultado de un proceso en que absorben energía.

Luego pueden suministrar esa energía para la propulsión.

Recientemente se han realizado varios trabajos de experimentación e investigación.

La tendencia de esos trabajos es la de aislar, los radicales libres para aprovecharlos como combustibles.

Han sido aislados los radicales libres del vapor de agua, del amoníaco, del hidrógeno y del nitrógeno.

El empuje específico de los combustibles basados en los radicales libres resulta muy superior al de los elementos normales.

Así, por ejemplo, en el caso del hidrógeno, si se fabrica un combustible con hidrógeno bajo la forma de radical libre, se obtiene un combustible cuyo empuje específico es cinco a seis veces superior al de los convencionales.

De este modo, un cohete, propulsado con combustibles basados en los radicales libres, tendrá un alcance de unas treinta veces el del tipo común.

No obstante estas ventajas de los radicales libres, en cuanto a concentración de energía, no han salido del campo teórico, debido a que es necesaria la solución de otros problemas muy complicados, tales como producción grande y barata, almacenamiento, control y estabilidad.

Empleando el radical de amoníaco con el hidrógeno líquido, se eleva a 7 u 8 veces el alcance de los cohetes comunes.

La propulsión iónica es sin duda el medio más adecuado para impulsar las naves espaciales.

En este procedimiento, la fuente de iones apropiados es el cesio.

Los iones de este elemento, acelerados en una superficie incandescente de tungsteno, y colocados bajo la acción de un potencial de unos 30.000 voltios, pueden alcanzar una velocidad de unos 220.000 m/seg., que es la requerida para que el impulso específico resulte elevado.

El berilio es un elemento que posee un elevado poder calorífico por unidad de peso, pero es muy tóxico, y se lo encuentra en la naturaleza en cantidades relativamente pequeñas.

Por otro lado, el litio, que es un metal alcalino, y el boro, metaloide, permiten combinaciones con el hidrógeno, llamadas híbridos; estos son las bases esenciales de una gran parte de los supercombustibles empleados en la cohetería moderna.

El boro no quema a temperaturas inferiores a los 700° C.

Los hídridos, tales como el de caborano, el pentaborano y el diborano, están destinados a reemplazar al carbono en sus combinaciones con el hidrógeno.

El diborano es un gas tóxico, muy inestable en presencia de humedad o del aire.

Los procesos tecnológicos requeridos para obtener combustibles basados en boro son en general complicados.

En la práctica, se logra estabilizar los hídridos y eliminar su toxicidad, alcalinizándolos.

En Estados Unidos, el pentaborano alcalinizado es conocido bajo el nombre de Hi-Cal2 y Hef2, y el de caborano por Hi-Cal3 y Hef3.

Estos combustibles son empleados en el desarrollo del avión cohete X-15.

Los combustibles que emplean borano en su composición química poseen un gran impulso específico, pero tienen una limitación.

En efecto, sólo pueden usarse en los casos en que se dispone de aire.

Fuente Consultada: Historia de la Astronáutica – Ediciones Riego S.A.

Enlace Externo: Propergoles

Estrellas Explosivas Novas y Supernovas Formación y Características

Estrellas Explosivas Novas y Supernovas Formación y Característicasr

Estrellas explosivas: novas y supernovas

Cuenta la leyenda que Hiparco se decidió a confeccionar su catálogo cuan do apareció una estrella nueva en la constelación zodiacal de Escorpio.

Su objetivo era construir un sistema de movimientos planetarios y es probable que la observación de los planetas noche tras noche lo llevara a memo rizar las posiciones de las estrellas más brillantes, especialmente las que se encontraban cercanas a la franja del zodíaco.

La filosofía aristotélica vigente en ese momento suponía al cielo perfecto e inalterable.

Entonces es posible imaginarse el asombro del astrónomo griego ante la sorprendente aparición. 

Algunos historiadores consideran que Hiparco observó en realidad un cometa y no una estrella nueva.

Pero dado que en la actualidad se observan algunas decenas de novas por año por galaxia es llamativo que no se hubieran observado con anterioridad y que incluso con posterioridad a Hiparco (hasta 20 siglos después!) no se observara ninguna en occidente.

La siguiente observación de una nova en Europa fue realizada por Tycho Brahe en 1572.

Biografía: Vida y Obra de Tycho Brahe:Astronomo de la Antiguedad –  BIOGRAFÍAS e HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA

A él se debe el término nova (del latín, nova stella ) e indica la idea original sobre estos objetos: de repente aparecía una estrella donde previamente no se había observado.

Para descubrir una nueva estrella hay que ser un experto observador del cielo, como hemos mencionado, durante siglos se les prestó muy poca atención a los componentes del paisaje celeste que no fueran los planetas, por lo tanto si la nova aparecía en una constelación lejana al zodíaco muy probablemente pasara inadvertida.

También hay que considerar la fuerza de la teoría aristotélica: cualquier cambio en los cielos inmutables era imposible.

La información sobre cualquier cambio celeste podía convertirse en tm sacrilegio y es muy probable que quien lo observara no lo hiciera público para no arriesgarse a ser tratado de loco, ciego o mentiroso.

Pero afortunadamente, durante el período que va de la época de Hiparco hasta el año 1500 los chinos observaron cuidadosamente el cielo y registraron todos los cambios detectados.

En la época antigua y medieval reportaron la aparición de cinco estrellas brillantes (en los años 185, 393, 1006, 1054 y 1181). La de 1006 fue por lo menos 200 veces más brillante que Venus, de manera que ni siquiera los desinteresados europeos pudieron ignorarla

Luego de Tycho, el siguiente en observar una nova fue un astrónomo alemán, F. Fabricio en 1596, y en 1604 lo hizo Kepler.

Todas estas observaciones coincidían en que aparecía una estrella muy brillante donde previamente no se había observado nada y este brillo disminuía lentamente hasta desaparecer.

En la actualidad sabemos que lo que antiguamente se llamaba nova corresponde en realidad a dos tipos de objetos: novas y supernovas.

Al igual que las novas, las supernovas son estrellas eruptivas o explosivas, pero se distinguen de aquéllas en que la cantidad de energía liberada es mucho mayor y además, en el caso de las novas, sólo aparecen afectadas por la explosión las capas exteriores, mientras que la explosión de una supernova afecta toda la estrella.

Aún las más luminosas como Nova Cygni 1975, brillan 1.000 veces menos que las supernovas.

• ►Novas:

Estas estrellas se clasifican en novas, que ganan más de 10 magnitudes en la explosión, y novas enanas, que sólo aumentan su brillo unas pocas magnitudes.

Algunas han explotado sólo una vez desde que fueron observadas, pero se cree que son recurrentes cada 10.000 o 100.000 años.

Las novas recurrentes, menos energéticas, experimentan explosiones cada 10 a 100 años.

La observación de varias post-novas a mediados de este siglo demostró que muchas de ellas son miembros de sistemas binarios super próximos en los que una de las estrellas es una enana blanca y la otra una estrella fría (por ejemplo una gigante roja).

Cuando la estrella ínicialmente menos masiva comienza a expandirse para formar una gigante roja, etapa que se acelera al aumentar su masa con la que se desprende de su compañera, sus capas exteriores se acercan tanto a la enana blanca que parte de su envoltura queda atrapada en el campo gravitatorio de ésta, formando lo que se llama un disco de acreción.

Tal nombre se debe a que, debido a colisiones entre las partículas del disco, éste pierde energía y algunas partes caen sobre la enana blanca, que gana así cierta masa en un proceso llamado acreción.

La gran gravedad superficial de la enana blanca comprime esta masa formada esencialmente de hidrógeno, y la calienta.

La temperatura se hace tan alta que comienza la fusión de este hidrógeno, lo que calienta aún más la superficie y se inicia la fusión en el disco de acreción, produciéndose un enorme destello de luz, y las capas superiores del disco son arrojadas lejos de la influencia gravitatoria de la enana blanca.

Este destello de luz es lo que vemos desde la Tierra en forma de nova y la parte del disco de acreción impulsada hacia el exterior es la nube de gas y polvo que se observa alrededor de la post-nova.

El proceso de fusión disminuye gradualmente, pero el ciclo recomienza porque la compañera de la enana blanca sigue perdiendo masa y esto reconstruye el disco de acreción.

De esta forma el fenómeno de nova puede repetirse muchas veces antes de que la supergigante finalice su expansión y se transforme ella misma en enana blanca.

Por lo visto, las condiciones necesarias para la formación de una nova son entonces bastante especiales, y muy pocas estrellas de nuestra galaxia las satisfarán.

El Sol, como hemos visto, se transformará en enana blanca. Pero como no tiene compañera no será una nova.

• ►Supernovas:

El fenómeno de supernova es una explosión fenomenal que involucra la mayor parte del material de una estrella y determina el fin de la evolución de ciertos objetos estelares.

Se supone que la mayoría de las supernovas de nuestra galaxia son indetectables debido a la extinción causada por el polvo interestelar.

Actualmente se cree que las observaciones chinas de 1054 y las de Tycho y Kepler se trataban de supernovas.

La de Kepler, en 1604, fue la última detectada en nuestra galaxia.

Hay esencialmente dos tipos de supernovas:

a) las tipo I resultan de la explosión de estrellas viejas, de masa relativamente pequeña y pobres en hidrógeno pero ricas en elementos pesados, tal como corresponde a una fase avanzada de evolución; su composición indica que se trata de enanas blancas.

b) Las tipo II son explosiones de estrellas masivas, también al final de su evolución, pero en una fase menos terminal que las de tipo 1; son ricas en hidrógeno y presumiblemente están en la etapa de supergigante roja.

En su máximo de luz, el brillo producido por las supernovas aumenta unas 15 magnitudes; las tipo 1 son casi tres veces más luminosas que las tipo II.

Luego el brillo disminuye unas 304 magnitudes durante los primeros días y durante varios meses decrece casi exponencialmente.

La energía liberada durante el corto tiempo de la explosión es equivalente a la que irradiará el Sol durante 9 mil millones de años (recordemos que la edad actual del Sol es de unos 4,5 mil millones de años) o a la explosión simultánea de 1028 bombas de hidrógeno de 10 metagones cada una y la materia expulsada, alrededor de 5 M0,puede alcanzar velocidades de 36 x 106 km/h.

Las supernovas de tipo 1 pueden alcanzar una magnitud absoluta de -18,6, es decir 2.500 millones de veces la luminosidad del Sol o unas 100 veces más brillantes que la luz integrada de toda la galaxia.

Según el tipo, la masa eyectada puede ser de 1 a 10 M0, lo que en algunos casos es la masa total de la estrella y, por lo tanto, no queda nada después de la explosión.

A partir del descubrimiento de los púlsares (estrellas de neutrones de muy rápida rotación) en 1968, se sabe que después de la explosión puede quedar un objeto extremadamente denso.

Este objeto, que es el núcleo de la estrella, está formado exclusivamente por neutrones.

Los mecanismos responsables de estas explosiones no se conocen todavía con certeza.

La mayoría de las teorías consideran que la energía liberada por la explosión es principalmente de origen nuclear, en particular la fotodesintegración del Fe.

Esta es la etapa final en la cadena de reacciones nucleares que ocurren durante la vida de las estrellas de unas 10 M0.

Las estrellas con masas necesarias para terminar como supernovas de tipo 1 son por lo menos 10 veces más numerosas que las estrellas más masivas que dan origen a las supernovas tipo II.

Por lo tanto sería razonable suponer que se observarán 10 veces más supernovas de tipo 1 que de tipo II.

Sin embargo no es así: los dos tipos se observan con la misma frecuencia.

Por lo tanto hay que concluir que no todas las estrellas de poca masa terminan como supernovas y en consecuencia, que se necesitan ciertas condiciones especiales para que este fenómeno ocurra.

La pre-supernova de tipo II tiene una estructura de cáscara como una cebolla.

A medida que descendemos de la capa superficial de H se encuentran capas de elementos de mayor masa atómica.

Estas capas son producto de las distintas fases de la nucleosíntesis que han ocurrido durante la vida de la estrella.

Las reacciones que originan los elementos más pesados se ordenan de acuerdo a la temperatura.

Los aumentos de temperatura ocurrieron alternándose con contracciones gravitatorias.

El centro de la supergigante que explotará como supernova está compuesto por una mezcla de núcleos de Fe y otros núcleos con números atómicos entre 50 y 60.

Estos son los elementos con mayor energía de ligadura. Por lo tanto no se puede extraer más energía de ellos.

Cualquier cambio nuclear ulterior con estos elementos, tanto si es fusión para dar elementos más complicados como si es fisión para dar núcleos menos complicados, no liberará energía sino que la absorberá.

El núcleo estelar de hierro crece, luchando contra la contracción gravitatoria gracias a la presión de los electrones degenerados.

Pero al describir las enanas blancas vimos que hay un limite para esto: cuando la masa del núcleo ha alcanzado el límite de Chandrasekhar (1,4 M0), la presión de los electrones no alcanza para evitar la contracción y la estrella colapsa.

En ese momento, todos los productos del proceso de nucleosíntesis se han aniquilado, el gas está formado ahora por neutrones, protones y electrones libres.

Pero éstos últimos experimentan un gran aumento de energía al comprimirse, su energía se hace mayor que la necesaria para transformar un protón en neutrón y así son absorbidos por los protones.

Privado de la componente más significativa de presión, el núcleo estelar colapsa a un ritmo acelerado.

La distancia entre neutrones es ahora muy pequeña (del tamaño del núcleo atómico, fermi) y la estrella se ha transformado en una estrella de neutrones.

Desde el inicio del colapso se requieren sólo unos pocos minutos para alcanza este estado.

Al comenzar el colapso del núcleo, las capas exteriores de la estrella, donde están ocurriendo algunas reacciones nucleares, caen arrastra das por él.

Los gases se comprimen rápidamente y aumentan su temperatura.

La velocidad de las reacciones nucleares aumenta notablemente, la gran cantidad de energía producida origina inestabilidades y, finalmente, la explosión de las capas exteriores.

Las supernovas de tipo 1 son parte de un sistema binario formado por una supergigante roja y una enana blanca, como el que da origen a las no vas.

Sin embargo en este caso la masa de alguna de las componentes o de ambas es mayor que en el caso de la nova.

En esta situación, la enana blanca puede ganar más masa y superar el límite de Chandrasekhar.

Entonces sufre un colapso y comprime muy fuertemente los núcleos de carbono y oxígeno en su interior, creando las condiciones para una fusión con tal liberación de energía que su resultado es una explosión de supernova.

Probablemente éste fue el caso de las supernovas de Tycho y Kepler ya que en ninguno de los dos casos se ha detectado estrellas de neutrones en las posiciones correspondientes.

Incluso mucho tiempo después de la explosión las supernovas se revelar por sus efectos sobre el medio interestelar.

El remanente joven de la supernova aparece como una gran burbuja que emite radiación en todo el espectro y se expande a una velocidad de 10.000 km/seg.

A medida que lo hace empuja al gas interestelar y se va frenando. Después de unos cientos de años la cáscara se enfría y el remanente se desintegra en el medio circundante

Los remanentes son antigüedades astronómicas muy valiosas, capaces de revelar información sobre la explosión, la evolución posterior y la estructura y composición del medio interestelar.

Las supernovas son uno de los contribuyentes más importantes a la evolución de la materia galáctica.

No sólo transmiten al medio interestelar energía térmica y cinética sino que también la enriquecen con elementos pesados de la nucleosíntesis estelar.

El interés por las supernovas de los astrónomos interesados en la evolución estelar y el medio interestelar ha aumentado notablemente, dado que se piensa que podrían ser el detonante del proceso de formación de nuevas estrellas.

La última observación de una explosión de supernova ocurrió en 1987 en la Gran Nube de Magallanes.

Miles de investigadores renovaron su interés y en los últimos años se han realizado importantísimos avances en nuestra comprensión de estos fenómenos.

Esta supernova ha proporcionado la posibilidad de realizar la medición de distancia más precisa que se haya hecho para un objeto fuera de nuestra galaxia.

El remanente de SN 1987A (como se denomina) está a 1,60 x 105 años luz, con una certeza de ±5%.

Un anillo hecho del material eyectado por el progenitor de la supernova en su fase de supergigante, ya rodeaba a la estrella unos 5.000 años antes de la explosión, pero sólo se hizo visible cuando se calentó hasta unos 20.000 0K como consecuencia de la misma.

Si ese anillo fuera perpendicular a la línea de la visión, se hubiera iluminado todo a la vez. Sin embargo, como está inclinado unos 450 respecto de esta posición, distintas partes se encuentran a distancias diferentes de nosotros.

La parte más cercana pareció encenderse tres meses después de la explosión, mientras que la más lejana permaneció oscura cerca de un año más.

Esta diferencia indica que el diámetro del anillo es de 1,3 x 1013 km.

La medición del diámetro angular fue realizada por la estación orbital Hubble y es de 1,66 segundos de arco.

Esencialmente, toda la energía cinética del núcleo que colapsa se convierte en una onda de choque que, al encontrar las capas exteriores que están colapsando, las hace rebotar y cambiar de dirección.

Este proceso se ve favorecido por la gran cantidad de neutrinos emitidos por la estrella de neutrones que se está creando.

La luz puede ser emitida sólo cuando la onda llega a la capa más externa.

En SN 1987A, la onda de choque demoró dos horas en atravesar toda la estrella.

Los pocos (pero muy preciados) neutrinos detectados poseían características acordes con las predicciones teóricas —sus cantidades, energías y el intervalo de tiempo en que llegaron a la Tierra—, lo cual aumenta la credibilidad en los modelos.

El 99% de la energía liberada llega de esta forma, en los neutrinos que pueden escapar de la estrella mucho más rápido que los fotones de luz. Estas observaciones permiten abrigar esperanzas de observar más eventos de supernova en la medida en que mejoren los detectores de neutrinos.

Se estima que los mismos ocurren cada 10 o 100 años, especialmente en las regiones centrales de nuestra galaxia, pero permanecen ocultos por el material interestelar que opaca la luz.

Si las predicciones teóricas respecto de los neutrinos de supernovas son tan precisas, ¿por qué hay una discrepancia tan grande entre las observaciones y las predicciones respecto de los neutrinos solares? Tal vez, más observaciones de supernovas ayuden a resolver este problema.

FORMACIÓN DE LOS ELEMENTOS QUÍMICOS:

El aumento de presión y temperatura, después de producirse los primeros colapsos de la estrella, posibilita la fusión de núcleos de helio para formar uno de carbono.

La persistencia de estas condiciones hará que los átomos de carbono se fusionen con otros para constituir otros más complejos.

Así, el carbono, al fusionarse con un núcleo de deuterio, forma uno de nitrógeno, y al hacerlo con un núcleo de helio, constituye uno de oxígeno.

A través de reacciones similares se forma el resto de los elementos químicos, siendo necesarias condiciones más extremas: en general, cuanto mayor es el número atómico (Z), mayor presión y temperatura se requieren para la formación.

Ciertas características de la estructura interna de los núcleos de los elementos alteran la proporción que sería previsible: más abundantes los de menor número atómico.

No obstante, en muchos casos, los átomos de los elementos químicos muy pesados se descomponen espontáneamente, modificando las proporciones que podrían calcularse.

¿Sabían que el átomo de carbono, debido a su mayor estabilidad, es el más abundante del Universo después del hidrógeno, el helio y el neón?

La abundancia del carbono y su característica de generar otros elementos biogénicos son datos de gran importancia para entender la formación de moléculas orgánicas en el Universo y la aparición de vida sobre la Tierra.

Es interesante, además, conocer que la abundancia relativa de hidrógeno, nitrógeno, oxígeno, carbono, fósforo y azufre es casi idéntica a la que se encuentra en la materia viva.

• ►SUPERNOVAS INQUIETANTES

Al igual que los seres vivos, las estrellas nacen, viven y mueren.

Se forman a partir de una nube de gas, encienden sus hornos nucleares, irradian su luz durante millones de milenios y después se apagan colapsan y desaparecen.

Una de las formas que tiene de morir es la supernova. Pero para llegar a ese final explosivo el astro tiene que tener por lo menos una masa equivalente a la de tres soles.

La supernova también ocurre cuando la estrella ha consumido casi todas sus fuentes de energía.

Entonces dos fuerzas entran en una lucha crítica. La declinante fusión nuclear no puede ya compensar la fuerza de gravitación y esta hace que el astro comience a hundirse sobre sí mismo.

Las capas exteriores se precipitan hacia el núcleo en un cataclismo gigantesco que origina un rápido sobrecalentamiento de la materia, proceso que culmina con la explosión que ya hemos descrito.

supernova

La supernova de la Galaxia del Cigarro, que se encuentra a alrededor de 12 millones de años luz de la Tierra

Las supernovas no son fenómenos frecuentes. En grandes sistemas estelares, como la Vía Láctea, se produce una cada siglo.

Por esta razón, no son muchas las que el hombre ha podido presenciar en su brevísima existencia como especie.

En el año 1006 apareció una supernova en los cielos del hemisferio sur.

En su apogeo brillaba tanto como el cuarto de luna y su luz proyectaba sombras sobre la Tierra. Fue visible durante dos semanas en pleno día, y durante dos años por la noche.

El 4 de julio de 1054, los astrónomos chinos registraron la aparición de una «estrella intrusa».

Su brillo era de tal magnitud que también resultaba visible de día. Pronto se transformó en uno de los objetos más notorios del firmamento, al que únicamente el sol y la luna superaban en brillo.

Se dejó ver durante dos meses y después comenzó a apagarse paulatinamente hasta desaparecer por completo.

Cuando los astrónomos contemporáneos dirigieron sus telescopios hacia la región del cielo donde hace 900 años había aparecido la «estrella intrusa», encontraron un extraño objeto al que se dio el nombre de Nebulosa del Cangrejo.

Es una nube de gas en rápida expansión que sólo pudo originarse a partir de un estallido titánico. Los cálculos indican que nueve siglos atrás toda esa masa de gas debió haber estado comprimida en un volumen pequeño.

Se comprobó, de esa forma, que la mencionada nebulosa no era sino la supernova observada por los astrónomos chinos a comienzos de este milenio, que continúa explotando.

El estallido ocurrió, en realidad 6 mil años antes de que su luz llegara a la Tierra y fuera percibida por los hombres.

La última supernova observada en la Vía Láctea fue registrada por el célebre astrónomo y matemático Johannes Kepler,en 1604, antes de la invención del telescopio.

Desde entonces el hombre no había tenido ocasión de usar sus modernos instrumentos astronómicos para estudiar una supernova cercana.

Pero a comienzos de 1987, un científico canadiense descubrió desde el Observatorio de Las Campanas, en el norte de Chile, una supernova muy próxima a la Tierra, situada en la Gran Nube de Magallanes, que es una galaxia satélite de la nuestra.

Esta espectacular supernova, bautizada como Shelton 1987 A se hizo visible a simple vista.

Ocurrió en realidad hace 170 mil años, es decir, antes de que en la Tierra se irguiera el hombre de Neandertal.

Así, por primera vez los astrónomos han podido seguir el curso evolutivo de una supernova con telescopios poderosos y modernos La supernova es desde luego un fenómeno inquietante.

Es posible que el hombre llegue a auscultar las estrellas cercanas para determinar cuales de ellas amenazan con incurrir en esos estallidos catastróficos.

La teoría predice que a las elevadas temperaturas que alcanza el núcleo del astro que está por explotar, se producen, entre otras partículas, los fantasmales y casi inasibles neutrinos.

Estos carecen de masa, se mueven a la velocidad de la luz, atraviesan la Tierra con la misma facilidad con que el agua pasa a través de un colador, y rara vez se detienen para interactuar con otras partículas.

El descubrimiento de Shelton 1987 A, ha ayudado a comprobar la teoría. Como resultado de esta supernova, la Tierra está recibiendo una lluvia de  neutrinos que se han captado en detectores especiales instalados en minas subterráneas, en los Estados Unido, Europa Japón y la Unión Soviética.

Cuando se perfeccionen estos detectores y se construyan incluso telescopios de neutrinos, el hombre estará en condiciones de escudriñar  en los núcleos de las estrellas que presenten gigantismo rojo I H acuerdo con las cantidades de neutrinos que éstas emitan será posible predecir con bastante exactitud y antelación cualquiera amenaza cercana de supernova que pudiera sumergir a la Tierra en un peligroso baño de radiación.

Fuente Consultada: Notas Celestes de Carmen Nuñez

Historia de la Estacion Espacial Internacional: Objetivos y Experimentos

Historia de la Estación Espacial Internacional Objetivos y Experimentos a Realizar

Historia de la Estacion Espacial Internacional: Objetivos y Experimentos

• UN POCO DE HISTORIA…

Las estaciones espaciales

El hombre ha tenido ya bastantes éxitos en el espacio: ha logrado dar vueltas en torno de la Tierra, ha conquistado la Luna y las sondas con que llegó a Marte y a Venus hablan de su inalterable empeño por proseguirlos.

El gran instrumento con que cuenta es su taller en el espacio: las estaciones planetarias.

La construcción de estaciones espaciales habitadas por el hombre, importante etapa en los futuros viajes interplanetario, fue puesta en órbita.

Historia de la Estacion Espacial Internacional: Objetivos y Experimentos

Tanto podía funcionar automáticamente como con dotación a bordo.

El 23 del mismo mes, el Soyuz y así permaneció durante 5 horas 30 minutos, tiempo durante el cual se cumplió un programa completo de experimentos ecológicos y médico-biológicos que incluía también la producción del propio alimento. Transcurrido ese lapso, retornó a la Tierra.

El 30 de junio del mismo año, el Soyuz 11, tripulado por los cosmonautas Dobrolvski, Volkov y Patsaiev, acoplaron su nave al Salyut y pasaron a su interior, donde permanecieron durante más de tres semanas. Ya en la Tierra, el drama: al abrirse la cápsula, los tres cosmonautas estaban muertos.

El 14 de mayo de 1973, por medio de un impulsor Saturno V, los Estados Unidos pusieron en órbita el laboratorio espacial Skylab I no tripulado de 85 toneladas de peso. Averiado al minuto de su lanzamiento, al aumentar peligrosamente la temperatura inicial de la astronave los técnicos de la NASA se abocaron a la tarea de repararlo.

El día 25 del mismo mes y año, los astronautas Conrad, Kerwin y Wwitz, lanzados en una cápsula tipo Apolo, abordaron el Skylab I y sobre la parte averiada desplegaron una especie de parasol para hacer descender la temperatura del laboratorio.

Historia de la Estacion Espacial Internacional: Objetivos y Experimentos

Durante 28 días los cosmonautas realizaron la mayoría de los experimentos previstos, referidos casi todos ellos a observaciones de la Tierra, el Sol y el espacio sidéreo.

Cumplida la misión, retornaron a la Tierra en la cápsula Apolo.

Los laboratorios orbitales son plataformas con capacidad para dar albergue a varios tripulantes durante un lapso relativamente largo, y están provistos de los elementos necesarios para el transporte de cosmonautas en viajes de ida y vuelta.

La segunda misión del programa se cumplió en la estación Skylab 3, en condiciones similares a la anterior, el 28 de julio de 1973.

Los cosmonautas fueron Bean, Garriott y Lousma, quienes tras instalar un parasol adicional, recargar las cámaras de los telescopios y descubrir un detector de meteoritos junto a la pared de la estación, durante 59 días estudiaron la Tierra y la Luna, en especial las reacciones del organismo durante casi dos meses en un ambiente falto de gravedad.

Después de una caminata espacial de 6 hs. 31′, que constituyó un nuevo récord, retornaron a la Tierra el 25 dé septiembre. Su estado físico era excelente.

Historia de la Estacion Espacial Internacional: Objetivos y Experimentos

LA ESTACIÓN ESPACIAL INTERNACIONAL:

La exploración y la conquista del espacio es uno de los desafíos más grandes y excitantes emprendidos por el hombre, y la aventura más audaz en la historia de la exploración espacial es, sin duda alguna, la construcción de la Estación Espacial Internacional(ISS).

En 1984, el gobierno estadounidense lanzó un programa para la construcción de una es espacial.

Los enormes costes que suponían las de estudio y de planificación retrasaron la propia marcha del proyecto, que no adquirió forma hasta que finalizó la Guerra Fría.

En 1993, Rusia decidió a aportar la experiencia que había  en la construcción —iniciada en el año 1986— de la estación espacial soviética MIR (paz).

En 1998 se inició  la construcción de la ISS.

En primer lugar debían crearse las condiciones técnicas para asegurar una colaboración estrecha.

En este sentido, la lanzadera estadounidense emprendió varios viajes a la  MIR y efectuó entre otras cosas, maniobras de acoplamiento. 

El 20 de noviembre de 1998 se instaló el primer componente de la ISS, un módulo de carga y de que se colocó a 350 Km. de distancia de la Tierra.

Le siguió ese mismo año una pieza de empalme, que el 12 de julio de 2000 atracó el módulo ruso.

Desde noviembre de aquel mismo año hasta el abril de 2003, la ISS acogió varias tripulaciones internacionales formadas por tres astronautas.

Estos permanecen de cinco a siete meses en el espacio, transcurrido este tiempo, son relevados por nuevas dotaciones.

Después de la catástrofe del Columbia ocurrida en 1º de febrero de 2003, la tripulación fija debió reducirse a dos personas por problemas de suministro.

https://historiaybiografias.com/archivos_varios6/estacion-espacial6.jpg

Los estudios que se realizaran en la estación son los siguiente:

1-BIOLOGÍA:

– Respuesta fisiológica al vuelo espacial.
– Salud humana y rendimiento.
– Desarrollo de contramedidas a la microgravedad.
– Investigación general en Biología.

2-CONOCIMIENTO SOBRE LA TIERRA

3-MICROGRAVEDAD

– Ciencia de los Materiales.
– Física de Fluidos
– Ciencia de la Combustión
– Biotecnología
– Física fundamental.

4-CIENCIA ESPACIAL

– La estructura y la evolución del Universo
– Exploración del Sistema Solar
– Conexión Tierra-Sol
– Búsqueda de otros sistemas planetarios.

5-INGENIERÍA Y TECNOLOGÍA

– Sistemas de comunicación espaciales de uso comercial, con énfasis en la mejora de la tecnología de satélites para telefonía personal, y comunicación de vídeo y datos.
– Eficiencia en el uso de la energía, y calidad de agua y aire.
– Técnicas de construcción y funciones de mantenimiento automatizadas.

6-ESTUDIO DE NUEVOS PRODUCTOS

 INFORMACIÓN GENERAL DEL MEGA PROYECTO:

1. La Estación Espacial es la mayor dotación objeto jamás enviado al espacio. Se trata de un centro de investigación que mide 108 m. de largo y 80 m. de ancho. Su peso es de más de 450.000 kg.

2. Orbita a 400 km. sobre la tierra y se puede ver en el cielo nocturno a simple vista. Los científicos pueden estudiar la tierra y su entorno. Pueden ver los cambios que están ocurriendo en la tierra, en el mar, y con nuestro clima.

3. La ISS puede ser visto por la gente en la Tierra. Cuando se haya completado, la ISS será visible a más deL 90 por ciento de la población mundial y dará una vuelta a la Tierra cada 90 minutos.

4. Está siendo alimentada por energía solar. Esta energía es necesaria para alimentar los seis laboratorios y todo el espacio de vida a bordo.

5. La Estación Espacial Internacional fue diseñada y construido con la colaboración de 100.000 personas de 16 naciones desde 1998, y cientos de empresas. El proyecto se inició en 1998.

6. El costo de construir la Estación Espacial Internacional es correcto alrededor de 96 mil millones de dólares.

7. Los primeros miembros de la tripulación permanente, incluidos el astronauta estadounidense Bill Shepherd (que era también el comandante de la ISS) y los cosmonautas rusos Sergei Krikalev, como ingeniero de vuelo y Gidaenko Youri como comandante de la Soyuz. Esta expedición duró 140 días, 23 horas y 30 minutos en órbita.

8. Los vehículos espaciales viajan a la estación para traer y llevar científicos y suministros.

9. Los científicos están estudiando cómo los diferentes fluidos, metales y otros materiales  responden en el espacio sin el efecto de la gravedad. Estos estudios podrían ayudar a comprender mejor los virus, las proteínas y enzimas. Se espera que estos nuevos estudios guiarán algún día a los posibles nuevos tratamientos para muchas enfermedades, incluyendo cáncer. Los científicos también están tratando de lograr una medición más precisa que lo posible en la tierra, las formas más eficientes de producción de materiales, y una comprensión más completa del universo.

10. Alrededor de 160 paseos espaciales fueron necesarios para el montaje y mantenimiento de la Estación Espacial Internacional.

• DATOS TÉCNICOS: 

* Inicio de las obras: 1998

* Envergadura: 108,6 m.

* Longitud: 79,9 m.

* Profundidad: 88 m.

*Volumen: 1.140m3

* Masa: 450 toneladas. aprox.

* Altitud de la órbita: Alrededor de 350-450 Km. sobre el nivel del mar.

* Inclinación de la órbita: 51,60 º

* Vuelta a la Tierra: Una cada 90 minutos.

* Velocidad relativa: 29.000 Km./h

* Potencia eléctrica: 110 Kw.

* Superficie de las placas solares: 4.500 m2

* Tripulación fija: 3 personas (2000-2003). 2 personas (desde abril 2003).

* Vuelos a la ISS: 28 (hasta julio de 2006).


Fuente Consultada:
MUNDORAMA – Astronáutica
Maravillas del Siglo XX
El Universo Enciclopedia de la Astronomía y el Espacio Tomo V

Temas Relacionados con la Astronáutica:

Influencia del Romanticismo Aleman en la Ideologia NAZI

Influencia del Romanticismo Aleman en la Ideologia NAZI

El nacionalsocialismo (o nazismo) tenía muchos puntos en común con el fascismo.

No obstante, sus raíces eran típicamente alemanas: el autoritarismo y la expansión militar propios de la herencia prusiana; la tradición romántica alemana que se oponía al racionalismo, el liberalismo y la democracia; diversas doctrinas racistas según las cuales los pueblos nórdicos —los llamados arios puros— no sólo eran físicamente superiores a otras razas, sino que también lo eran su cultura y moral.

Así como determinadas doctrinas filosóficas, especialmente las de Friedrich Nietzsche, que idealizaban al Estado o exaltaban el culto a los individuos superiores, a los que se eximía de acatar las limitaciones convencionales.

Adolf Hitler
Adolf Hitler

► ¿Qué significado tienen «nación» y “nacionalismo”?

El concepto nación fue variando con el transcurso del tiempo; es decir, no siempre quiso de lo mismo.

Nación proviene del latín nascere , nacer, en la época medieval, aludía al origen geográfico , al nacimiento de las personas.

También la palabra patria (idea que proviene de la antigüedad. -pate; padre) significaba el lugar de procedencia familiar, la tierra de los padres, y se equiparaba con país (de pagus: tierra, campo), por lo cual un paisano es un compatriota.

Con la Revolución Francesa de 1789, “nación” es el conjunto de ciudadanos que gozan de los mismos derechos, se sujetan a las mismas leyes y están representados por una misma legislatura.

Es decir que para los franceses, el fenómeno del nacionalismo es consciente y voluntario: es el deseo de pertenecer a una nación o a otra, que hace que los miembros de una comunidad quieran tener su propio gobierno.

Esta aspiración de los habitantes de un país se puede expresar mediante la participación popular, el sufragio, el plebiscito.

Es un concepto liberal, que expresa la voluntad política democrática de un sector social pujante constituido por la burguesía.

Este concepto francés se contrapone con el de la escuela alemana, que posee una idea conservadora de nación gestada en el último tercio del siglo XVIII difundida por el romanticismo alemán (especialmente a partir de 1830): se considera la nacionalidad como un fenómeno inconsciente e involuntario, ligado a la población por el lugar de nacimiento, el idioma, las costumbres; se «lleva en sangre”.

Para el romanticismo, la nación es un ser vivo, que se manifiesta a través del espíritu nacional, a través de signos externos como la lengua, la religión, las tradiciones, un pasado colectivo; se puede no tener conciencia de la nacionalidad, pero no por ello deja de existir.

El romantisismo exalta la época medieval, porque en ella abreva la fuente de la nacionalidad alemana: el pasado más glorioso estaba en el Sacro Imperio Romano Germánico, que durante la edad moderna había decaído, hasta disolverse en 1806.

En el romanticismo se destacan tres puntos fundamentales:

* Oposición al clasicismo y a la racionalidad.

* Arte basado en la libertad, el sentimiento y la espontaneidad.

* Recuperación del espíritu originario del pueblo pangermánico. (fuerte tendencia nacionalista)

Esta glorificación del espíritu nacional, que era necesaria para incitar a la lucha por la liberación, tomó en Alemania y en otros países donde se difundió, el erróneo concepto de “raza” como el rasgo que mejor podía definir la nación; exaltación que un siglo después llegará al paroxismo con los regímenes nazi-fascistas.

Debido a la desvirtuación que tuvo el concepto “nacionalista” bajo esta ideología, muchos de los que actualmente utilizan este término se ven obligados a anteponer la expresión aclaratoria “sano».

Hoy en día se admite que la idea de nación es una construcción de quienes tienen la voluntad de integrarla.

Se construye sobre la conciencia de tener un pasado en común (aunque ese pasado sea relativamente reciente, especialmente entre los hijos de inmigrantes), un idioma compartido por la mayoría y otras características culturales comunes.

Ese modelo o imaginario se consolida a través de la difusión de la literatura impresa.

► Antecedentes y Orígenes del Nazismo:

a) Pangermanismo:

surge de exaltación del nacionalismo alemán, por ejemplo en 1878 apareció un libro llamado, Escritos Alemanes, cuyo autor Lagarde, profesor de la universidad de Gotinga, en donde ya plantea el «espacio vital» y exige el retroceso de las fronteras rusas.

b) Antijudaísmo.

El odio a los judíos como corruptores de la pureza cultural y biológica de los germanos tiene también raíces decimonónicas.

La cuestión judía (1880), donde se sostiene que la depravación es nota definitoria del pueblo judío —libro que mereció la réplica de Engels, Antidühring—, o la propuesta de Paasch de exterminio o deportación a Nueva Guinea de todos los judíos, anticipando los estremecedores programas de la solución final.

c) Racismo.

Las doctrinas racistas supusieron una exegesis espuria del darwinismo en la medida que trasladaron a las sociedades humanas las tesis acerca de la lucha por la existencia que el gran científico inglés había referido a las especies animales.

Ya antes de la aparición del libro de Darwin se había publicado el del francés Gobineau, Sobre la desigualdad de las razas humanas, en el que se exaltaba la superioridad de la raza blanca, y dentro de ella del tronco ario, y la inferioridad de negros y judíos.

Posteriormente, el yerno de Wagner, el inglés germanizado Houston Stewart Chamberlain, en Los fundamentos del siglo XX, consideró a la aria como la única raza creadora e identificó los períodos de mezcla o caos racial con períodos de decadencia.

d) Revanchismo.

Más clara resulta la asimilación con los postulados nazis en los escritos de algunos intelectuales que predicaban la revancha por las cláusulas de Versalles.

Es el caso de Spengler en su famosa obra La decadencia de Occidente, título de por sí expresivo, donde se considera a la democracia «el peligro del siglo XX” y ensalza la guerra, forma eterna de vida superior”.

Aún más directa es la repulsión de Versalles en Van der Bruck (El segundo Reich, 1923).

Biografia de Hitler Adolf Historia de su Vida e Idiologia ...

————-  00000 ————
 

EL TRIUNFO DE LAS DICTADURAS NAZI-FASCISTAS: PRONTO ARDERÁ EUROPA.

►LAS CONCEPCIONES DE HITLER.

A diferencia de Mussolini, que crea el fascismo después de su llegada al poder, cuando Hitler es nombrado canciller del Reich dispone ya de un conjunto de principios, de un programa, de numerosos efectivos y unos colaboradores que le permiten actuar sin tener que improvisar.

La primera exposición de principios la hizo en la Hofbrauhaus en 1930 en un programa que-constaba de 25 puntos y luego en Mein Kampf, […]. Su concepción del mundo se basa en la ley:

de la sangre y de la raza inspirada en Gobineau, Houston Steward Chamberlain y Paul de Lagarde […]: existe una raza superior a las demás, la raza aria, que debe conservar su pureza y recobrarla eliminando todos aquellos elementos que han intentado corromperla, especialmente el judio, […].

En el campo político adopta una -posición contraria a los principios de la revolución francesa: la ideología liberal de la república de Weimar ha sido impuesta a Alemania por sus vencedores occidentales para mantenerla en un estado de inferioridad: por ello es preciso provocar el «despertar de la nación» (el grito de guerra de las camisas pardas es » ¡Alemania despierta!»), rechazar el individualismo y el liberalismo, que no convienen con la mentalidad alemana, […] la igualdad y la libertad son absurdas y contrarias a la naturaleza y el hombre no se halla aislado sino que es un eslabón de las generaciones—; la misión del estado antiliberal, «antipartido», antiigualitario, jerárquico, consiste en mantener la comunidad de sangre y de lengua, el retorno a las tradiciones específicamente alemanas, todo aquello que es vólkisch (nacido del pueblo) y conquistar para este pueblo el espacio necesario a su vida y a su desarrollo.

Influencia del Romanticismo Aleman en la Ideologia NAZI

El 14 de julio de 1934, Hitler se encontró con Mussolini en Venecia. En ambos, ya había madurado la idea de formar un bloque aliado que, más tarde, se denominé Eje Roma-Berlín.

El origen del poder no se halla en una mayoría de individuos sino en el Vólk, el pueblo, entendido como una unidad, cuya voluntad el Führer interpreta creando el Derecho.

Los enemigos del pueblo son: en el exterior, Rusia y Francia; en el interior los masones, los judíos, y la socialdemocracia, […].

En la esfera económica Hitler condena los cartels, «la máquina sin alma» y a los propietarios egoístas; defiende a los campesinos, a la clase media y a la propiedad privada.

En suma, el pueblo alemán es un Vólk ohne Raum que debe orientar su expansión hacia el este, el sur y el oeste de Europa.

Estas ideas (desprecio de la democracia, irritación ante el Diktak (dictado) de Versalles, anticapitalismo, antisemitismo, racismo, aspiración a una dictadura) no son nuevas, […].

Pero Hitler acierta a presentarlas con vigor y pasión, de manera que respondan a las inquietudes, a los odios y al deseo de venganza de las masas alemanas; su libro obtiene un éxito fabuloso: en abril de 1940 se han vendido seis millones de ejemplares en todos los idiomas, […].

Sus ideas son divulgadas y desarrolladas por los teóricos del nazismo como Goebbels, tal vez el más original, Rosenberg, Darré, […].

En 1927 se organizaban las fuerzas de protección S.S. (Schtzs-taffeln) integradas por militantes fanáticos que, en 1929, reciben por jefe a Himmler y que mantienen sangrientos combates callejeros con los obreros huelguistas, Iqs socialistas y los comunistas; en 1927 el partido cuenta con 72.000 miembros y el III Congreso de Nuremberg ve desfilar a 30.000 S.S. {Sturmabteilungen) de camisas pardas; en 1928 los adheridos son 109.000 y el número de simpatizantes aumenta sin cesar.

Fuente: Maurice Crouzet. La época contemporánea.

Ver: Biografía de Goethe Wolfgang

Temas Relacionados:

Nacionalismo y el Derecho de Autodeterminacion de los Pueblos
Diferencias entre Patriotismo y Nacionalismo: El Chauvinismo
Influencia del Romanticismo Aleman en la Ideologia NAZI
Separatistas Concepto de Separatismo
Educación del Patriotismo en Niños:Enseñar Valores Patrioticos
Politica y Nacionalismo en Europa Post Revolucion de 1848
Xenofobia:Odio a lo Extranjero y Rechazo a lo Externo-Racismo
Aculturacion y Xenofobia :Que es la Aculturación y el Chauchivismo
El Racismo En El Mundo:Causas,Efectos y Segregación

Enlace Externo:• Nazismo – ¿Qué fue?, características

El Nazismo:Causas, Características, Origen e Ideologia

El Nazismo:
Características y Sintesís de su Ideología

►Antecedentes del Nazismo

El Nacional Socialismo se desarrolló en Alemania como una consecuencia de la derrota en la Gran Guerra (1914-1918), las duras condiciones que le fueron impuestas en el Tratado de Versalles (1919), la crisis de hiperinflación de 1923 y la crisis de Wall Street (1929),.

Tras superar un período de estancamiento, a raíz de la mejora provisoria en lasituación económica de Alemania, en las elecciones del año anterior el nazismo obtuvo el 37 por ciento de los votos, resultado que le permitió consagrarasu líder, Adolf Hitler, como canciller en enero de este año. Como la alianza que lo respaldaba sólo sumó 247 escaños en el parlamento sobre 608,

Hitler consiguió que el presidente Hindeburg lo disolviera, convocando a nuevas elecciones parlamentarias para el 5 de marzo último.

Pocos días antes, el 27 defebrero,elincendio del Reichstag -cuya responsabilidad fue adjudicada por la oposición al propio Hitler -tuvo como consecuencia la sanción inmediata del estado de emergencia y la firma de un decreto presidencial que recortó iamayoría de los derechos y garantías constitucionales sancionadasen 1919.

Celebradas en esas condiciones, las elecciones le dieron a Hitler el 44 por ciento de los sufragios.

Inmediatamente, obtuvo lasanción de la Ley Habilitante, que otorga facultades legislativas al canciller.

El 23 de marzo, un parlamento disminuido, sin la presencia de los comunistas (arrestados por el estado de excepción), intentó evitar una mayor concentración de poder en manos de Hitler, a lo que éste respondió: «Ustedes ya no son necesarios.

La estrella de Alemania se alzará y la de ustedesse hundirá. La hora de su muerte ha sonado».

Poco después, los partidos fueron prohibidos o se disolvieron, y el Parlamento comenzó a funcionar con la exclusiva participación del partido nazi. (Fuente: Periódico EL BICENTENARIO Período 1930-1949 N°7 Nota de Alberto Littieri)

►El Nazismo:

El nacionalsocialismo (o nazismo) tenía muchos puntos en común con el fascismo.

No obstante, sus raíces eran típicamente alemanas: el autoritarismo y la expansión militar propios de la herencia prusiana; la tradición romántica hitleralemana que se oponía al racionalismo, el liberalismo y la democracia; diversas doctrinas racistas según las cuales los pueblos nórdicos —los llamados arios puros— no sólo eran físicamente superiores a otras razas, sino que también lo eran su cultura y moral; así como determinadas doctrinas filosóficas, especialmente las de Friedrich Nietzsche, que idealizaban al Estado o exaltaban el culto a los individuos superiores, a los que se eximía de acatar las limitaciones convencionales. (Ver Protocolos de Sion)

Entre los teóricos y planificadores del nacionalsocialismo se encontraba el general Karl Ernst Haushofer, que ejerció una gran influencia en la política exterior de Alemania.

Alfred Rosenberg, editor y líder del partido nazi, formuló las teorías raciales basándose en la obra del escritor angloalemán Houston Stewart Chamberlain.

El financiero Hjalmar Schacht se encargó de elaborar y poner en práctica gran parte de la política económica y bancaria, y Albert Speer, arquitecto y uno de los principales dirigentes del partido, desempeñó una labor fundamental supervisando la situación económica en el periodo inmediatamente anterior a la II Guerra Mundial.

►Las repercusiones de la I Guerra Mundial

el nazismo

El origen inmediato del nacionalsocialismo debe buscarse en las consecuencias de la derrota alemana en la I Guerra Mundial (1914-1918). De acuerdo con los términos del Tratado de Versalles (foto arriba) del año 1919, Alemania era la única responsable del conflicto, por lo que fue despojada de su imperio colonial y de importantes territorios en el continente, como Alsacia y Lorena, y obligada a pagar onerosas reparaciones de guerra.

La vida política y económica alemana se vio gravemente afectada a causa de las condiciones de este acuerdo.

La elevada inflación, que alcanzó un punto crítico en 1923, casi terminó con la clase media alemana, y muchos de sus miembros, empobrecidos y sin esperanzas, se comenzaron a sentir atraídos por los grupos políticos radicales que surgieron en la posguerra.

Pocos años después de que se hubiera alcanzado un cierto grado de progreso y estabilidad económica, la crisis económica mundial que comenzó en 1929 sumió a Alemania en una depresión que parecía irremediable.

La República de Weimar, régimen instaurado en Alemania tras la disolución del II Reich (II Imperio Alemán) al finalizar la guerra, se vio sometida a crecientes ataques tanto de la derecha como de la izquierda durante estos años y no fue capaz de solucionar eficazmente la desesperada situación del país.

Hacia 1933, la mayoría de los votantes alemanes apoyaron a alguno de los dos principales partidos totalitarios, el Partido Comunista Alemán (KPD) y el NSDAP.

►El Partido Nacionalsocialista

el nazismo

El NSDAP tuvo su origen en el Partido Obrero Alemán, fundado en Munich en 1919.

Cuando Adolf Hitler se unió a él en ese mismo año, la agrupación contaba con unos 25 militantes, de los cuales sólo seis participaban en debates y conferencias.

Hitler se convirtió en el líder de la formación poco después de afiliarse a ella.

Durante el primer mitin del Partido Obrero Alemán, celebrado en Munich el 24 de febrero de 1920, Hitler leyó el programa del partido, elaborado en parte por él mismo.

Constaba de 25 puntos en los que se combinaban desmesuradas demandas nacionalistas y doctrinas racistas y antisemitas; en el punto vigésimo quinto se establecía lo siguiente como condición indispensable para el cumplimiento de los objetivos previstos:

“Frente a la sociedad moderna, un coloso con pies de barro, estableceremos un sistema centralizado sin precedentes, en el que todos los poderes quedarán en manos del Estado.Redactaremos una constitución jerárquica, que regirá de forma mecánica todos los movimientos de los individuos”.

►Hitler, el líder supremo

Poco después del mitin de febrero de 1920, el Partido Obrero Alemán pasó a denominarse Partido Nacionalsocialista Alemán del Trabajo.

Esta nueva organización se fue desarrollando poco a poco, especialmente en Baviera.

Sus miembros estaban convencidos del valor de la violencia como medio para alcanzar sus fines, por lo que no tardaron en crear las Sturm Abteilung (‘sección de asalto’) o SA, una fuerza que se encargó de proteger las reuniones del partido, provocar disturbios en los mítines de los demócratas liberales, socialistas, comunistas y sindicalistas, y perseguir a los judíos, sobre todo a los comerciantes.

Estas actividades fueron realizadas con la colaboración de algunos de los oficiales del Ejército, particularmente Ernst Röhm.

Hitler fue elegido presidente con poderes ilimitados del partido en 1921.

Ese mismo año, el movimiento adoptó como emblema una bandera con fondo rojo en cuyo centro había un círculo blanco con una cruz esvástica negra.

En diciembre de 1920, Hitler había fundado el periódico Völkischer Beobachter, que pasó a ser el diario oficial de la organización.

A medida que fue aumentando la influencia del KPD, fundado en 1919, el objetivo principal de la propaganda nacionalsocialista fue la denuncia del bolchevismo, al que consideraban una conspiración internacional de financieros judíos.

Asimismo, proclamaron su desprecio por la democracia e hicieron campaña en favor de un régimen dictatorial.

►El putsch de Munich

el nazismo

El 8 de noviembre de 1923, Hitler, con 600 soldados de asalto, se dirigió a una cervecería de Munich en la que Gustav von Kahr, gobernador de Baviera que en octubre se había proclamado comisario general con poderes dictatoriales, estaba pronunciando un discurso.

Apresó a Von Kahr y sus colaboradores y, alentado por el general Erich Ludendorff, declaró la formación de un nuevo gobierno nacional en nombre de Von Kahr.

Éste, tras simular aceptar el cargo de regente de Baviera que Hitler le otorgó, fue liberado poco después y tomó medidas contra Hitler y Ludendorff.

El líder nazi y sus compañeros consiguieron huir el 9 de noviembre después de un pequeño altercado con la policía de Munich, de manera que el llamado putsch de Munich (o de la cervecería) fracasó. Hitler y Ludendorff fueron arrestados posteriormente.

Este último fue absuelto, pero Hitler resultó condenado a cinco años de prisión y el partido fue ilegalizado.

Durante su encarcelamiento, Hitler dictó Mein Kampf (Mi lucha) a Rudolf Hess.

Esta obra, que más tarde desarrollaría su autor, era una declaración de la doctrina nacionalsocialista, que contenía además técnicas de propaganda y planes para la conquista de Alemania y, más tarde, de Europa. Mein Kampf se convirtió en el fundamento ideológico del nacionalsocialismo algunos años después.

Hitler fue puesto en libertad antes de un año.

El partido nazi se hallabael nazismoprácticamente disuelto, debido en gran medida a que la mejora de las condiciones políticas del país había generado una atmósfera más propicia para las organizaciones políticas moderadas.

Durante los años siguientes, Hitler consiguió reorganizar el partido con la ayuda de un reducido número de colaboradores leales.

Se autoproclamó Führer (‘jefe’) del partido en 1926 y organizó un cuerpo armado de unidades defensivas, las Schutz-Staffel o SS, para vigilar y controlar al partido y a su rama paramilitar, las SA.

Cuando comenzó la crisis económica mundial de 1929, Alemania dejó de recibir el flujo de capital extranjero, disminuyó el volumen del comercio exterior del país, el ritmo de crecimiento de la industria alemana se ralentizó, aumentó enormemente el desempleo y bajaron los precios de los productos agrícolas.

A medida que se agravaba la depresión, la situación se mostraba cada vez más propicia para una rebelión. Fritz Thyssen, presidente de un grupo empresarial del sector del acero, y otros capitalistas entregaron grandes cantidades de dinero al NSDAP.

No obstante, numerosos empresarios alemanes manifestaron su firme rechazo a este movimiento.

►Algunas Características Básicas del Partido NAZI

  1. a) Racismo antisemita. Sólo podía ser considerado ciudadano alemán el que llevara sangre alemana, característica que se negaba que poseyeran los judíos.
  2. b) Nacionalismo expansivo. Frente a la prohibición de los tratados de paz, se reivindicaba la unión de todos los alemanes en una “Gran Alemania”, es decir. el Anschluss con Austria, además de la posibilidad de anexionar zonas de mayoría demográfica germana en otras naciones, y se afirmaba el derecho a poseer suelo suficiente para un gran pueblo.
  3. c) Control de la prensa y de la creación literaria y artística, con el argumento de que se “lucha contra la mentira política”. Corolario de este punto fue el monopolio de la información y de la “verdad” por el Partido.
  4. d) Abolición de los beneficios de las grandes empresas. Nos encontramos aquí con el conflictivo punto 11, reivindicado por Feder y la izquierda del Partido, y olvidado cuando los magnates de la industria lo financiaron.

►SINTESIS DE LA IDEOLOGÍA NAZI:

La idea de «la raza superior»: Establece que los indoeuropeos (arios) son superiores y que es en Alemania donde mejor se han preservado. Por ello, sostiene que los judíos deben ser eliminados para mantener la pureza de la raza.

La idea de «las cadenas de Versalles»: Pregona que el pueblo superior ha sido humillado por otros inferiores y hay que destruir «las cadenas opresoras». (Después de Versalles, muchos alemanes sostuvieron que habían perdido la guerra por «la puñalada por la espalda» asestada por comunistas y socialistas).

La idea del «romanticismo de la comunidad»: Proclama la defensa de la sangre y del suelo alemanes; aprovecha el impulso juvenil; glorifica la camaradería de los ex combatientes! hace especial hincapié en los valores del pueblo; exige la integración incondicional del individuo en la comunidad.

La idea del «espacio vital»: Anima a la reagiupación a todos los alemanes y defiende una política expan-sionista pata la extensión de las fronteras.

La idea de «la fe en el Führer»: Implica la confianza ciega en el caudillo carismático («Führer, manda: nosotros te obedeceremos»).

Ver Un Cuadro de Sintesis

►El Partido Nacionalsocialista en el Reichstag

El NSDAP ganó apoyo rápidamente y reclutó en sus filas a miles de funcionarios públicos despedidos, comerciantes y pequeños empresarios arruinados, agricultores empobrecidos, trabajadores decepcionados con los partidos de izquierdas y a multitud de jóvenes frustrados y resentidos que habían crecido en los años de la posguerra y no tenían ninguna esperanza de llegar a alcanzar cierta estabilidad económica.

En las elecciones al Reichstag (Parlamento alemán) de 1930 los nazis obtuvieron casi 6,5 millones de votos (más del 18% de los votos totales emitidos), lo que suponía un gran ascenso en comparación con los 800.000 votos (aproximadamente un 2,5%) obtenidos en 1928.

Los 107 escaños alcanzados en estas elecciones les convirtieron en el segundo partido del Reichstag, después del Partido Socialdemócrata Alemán (SPD), que ganó 143 escaños.

El KPD, con 4,6 millones de votos, también logró un considerable avance con la obtención de 77 escaños.

el nazismo

El partido nazi rentabilizó al máximo el agravamiento de la depresión económica (conocida internacionalmente como la Gran Depresión) entre 1929 y 1932.

Los esfuerzos desesperados del canciller Heinrich Brüning por salvar la república democrática mediante decretos de emergencia no consiguieron frenar el creciente desempleo.

Por el contrario, la ineficacia de su administración socavó la escasa fe de la población alemana en la democracia parlamentaria. Así pues, Hitler obtuvo un elevado número de votos en las elecciones presidenciales de 1932, aunque la victoria final fue para Paul von Hindenburg.

En las elecciones al Reichstag celebradas en julio de 1932, el NSDAP recibió 13,7 millones de votos y consiguió 230 escaños de un total de 670.

Se había convertido en el partido más fuerte, aunque no contaban aún con mayoría, y el presidente Hindenburg ofreció a los nacionalsocialistas ingresar en un gobierno de coalición.

Hitler rechazó esta propuesta y reclamó gobernar en solitario. Se disolvió el Reichstag y el NSDAP obtuvo únicamente 11,7 millones de votos (196 escaños) en las elecciones que se convocaron en noviembre para elegir una nueva asamblea.

El SPD y el KPD obtuvieron en total más de 13 millones de votos, lo que les reportó 221 escaños; sin embargo, puesto que estos grupos eran rivales, los nazis, a pesar de su retroceso electoral, continuaron siendo la fuerza mayoritaria en el Reichstag.

Hitler volvió a negarse a participar en un gobierno de coalición y la asamblea legislativa alemana se disolvió por segunda vez. Hindenburg finalmente nombró a Hitler canciller el 30 de enero de 1933, aconsejado por Franz von Papen.

A partir de este momento se inició la creación del Estado nacionalsocialista.

A finales de febrero, cuando estaba a punto de concluir la campaña de las nuevas elecciones al Reichstag, el edificio que albergaba al parlamento fue destruido por un incendio y se sospechó que este acto había sido provocado.

Los nazis culparon a los comunistas y utilizaron este incidente como un pretexto para reprimir a los miembros del KPD con una brutal violencia; la misma suerte corrió posteriormente el SPD. Ningún partido ofreció una resistencia organizada.

Finalmente, todas las demás agrupaciones políticas fueron ilegalizadas, se consideró un delito la formación de nuevos partidos, y los nacionalsocialistas pasaron a ser la única organización política legal.

Por la Ley de Poderes Especiales del 23 de marzo de 1933, todas las facultades legislativas del Reichstag fueron transferidas al gabinete.

Este decreto otorgó a Hitler poderes dictatoriales por un periodo de cuatro años y representó el final de la República de Weimar.

El 1º diciembre de 1933 se aprobó una ley por la cual el partido nazi quedaba indisolublemente ligado al Estado.

►La organización del partido a partir de 1933

Desde ese momento, el partido se convirtió en el principal instrumento del control totalitario del Estado y de la sociedad alemana. Los nazis leales no tardaron en ocupar la mayoría de los altos cargos del gobierno a escala nacional, regional y local.

Los miembros del partido de sangre alemana pura, mayores de dieciocho años, juraron lealtad al Führer y, de acuerdo con la legislación del recién instituido III Reich, sólo debían responder de sus acciones ante tribunales especiales del partido.

En principio, la pertenencia a esta agrupación era voluntaria; millones de ciudadanos deseaban afiliarse, pero muchos otros fueron obligados a ingresar en ella contra su voluntad.

Era preciso ser miembro del partido para ocupar un puesto en la administración pública. Se estima que el número de afiliados llegó a alcanzar los 7 millones en el momento de mayor auge.

el nazismoLa principal organización auxiliar del partido nazi eran las SA, designadas oficialmente como garantes de la revolución nacionalsocialista y vanguardia del nacionalsocialismo.

Obtuvieron por la fuerza grandes cantidades de dinero de los trabajadores y campesinos alemanes a través de sus recaudaciones anuales de las contribuciones de invierno para los pobres; se encargaron de la formación de los miembros del partido menores de diecisiete años; organizaron un pogromo contra los judíos en 1938; adoctrinaron a los oficiales asignados a las fuerzas terrestres del Ejército alemán y dirigieron a las fuerzas de defensa nacional del Reich durante la II Guerra Mundial.

Otra importante formación del partido eran las SS, que organizaron divisiones especiales de combate para apoyar al Ejército regular en los momentos críticos de la contienda.

Este cuerpo, junto con el Sicherheitsdienst (Servicio de Seguridad o SD), la oficina de espionaje del partido y del Reich, controló el partido nazi durante los últimos años de la guerra.

El SD se encargó del funcionamiento de los campos de concentración, creados para retener a las víctimas del terrorismo nazi, y desempeñó un importante papel durante la etapa del conflicto bélico al permitir a Hitler controlar a las Fuerzas Armadas desde el Estado Mayor.

Otra sección importante del partido eran las Hitler Jugend (Juventudes Hitlerianas), que formaban a jóvenes entre los 14 y los 17 años de edad para convertirlos en miembros de las SA, las SS o del partido.

La Auslandorganisation (Organización para Asuntos Exteriores) se ocupaba de la propaganda nazi y creó, financió y dirigió las agrupaciones nacionalsocialistas de Alemania y de la población alemana residente en el extranjero.

En las elecciones de 1933 triunfó ampliamente el nacional-socialismo. Adolfo Hitler se encargó del gobierno, que quedó en sus manos exclusivamente a la muerte del mariscal Hindenburg en 1934.

El führer (caudillo), abolió la constitución de Weimar, anuló el Parlamento y se erigió en dictador, apoyado por los nazis militarizados con el nombre de camisas pardas.

Persiguió implacablemente a los judíos, combatió a la Iglesia Católica, suprimió los partidos; la ense-ñanza,la prensa y los medios de comunicación, las actividades de la producción y el comercio quedaron severamente reglamentados.

►La reorganización de la sociedad alemana

Hitler comenzó a crear un Estado nacionalsocialista eliminando la oposición de las clases trabajadoras y de todos los demócratas.

El juicio del incendio del Reichstag sirvió como pretexto no sólo para suprimir al KPD y al SPD, sino para abrogar todos los derechos constitucionales y civiles y crear campos de concentración para confinar a las víctimas del terror nacionalsocialista.

•La Gestapo

La Geheime Staatspolizei (Policía Secreta del Estado), conocida comoel nazismo Gestapo, fue fundada en 1933 para reprimir la oposición al régimen de Hitler.

Cuando se incorporó al aparato del Estado en 1936, se la declaró exenta de someterse a las restricciones que imponía la ley, y sólo debía responder de sus actos ante su jefe, Heinrich Himmler, y ante el propio Hitler.

•Centralización y coordinación

Desde 1933 hasta 1935, la estructura democrática de Alemania fue sustituida por la de un Estado completamente centralizado. La autonomía de la que anteriormente habían disfrutado las autoridades provinciales quedó abolida; estos gobiernos regionales quedaron transformados en instrumentos de la administración central y fueron estrictamente controlados.

El Reichstag desempeñaba un papel meramente formal, una vez desposeído de su carácter legislativo.

A través de un proceso de coordinación (Gleichschaltung), todas las organizaciones empresariales, sindicales y agrícolas, así como la educación y la cultura, quedaron supeditadas a la dirección del partido. Las doctrinas nacionalsocialistas se infiltraron incluso en la Iglesia protestante. Se promulgó una legislación especial por la cual quedaron excluidos los judíos de la protección de la ley.

► La economía y la purga de 1934

El desempleo fue el problema más transcendente al que tuvo que hacer frente Hitler al asumir el poder.

La industria alemana producía en esos momentos aproximadamente a un 58% de su capacidad. Se estima que el número de desempleados de Alemania oscilaba entre los 6 y los 7 millones.

Miles de ellos eran miembros del partido que esperaban que Hitler aplicara las promesas anticapitalistas expuestas en la propaganda nazi, acabara con los monopolios y asociaciones de industriales y reactivara la industria mediante la creación de un gran número de pequeñas empresas.

Los miembros del partido reclamaban una segunda revolución.

Las SA, dirigidas por Ernst Röhm, asumieron el control del Reichswehr (Fuerzas Armadas alemanas) como parte del nuevo programa.

Hitler tuvo que elegir entre un régimen nacionalsocialista sustentado por las masas o una alianza con los industriales del país y el Estado Mayor del Reichswehr, y eligió esta última opción.

El 30 de junio de 1934, en la posteriormente denominada Noche de los cuchillos largos, el Führer ordenó a las SS eliminar a diversos miembros de las SA, un grupo que podía instigar una rebelión en el Ejército, en opinión de Hitler.

Fueron asesinados varios líderes de las SA y del partido, entre ellos Röhm y más de 500 de sus seguidores, muchos de los cuales no eran contrarios a la política de Hitler.

También se incluyó en la purga a otros enemigos del régimen, como el general Kurt von Schleicher, y a algunos monárquicos que defendían la restauración de la dinastía Hohenzollern.

el nazismo

De Personalidad compleja, a la vez mediocre y carismática, Adolf Hitler marcó para siempre la historia del mundo, al encarnar, mediante el culto al Führer, la dictadura nazi, que rebasó los límites de la monstruosidad y la barbarie en el siglo XX.

Clave de la ideología y el régimen, Adolf Hitler, fundador y caudillo del nacionalsocialismo.

A pesar de su personalidad enigmática, pocas dudas subsisten sobre el personaje; sin embargo, la cuestión historiográfica no reside en perfilar su retrato real, sino en discernir la imagen que de él se forjaron su Partido y el pueblo alemán en un proceso de deificación.

hombres nazi

ERICH RAEDER

hombres nazi

JULIUS STREICHER

hombres nazi

RUDOLF HESS

hombres nazi

KONSTANTIN VON NEURATH

Ver a los Principales Jerarcas NAZIs

La concentración de poderes en manos de Hitler se completó cuando, en agosto de 1934, después de la muerte de Hindenburg, acumuló las funciones de canciller y de presidente y se proclamó Führer y canciller del Reich.

En pocos meses los nazis iniciaron su revolución «nacionalsocialista», que transformó Alemania en una dieta-rara.

En primer lugar, se decretó la disolución de todos los partidos y sindicatos, y se suprimieron las libertades y las garantías individuales, una ley declaró que el Partido Nacionalsocialista era el único autorizado y todos los trabajadores fueron invitados a afiliarse en el Frente del Trabajo Nacionalsocialista, también único sindicato legalizado.

Memorias de una afiliada a las Juventudes Hitlerianas
Mi madre me explicaba que Alemania había perdido la guerra aunque sus soldados habían sido los más valientes, y que una paz infame había provocado el desastre del país.

La economía nacional se había hundido a causa de las indemnizaciones de guerra, el pago de las cuales nuestros enemigos no paraban de reclamar […].

Se veía cómo los adultos se indignaban ante los enfrentamientos que tenían lugar en el Parlamento y no se comprendía que este desorden lo provocaran los partidos que dividían a los alemanes […].

Algunas damas de antiguas costumbres decían: «En tiempos del Imperio los alemanes no se enfrentaban los unos a los otros. Se podía estar orgulloso de ser alemán». Además, en medio de estas miserias de las cuales se lamentaban los adultos, había paro […].

Los promotores del nacionalsocialismo prometieron suprimir el paro y la miseria de seis millones de habitantes y yo los creí. Creí que llevarían a cabo la unión política del pueblo alemán y que superarían las dificultades resultantes del Tratado de Versalles.

►El nuevo orden

La supresión de los partidos de la oposición y las cruentas depuraciones de los contrarios al nuevo régimen no consiguieron resolver el problema del desempleo.

Para ello era necesario que Hitler reactivara la economía alemana.

Su solución fue crear un nuevo orden, cuyas premisas principales eran las siguientes: el aprovechamiento pleno y rentable de la industria alemana sólo podría alcanzarse restableciendo la posición preeminente del país en la economía, industria y finanzas mundiales; era preciso recuperar el acceso a las materias primas de las que Alemania había sido privada tras la I Guerra Mundial y controlar otros recursos necesarios; debía construirse una flota mercante adecuada y modernos sistemas de transporte ferroviario, aéreo y motorizado; así mismo había que reestructurar el sector industrial para obtener la mayor productividad y rentabilidad posible.

Todo ello requería la supresión de las restricciones económicas y políticas impuestas por el Tratado de Versalles, lo que provocaría una guerra.

Por tanto, era preciso reorganizar la economía a partir del modelo de una economía de guerra.

Alemania debía alcanzar una completa autosuficiencia en lo referente a las materias primas estratégicas, creando sustitutos sintéticos de aquellos materiales de los que carecía y que no podrían adquirirse en el extranjero.

El suministro de alimentos quedaba asegurado a través del desarrollo controlado de la agricultura.

En segundo lugar, había que eliminar los obstáculos que impidieran la ejecución de este plan, esto es, imposibilitar la lucha de los trabajadores para mejorar sus condiciones anulando la acción de los sindicatos y sus organizaciones filiales.

►Los sindicatos

El nuevo orden supuso la ilegalización de los sindicatos y las cooperativas y la confiscación de sus posesiones y recursos financieros, la supresión de las negociaciones colectivas entre trabajadores y empresarios, la prohibición de las huelgas y los cierres patronales, y la exigencia a los trabajadores alemanes de pertenecer de forma obligatoria al Deutsche Arbeitsfront (Frente Alemán del Trabajo o DAF), una organización sindical nacionalsocialista controlada por el Estado. Los salarios fueron fijados por el Ministerio de Economía Nacional.

Los funcionarios del gobierno, denominados síndicos laborales, designados por el Ministerio de Economía Nacional, se encargaron de todos los asuntos relativos a los salarios, la jornada y las condiciones laborales.

Las asociaciones comerciales de empresarios e industriales de la República de Weimar fueron transformadas en organismos controlados por el Estado, a los que los patrones debían estar afiliados obligatoriamente.

La supervisión de estos organismos quedó bajo la jurisdicción del Ministerio de Economía Nacional, al que se le habían conferido poderes para reconocer a las organizaciones comerciales como las únicas representantes de los respectivos sectores de la industria, crear nuevas asociaciones, disolver o fusionar las existentes y designar y convocar a los líderes de estas entidades.

El Ministerio de Economía Nacional favoreció la expansión de las asociaciones de fabricantes e integró en cárteles a industrias enteras gracias a sus nuevas atribuciones y al margen de acción que permitía la legislación.

Asimismo, se coordinó la actividad de los bancos, se respetó el derecho a la propiedad privada y se reprivatizaron empresas que habían sido nacionalizadas anteriormente.

El régimen de Hitler consiguió eliminar la competencia por medio de estas medidas.

Por último, el nuevo orden implantó el dominio económico de cuatro bancos y un número relativamente reducido de grandes grupos de empresas, entre los que se encontraba el gran imperio de fábricas de armamento y de acero de la familia Krupp y la I. G. Farben, que producía colorantes, caucho sintético y petróleo, y controlaba a casi 400 empresas.

Algunas de estas fábricas empleaban como mano de obra forzosa a miles de prisioneros de guerra y a ciudadanos de los países que iban siendo conquistados.

Los cárteles también suministraron materiales para el exterminio sistemático y científico realizado por el régimen nacionalsocialista de millones de judíos, polacos, rusos y otros pueblos o grupos. Véase Genocidio; Holocausto.

►Las trágicas repercusiones del nazismo

el nazismoLa creación del nuevo orden permitió a los nacionalsocialistas resolver el desempleo, proporcionar un nivel de vida aceptable a los trabajadores y campesinos alemanes, enriquecer al grupo de la elite del Estado, la industria y las finanzas y crear una espectacular maquinaria de guerra.

A medida que se erigía el nuevo orden en Alemania, los nazis avanzaban política y diplomáticamente en la creación de la Gran Alemania.

La política exterior de Hitler representó un oscuro capítulo de la historia cuyos acontecimientos más relevantes fueron la remilitarización de Renania (1936); la formación del Eje Roma-Berlín (1936), la intervención en la Guerra Civil española (1936-1939) en apoyo de las tropas de Francisco Franco; la Anschluss (‘unión’) de Austria (1938); la desintegración del Estado checoslovaco, tras ocupar los Sudetes, región con numerosa población alemana (1939); la negociación de un pacto de no agresión con la Unión Soviética (el denominado Pacto Germano-soviético) que contenía un acuerdo secreto para el reparto de Polonia y, como consecuencia de esta cláusula, la invasión del territorio polaco el 1 de septiembre de 1939, acción que dio inicio a la II Guerra Mundial.

Hitler se jactaba de que el nacionalsocialismo había resuelto los problemas de la sociedad alemana y perduraría durante miles de años.

El nacionalsocialismo solucionó algunos conflictos ante los que la República de Weimar se mostró impotente y transformó a la débil república en un Estado industrial y políticamente poderoso. Pero esta reconstrucción condujo a la II Guerra Mundial, el enfrentamiento bélico más cruento y destructivo de la historia de la humanidad, del que Alemania salió derrotada, dividida y empobrecida.

También hay que añadir al precio de esta empresa el sufrimiento del pueblo alemán durante el gobierno de Hitler y después de su muerte.

El aspecto más trágico del nacionalsocialismo fue el asesinato sistemático de 6 millones de judíos europeos.

Después de la II Guerra Mundial, siguió existiendo un pequeño movimiento neonazi en la República Federal Alemana, que adquirió cierta popularidad tras la unificación de Alemania en 1990, formado por jóvenes descontentos que han elegido como blanco de sus actos violentos a ciudadanos judíos, negros, homosexuales y de otros grupos.

También han surgido organizaciones neonazis en distintos países europeos y americanos.

• LISTA DE OBRAS Y MEDIDAS POLITICAS DURANTE EL GOBIERNO DE HITLER:

  • Llegó al gobieno con una Alemania destruída, y convirtió en una potencia mundial en solo 6 años. Creó 6.000.000 de puestos de trabajo derrotando la desocupación de 1933.
  • Construyó una red de autopistas nacionales de 12.000 kilómetros que aun hoy en día se utiliza.Los trabajadores que construyeron las autopistas tenían a su disposición bibliotecas, teatros ambulantes y exhibiciones cinematográficas
  • Otorgó préstamos a bajo y hasta a 0% de interés para viviendas, inclusive redujo impuestos a familias numerosas
  • Construyó miles de viviendas económicas, en lotes grandes para que la familia disfrute de amplios jardines.
  • Reguló el trabajo infantil y las cantidad de horas trabajadas por los jóvenes.
  • Respecto a obras civiles, en 5 años construyó 700.000 edificios y reguló el precio de los alquiles, para que no se superara el 20% del ingreso familiar.
  • La mujer fue protegida en el horario laboral, y atendidas por médicos en caso de problemas de salud. También junto a los varones recibían cursos educativos para mejorar su formación. Muchas fábricas tenían un area para el ocio, como piscinas y campos de deportes.
  • Reforzó la Seguridad Social y dio unos derechos a los trabajadores que fueron copiados posteriormente por la mayoría de países occidentales. Organizaban viajes en grupos familiares en trenes y barcos que llegaban a varios países de la zona, como Noruega, Italia y Madeira.
  • Promocionaba colectas populares para auxiliar a los mas desamparados en las frías noches de Invierno.
  • También las mujeres alemenas podía realizar especies de cursos prematernal para formarse como amas de casa, tenían cursos de cocina, costura, repostería, cuidado de bebés, decoración interior, higiene.
  • Creó el «coche de pueblo» para el transporte del obrero, que lo pagaba en pequeñas cuotas mensuales. Era un coche económico, robusto y básico, que se llamó: Volksvagen.
  • Estableció ejercicios deportivos para los trabajadores más jóvenes antes del comienzo de su jornada laboral, como parte del fomento de la cultura física de la juventud obrera.
  • Creó la primera ley en contra del consumo de tabaco.

Fuente Consultadas:
Civilizaciones de Occidente Tomo B de Jackson Spielvogel
Actual Historia del Mundo Contemporáneo de Margarita García y Cristina Gatell – Vicens Vives
El Mundo Moderno y Contemporáneo de Gloria M. Delgado El Siglo XX

Mitos Sobre Los Crimenes de Guerra de la Segunda Guerra Mundial

Crímenes de Guerra Mitos de la 2° Guerra Mundial

mitos de la segunda guerra mundial

MITO: Los aliados no cometieron crímenes de guerra y no albergaron, luego de la Segunda Guerra Mundial, criminales de guerra nazi, los cuales se escaparon sobre todo a Argentina, Brasil, Bolivia y Paraguay.

REALIDAD: Los aliados cometieron crímenes de guerra de lesa humanidad al igual que los nazis. La destrucción casi total de la ciudad de Dresden, en Alemania, en la que murieron decenas de miles de civiles inocentes —por citar un ejemplo— no obedecía a ningún objetivo militan Además, la guerra estaba prácticamente terminada.

Sólo obedeció a un deseo de venganza contra El régimen nazi. En cuanto a la fuga de altos criminales de guerra alemanes, habría habido dos redes que organizaron el operativo. Una operó a través de los contactos del Vaticano. La otra a través de la CIA, llamada en aquella época QSS (Overseas Secret Service).

Ambas estaban relacionadas y muchos criminales de guerra terminaron en Sudamérica, pero muchos otros encontraron refugio en los Estados Unidos, al igual que muchos de los científicos que habla en la Alemania nazi y fueron arduamente disputados como el caso de Von Braun, entre los Estados Unidos y la Unión Soviética.

La red de espionaje nazi (la Abwehr), cuyo cerebro era Reinhardt Gehlen, tras la sumada ejecución del almirante Wilhelm Canaris (ordenada por Hitler por colaborar con el enemigo en el atentado que sufrió) quedó prácticamente por entero en manos de los Estados Unidos y fue incorporada a la naciente CIA con el objetivo principal de brindar información de primera mano acerca de las actividades de los países de Europa Oriental que tras la guerra quedaron en la denominada esfera soviética.

A fin de no repetir información, no nos referiremos aquí al fiasco de Pearl Harbour, que hemos comentado en el segundo capítulo, un hecho no sólo conocido con anticipación por el prominente miembro de una sociedad secreta; Franklin Delano Roosevelt, sino incentivado previamente con estudiadas medidas.

Es un asunto que merece figurar simplemente en el capítulo sobre terrorismo. Que juzgue el lector, con la información disponible, qué papel jugaron y juegan la “historia”, los “historiadores”, la “prensa” y los “periodistas” que se han referido en forma unilateral a la Segunda Guerra Mundial.

Lo cierto es que tanto Hitler, un antiguo amigo de la elite transformado súbitamente en el peor enemigo de la misma, como su cruel y terrible régimen nazi, fueron mostrados para siempre como el peor desastre ocurrido a la humanidad en muchísimos siglos. ¿Qué mejor manera de sepultar al enemigo para siempre? Vayamos ahora a otro intento & entierro definitivo de un enemigo.

Ver: Crimenes de Guerra y Juicios a NAZIS

Minas Enterradas o Terrestres:Tratados Para Desactivarlas

Minas Enterradas o Terrestres:Tratados Internacionales

Minas (armamento), artefacto explosivo empleado en la tierra o el mar para destruir o neutralizar tropas, naves y vehículos, por ejemplo, carros enemigos.

Las minas también sirven para impedir o frustrar el avance de tropas y hacer infranqueables ciertos territorios, líneas de suministros o puertos.

Un terreno en el que se han depositado cierto número de minas se llama campo de minas.

Durante la Guerra Civil estadounidense y la Primera Guerra Mundial se excavaron redes de túneles subterráneos, bajo las fuerzas enemigas, que se rellenaban con explosivos.

Desde entonces, minar un terreno significa colocar artefactos explosivos cubiertos bajo tierra.

Mina Terrestre:

minas enterradas
Se trata de un dispositivo explosivo cubierto bajo tierra que se esconde bajo la superficie de un terreno.

Se construyen de metal, plástico, vidrio o madera y pueden explotar por diferentes causas: por el contacto con un alambre detonador o por un mecanismo de explosión retardada.

El explosivo más empleado es el trinitrotolueno o TNT.

Las minas antipersonas son armas pequeñas pero letales.

Se ocultan con facilidad (basta con enterrarlas) pero es difícil detectarlas.

Su detonación se produce por contacto, generalmente cuando se pisa el terreno bajo el que se encuentran.

La inmediata proximidad de las víctimas con la explosión motiva que las consecuencias de ésta sean siempre trágicas.

En el mundo puede haber unos 100 millones de minas terrestres sin detectar, abandonadas después de conflictos como los de Afganistán, Camboya, Irak o Vietnam.

Hay unos dos millones de minas en las zonas arrasadas por la guerra de la antigua Yugoslavia.

Grandes áreas de algunos países, en especial en Camboya, no han podido recuperarse por esta causa.

En todo el mundo, se estima que 800 personas sufren la explosión de minas cada día, que además matan 10 veces más civiles que soldados.

Las heridas son horribles y por lo común exigen la amputación de los miembros afectados; los refugiados que vuelven a su antiguo hogar devastado por la guerra encuentran muchas veces minas en lo que antes eran cultivos y se ven forzados a quitarlas ellos mismos.

La limpieza es muy costosa y peligrosa, se debe hacer por parejas que trabajen en espacios que pueden no llegar a ser de más de un metro de ancho.

En enero de 1997 la princesa Diana de Gales realizó un viaje a Angola.

En el transcurso de los cuatro días que permaneció en este país visitó un centro de recuperación situado en las afueras de Luanda, donde pudo entrevistarse con jóvenes que había sufrido mutilaciones corporales por la acción de minas terrestres.

Tras su fallecimiento (acontecido el 31 de agosto de ese mismo año) la Diana Memorial Fund continuó realizando actividades para conseguir la prohibición de las minas antipersonas.

Para poner fin a la era de las minas: remoción de minas

La remoción de minas es un proceso que abarca la detección, la limpieza y la destrucción de todas las minas de una zona determinada de la que se sabe o se sospecha que está minada, con objeto de poder utilizar de nuevo las tierras sin correr peligro.

A veces se denomina “desminado” o “desminado humanitario”.

La remoción de minas es la clave para acabar con el flagelo de las minas antipersonal.

Es esencial para que las comunidades afectadas puedan volver a llevar una vida normal, sin temor a morir o a sufrir mutilaciones a causa de las minas antipersonal ocultas en los campos, pastizales, senderos y patios de juego.

Una vez diseminadas, las tierras son nuevamente productivas y las familias recuperan sus medios de subsistencia, lo cual contribuye a la reconstrucción tras el conflicto y al desarrollo económico.

Los refugiados y los desplazados internos pueden regresar en seguridad a su lugar de origen.

Asimismo, es primordial retirar las minas antipersonal de las zonas fronterizas y las antiguas líneas de combate para promover la seguridad en las zonas que se recuperan de un conflicto armado y fomentar la confianza entre los Estados vecinos.

¿Qué obligaciones dimanan de la Convención de Ottawa por lo que respecta a la remoción de minas?

De conformidad con lo dispuesto en la Convención sobre la prohibición de las minas antipersonal (Convención de Ottawa), cada Estado Parte debe:

  • identificar todas las zonas que estén bajo su jurisdicción o control donde se sepa o se sospeche que haya minas antipersonal;

  • adoptar todas las medidas necesarias, tan pronto como sea posible, para marcar el perímetro de todas esas zonas minadas, vigilarlas, protegerlas con cercas u otros medios, a fin de impedir a los civiles que penetren en ellas y resulten heridos;

  • destruir todas las minas antipersonal colocadas en las zonas minadas, lo antes posible, y a más tardar en un plazo de 10 años, a partir de la entrada en vigor de la Convención para ese Estado. El primero de los plazos establecidos para la remoción de minas vencerá en 2009 (véase el cuadro que figura más abajo para los plazos de remoción de minas de los Estados Partes en la Convención de Ottawa afectados por las minas).

Si bien incumbe principalmente a cada Estado Parte afectado por el problema de las minas limpiar todas las zonas minadas en su territorio, la Convención le concede el derecho a solicitar y recibir asistencia de los otros Estados Partes para cumplir su obligación.

Los Estados Partes que estén en condiciones de hacerlo pueden proporcionar asistencia sea directamente al Estado afectado o indirectamente por conducto de las Naciones Unidas u otra organización implicada en las actividades relativas a las minas.

La obligación de que los Estados Partes cooperen entre ellos para eliminar las minas antipersonal es una característica única de la Convención de Ottawa.

Conforme a la Convención de Ottawa, en circunstancias excepcionales, un Estado Parte puede presentar una solicitud para que se prorrogue el plazo de 10 años con el fin de completar la remoción de minas.

Dado que el primer plazo para la remoción de minas vence en 2009, es demasiado pronto para afirmar si se solicitarán tales prórrogas; actualmente los Estados Partes afectados están elaborando y poniendo en marcha sus planes y programas de desminado.

Para cumplir los plazos establecidos en la Convención, tanto los Estados afectados por las minas como los Estados donantes deberán intensificar sus esfuerzos y aumentar los recursos destinados a la remoción de minas.

La Cumbre de Nairobi para un Mundo Libre de Minas (Primera Conferencia de Examen de la Convención de Ottawa) brindará la oportunidad a los Estados Partes de evaluar los avances logrados hasta el presente, así como las tareas pendientes por lo que atañe a la remoción y otras actividades relacionadas con la Convención.

¿A qué Estados Partes en la Convención de Ottawa incumben las obligaciones relativas a la remoción de minas?

Nómina de Estados con áreas minadas bajo su jurisdicción o control.

Al 1º de agosto de 2004, había 143 Estados Partes en la Convención de Ottawa, de los cuales 50 habían señalado que tienen zonas minadas en el territorio bajo su jurisdicción o control, o se presume que las tienen sobre la base de declaraciones hechas por ellos.

Entre éstos figuran los países más gravemente afectados por las minas, como son Afganistán, Angola, Bosnia y Herzegovina y Camboya.

¿En qué consiste la remoción de minas?

La remoción de minas es un proceso minucioso y que requiere muchos recursos.

Para lograr la remoción de minas dentro del plazo establecido por la Convención, es esencial que cada Estado afectado elabore y aplique un plan nacional de “acción contra las minas” y que haga saber a los otros Estados o a las instituciones pertinentes si necesita asistencia para llevar a cabo dicho plan.

La realización de un plan nacional contra las minas comienza, por lo general, con un análisis global de la situación en el país, al que sigue una evaluación de la contaminación por minas consistente en el cartografiado de las zonas peligrosas y el establecimiento de las prioridades de remoción.

En estas evaluaciones, se suele graduar cada zona minada según los efectos en la población civil y se dará prioridad al desminado en los lugares donde los efectos sean mayores.

En las operaciones de remoción, los desminadores emplean una o una combinación de las tres técnicas siguientes:

(1) el desminado manual para el cual se usa un detector de metal y un punzón u otro utensilio para excavar y desenterrar la mina;

(2) el desminado manual combinado con el uso de perros para detectar minas;

(3) el desminado mecánico en el que se utilizan máquinas. Antes de entregar formalmente las zonas desminadas a las comunidades locales para su utilización, por lo general esas zonas se someten a un control de calidad para cerciorarse de que el terreno es seguro para el uso previsto.

En la práctica, al limpiar una zona contaminada, los desminadores eliminan todos los posibles tipos de restos explosivos de guerra.

Éstos abarcan tanto las municiones sin estallar o abandonadas, como las minas.

¿Cuál es la situación actual con respecto a la remoción de minas?

De los 50 Estados Partes en la Convención de Ottawa que han declarado tener zonas minadas:

En enero de 2003, Costa Rica fue el primer Estado Parte en declarar que había limpiado totalmente todas las minas antipersonal de las zonas bajo su jurisdicción y control.

Yibuti es el segundo en hacerlo en abril de 2004.

Ello implica que ambos Estados han cumplido sus obligaciones de remoción de minas mucho antes de que vencieran los respectivos plazos en 2009.

Se prevé que varios países completen próximamente sus obligaciones de remoción.

Honduras declaró que concluirá la labor de remoción a fines de 2004. Guatemala prevé terminarla en 2005 y Nicaragua en 2006.

Muchos Estados Partes afectados, como Afganistán, Bosnia y Herzegovina y Camboya, han elaborado e iniciado planes estratégicos específicos de remoción de minas para cumplir sus respectivos plazos.

Otros Estados Partes afectados deben hacerlo con urgencia para cumplir sus plazos. Se solicita a todos los Estados Partes afectados por las minas que presenten sus planes con motivo de la Cumbre de Nairobi en diciembre de 2004.

Es imposible saber con certeza cuántas zonas minas quedan por limpiar en el mundo.

Muchos Estados Partes contaminados han hecho considerables progresos por lo que respecta a la inspección y localización de las tierras minadas que deben limpiarse.

Sin embargo, en muchos países afectados, aún no se conoce bien la magnitud del problema de las minas terrestres.

Minas Terrestres Segun La Revista La Aventura de la Historia:

Nada hay más barato en el arsenal de la guerra que una mina antipersonal y pocos obstáculos son más eficaces para detener a un ejército que un campo minado.

Eso es tan practicado que, según fuentes del Pentágono, existen unos 120 millones de minas antipersonal enterradas en 64 países.

¿Cómo es posible que sigan enterradas tantas minas?.

Porque son muy difíciles de desenterrar si se sembraron aleatoriamente o si se carece de los planos militares del campo.

Por ejemplo, en el Norte de Africa, los británicos minaron a sus defensas de El Alemein ante el avance de Rommel, en 1942; cuando contraatacó Montgomery, los alemanes hicieron lo propio; en total se sembraron tres millones de minas.

Hoy, un lateral de la carretera que va desde El Alemein a El Daba, poco más de 40 kilómetros, está cerrado por alambre de espino y cada pocos metros cuelgan letreros descoloridos: “Peligro, minas!”.

Un oficial egipcio comentó que, de vez en cuando, estalla alguna al paso de alguien. Sesenta años después!

La dificultad del desminado radica en que se trata de objetos pequeños (como una lata de betún), casi indetectables y requiere cuantiosos recursos: casi mil euros por cada mina.

Ello se debe ala peligrosidad del trabajo: según las estadísticas, recuperar 5.000 minas cuesta un muerto y dos heridos.

Las peores situaciones se dan en Angola, Camboya, Somalia y Bosnia, países de cojos.

La población debe circular por caminos marcados y cualquier desviación puede significar la muerte… Y esta situación proseguirá durante décadas, con su secuela de tragedias humanas y económicas.

Las minas causan 26.000 víctimas al año, de ellas, 12.000 muertos —33 cada día— con un coste sanitario de 10 millones de euros anuales.

Al sufrimiento, al miedo permanente, a los costes sanitarios, se añade la improductividad de millones de hectáreas.

Una plaga a la que no se ha podido poner coto, aunque la preocupación mundial es creciente.

Al Tratado para la Prohibición de Minas, firmado por 143 países, aun no se han adherido los principales fabricantes y almacenadores de estos artefactos: India y Pakistán —los mayores usuarios en la actualidad— y tres miembros del Consejo de Seguridad: Rusia, China y Estados Unidos.

Se supone que en los arsenales de esos cinco países hay 200 millones de minas antipersonal.

Por otro lado, son insuficientes los medios humanitarios para atender a las víctimas, escasas las ayudas a los países que padecen la plaga y lento el desminado.

Lo positivo es que el número de minas sembradas no parece avanzar, que el horror hacia estos ingenios aumenta y que en una década se ha logrado que dos tercios de las naciones se adhieran al Tratado, decidiendo destruir sus arsenales en el curso de 2003.

DAVID SOLAR

Primera Caminata Espacial Americana:Edward White,Historia

Fecha de la Primera Caminata Espacial: Historia Exploración Espacial

Edaward White: Primera Caminata Espacial: Historia Exploración Espacial

El comandante Edward H. White, se convirtió en el primer astronauta estadounidense en realizar un paseo espacial. Con la ayuda de un sistema autopropulsado de gas a presión, permaneció 21 minutos en el espacio.

Edward White, nació en San Antonio, Texas el 14 de noviembre de 1930, y fue criado con grandes cualidades humanas, como la solidaridad, la autodisciplina y perseverancia, que las supo aplicar en toda su carrera profesional y también en su vida personal.

Su padre era un graduado de West Point que sirvió en la Fuerza Aérea de Estados Unidos, y fue quien ayudo a Ed a dar los primeros pasos en su carrera como piloto aeronáutico.

Ed siempre recordó su primer vuelo con su padre, quien le permitió hacerse cargo de los controles de la nave, y en donde se sentía muy cómodo y le parecía hacer la cosa mas natural del mundo, según sus palabras.

Se hizo conocido como un pionero de la aeronáutica, comenzando su carrera militar al volar globos del ejército y antes de convertirse en astronauta era piloto de prueba de la Fuerza Aérea.

Ha registrado más de 3.000 horas de vuelo.

Como astronauta registró más de 96 horas en el espacio a bordo de un único vuelo espacial.

En 1965 se convirtió en el primer astronauta americano en caminar por el espacio.

White flotó por 22 minutos, fuera de la nave espacial Gemini 4.

Ed White fue el primer estadounidense en dar un paseo por el espacio.

Lo hizo en junio de 1965, tres meses después que el ruso Leonov.

White sería uno de los tres astronautas que murieron en las pruebas de vuelo previas al lanzamiento del Apollo 1, en enero de 1967.

En 1967 falleció en un incendio durante las pruebas de la nave espacial Apollo 1

Temas Relacionados

• La Carrera Espacial: Accidentes Espaciales Misiones
• Hitos de la Carrera Espacial-Cronologia de las Principales Hazañas
• Vuelos Tripulados Principales Vuelos de la Carrera Espacial
• La Era Espacial:Las Misiones Espaciales y la Carrera Espacial
• La Exploracion Espacial Historia Evolución de las Viajes Espaciales
• Primer Satelite Enviado al Espacio Comienzo de la Era Espacial
• Mision Espacial Soyuz-Apolo La Era Espacial Misiones al Espacio
• La Mision Apolo XI:Historia de la llegada del hombre a la Luna

Enlace Externo: La NASA cumple 60 años de exploracion

Problemas Tecnicos en los Primeros Ferrocarriles Argentinos:Historia

Historia de los Problemas Tecnicos en los Primeros Ferrocarriles Argentinos

La idea de aplicar la máquina de vapor al transporte se llevó por primera vez a la práctica ya en 1769 bajo la forma de un complicado artefacto, destinado a correr sobre railes, construido por un francés, Nicolás Cugnot.

Posteriormente, el inglés Richard Trevithick fabricó locomotoras (1801-1808), si bien estas últimas habían sido pensadas sólo para el servicio de las minas de hulla y tenían una aplicación limitada.

Sin embargo, a pesar de la victoria de Stephenson, hubo que resolver muchos problemas de ingeniería antes de que los caminos de hierro pudieran desempeñar un papel importante en el comercio.

la porteña, primer tren en buenos aires

Primeramente, por ejemplo, las ruedas con pestañas que se usaban para mantener los vagones, en la vía se subían sobre los railes en las curvas, y tuvo que transcurrir algún tiempo antes de descubrirse que las ruedas debían quedar holgadas sobre los carriles. y que podían acoplarse a dispositivos giratorios debajo de los coches.

También los frenos dejaban mucho que desear presionaban contra las ruedas, y no fueron seguros y de fácil manejo hasta que George Westinghouse perfeccionó el freno de aire comprimido (1886).

Además los enganches tenían tanto juego que al arrancar el tren los vagones recibían tan fuertes sacudidas, sobre todo los últimos, que los viajeros eran violentamente proyectados hacia atrás.

El tendido de puentes y la perforaci6n de túneles planteó a su vez dificultades a los primeros constructores de líneas férreas.

Los puentes de piedra no resistían bien la vibración; los de madera estaban expuestos a la acción de la intemperie y del fuego; además, abrir agujeros en el suelo con barrenas de mano era, por no darle un calificativo más duro, un trabajo agotador.

Sin embargo, con el tiempo los puentes fueron construyéndose de hierro y acero (el de Brooklyn, colgante, de acero y de 486 m de longitud, quedó terminado en 1883); la excavación de túneles se simplificó con el invento de la barrena de aire comprimido…

Por si estas dificultades técnicas no hubieran bastado, produjese cierta hostilidad del público hacia los ferrocarriles en sus primeros años de existencia.

No sólo los campesinos residentes a lo largo de las líneas férreas se quejaban de que las máquinas calentadas con leña, espantaban con su chisporreteo a caballos y vacas, sino que se aducían toda suerte de argumentos contra la nueva forma de transporte.

Algunos militares llegaron a creer que el traslado de la tropa por ferrocarril volvería a los hombres tan muelles que no servirían ya para la lucha.

Varios médicos de renombre temieron que los pasajeros contrajesen enfermedades pulmonares por efecto del aire húmedo de los túneles y algunos moralistas advirtieron que los tramos oscuros ofrecían a los hombres groseros una ocasión irresistible de besar a las señoras, e incluso llegaron a aconsejar a las presuntas víctimas de tales abusos que se pusieran alfileres entre los dientes cuando el tren penetrase en un túnel.

 Fuente Consultada: Shepard B. Clough, en «La Evolución Económica de la civilización occidental”

Historia de los Primeros Faros Marinos:Tipos, Materiales y Construcion

Historia de los Primeros Faros Marinos: Tipos Materiales y Construción

El encanto de la vida del mar no perdería sus atractivos si no existieran, entre otros peligros, el de embarrancar en las rocas de la costa, los bancos de arena y los profundos remolinos.

Desde que los primitivos navegantes lanzaron sus naves a través del mar, atentos vigilantes, desde tierra, trataron de auxiliarles facilitándoles medios de llegar al puerto.

En aquellos remotos tiempos, indudablemente, se valían para ello de hogueras, que encendían en los puntos elevados de la costa; y ya, en una antigua poesía, se hace mención de un faro—el de Segeum, en Troad—, que fue quizá el primero que, mantenido con regularidad, sirvió de guía a los marineros.

La más famosa de estas construcciones destinadas a señales se construyó en el año 275 antes de Jesucristo, en la pequeña isla de Pharos, en la entrada del puerto de Alejandría.

Se dice tenía 182 metros de altura, y su nombre quedó para denominar otras semejantes.

Fue destruida en el siglo XIII por un terremoto.

Los romanos construyeron muchas torres de esta clase, una de las cuales, de sección cuadrada, con cerca de 39,50 metros de altura, construcción de piedra que data probablemente del siglo IV, se conserva todavía en La Coruña.

El Estado español la restauró, preservándola con una protección exterior de granito y poniéndola en condiciones de servicio después de cientos de años de estar apagada.

Es el faro más antiguo que existe.

Todos estos antiguos faros, y muchos de los modernos, se han establecido en tierra; generalmente en una elevación, fuera del alcance de las olas.

El más antiguo de los faros cimentados en el mar es la hermosa torre de Cordouan, asentada sobre el fondo de roca en la desembocadura del río Oironda, a 100 kilómetros de Burdeos, en Francia.

Comenzó su construcción en el año de 1584 y se terminó en 1611.

La primitiva cúpula fue reemplazada por una alta torre de 63 metros de altura, con un fanal a 59,75 metros sobre la marea alta.

Hasta el siglo XVIII la luz se producía por una hoguera, alimentada con troncos de roble, y, después, hasta ser modernizada, con fuego de carbón.

Durante los siglos XVII y XVIII se construyeron en Europa muchos faros que, como el descrito, quemaban leña o carbón en cestillos de hierro.

El primer faro que se construyó en Norteamérica fue el de la isla de Little Brewster en 1716, a la entrada del puerto de Boston.

En él se instaló un gran cañón para hacer señales en tiempo de nieblas espesas. La primitiva torre fue destruida durante la revolución, siendo reconstruida en 1783.

Durante el período colonial, diez torres más se elevaron en la costa del Atlántico, pero todas ellas han sido destruidas o derribadas, excepto cinco, que son: Sandy Hook, cabo Henlopen, del promontorio Portland, Tybee y cabo Henry.

Las primitivas torres de Sandy Hook y cabo Henlopen se utilizan todavía; de las demás, unas están abandonadas y otras medio derruidas. El faro de Sandy Hook es el más antiguo de América.

DIVERSOS TIPOS DE FAROS

TIPOS DE FAROS

Los faros, como hemos dicho, pueden establecerse en tierra firme, o sobre rocas o bancos de arena, y expuestos directamente a los embates del mar.

Los primeros varían muchísimo en cuanto a su altura y disposición general.

Si el edificio está situado en un punto elevado de la costa, la torre no precisa tener gran altura, como se puede ver en el grabado del faro de Punta Reyes, de California, o en el cabo Mendocino, del mismo Estado.

La torre de este último sólo tiene seis metros de altura, pero está sobre un cantil que se eleva 128,60 m. sobre el mar y es el faro situado a mayor altura en los Estados Unidos. (hasta 1930)

En la costa del Atlántico, sin embargo, como en su mayor parte es baja, se hace preciso que los faros, construidos en tierra, sean por sí mismos de gran elevación, si han de ser eficaces.

Ejemplo de éstos es el de cabo Hatteras; tiene 61 metros de altura y es, por tanto, el más alto, de Norteamérica.

Otros de estructura notable son los de cabo Henry y cabo Charles, en Virginia, y la bellísima torre de Punta Pigeon, en California.

El pequeño faro de Manan, sobre la costa de Maine, es también una hermosa edificación de granito de 35 metros de altura.

El faro de Tillamook, en la costa de Oregón, está colocado sobre una gran roca, expuesta a las furias del mar y separado una milla de tierra firme; dicha roca, alta y acantilada, hace muy difícil y peligroso el desembarque.

La torre se eleva 41,45 metros sobre marea alta, y, a pesar de ello, en 1887, las olas, rompiendo contra la estructura, causaron averías de consideración, y en 1912, el aprovisionamiento del faro estuvo suspendido durante siete semanas, porque los encargados por el Gobierno para realizar la operación no pudieron aproximarse a la roca, a causa de un violento temporal.

También el faro del arrecife de St. George, separado de tierra unas seis millas en la costa norte de California, se encuentra en las mismas condiciones.

Se terminó en 1892, y su coste fue de unos 700.000 dólares, resultando la obra, de esta clase, más cara de los Estados Unidos.

Muchas de las construcciones en la costa no son más que sencillas estructuras bien estudiadas para instalar el fanal y los aparatos acústicos necesarios en caso de niebla, además de las indispensables viviendas para los torreros y sus familias.

Los faros enclavados directamente en el mar son siempre más interesantes que los de tierra firme, no tanto por las particularidades de su estructura, sino, tal vez, por la simpatía que inspiran sus servidores, expuestos, constantemente, a toda clase de peligros.

Son muy numerosos los faros de este género, pero el de las rocasEddystone, a 22 kilómetros de Plymouth, Inglaterra, es, entre ellos, el más famoso. Este peligroso arrecife, expuesto a los violentos temporales de sudoeste, queda completamente sumergido durante las mareas equinocciales.

Él faro primitivo que se construyó sobre dichas rocas en 1695-1700 fue arrastrado por el mar, pereciendo sus ocupantes.

El segundo, construido en gran parte de madera, bajo la dirección del ingeniero Juan Smeaton, era una estructura de sillares de piedra, que pesaban, próximamente, una tonelada cada uno, y cuyas hiladas estaban engatilladas entre sí por medio de espigas de madera, y el que, en 1881, ha substituido a éste, descansa sobre una base de 13 metros de diámetro y 6,70 metros de altura, apoyándose directamente sobre el mismo arrecife, en el cual se hace firme mediante fuertes pernos de bronce.

Pesa 4.668 toneladas, y su luz se eleva 55,70 metros sobre el nivel de la marea alta.

La obra de cantería de esta singular construcción está ejecutada de manera que existe una trabazón completa de todos los sillares por el corte especial de ellos.

Otros faros de este mismo género son el de la roca Bell ySkerryvore, sobre la costa de Escocia, y el de la roca Bishop, en las islas Scilly.

Entre los faros de América, enclavados en el mar, el más conocido es el del arrecife de Minots, frente a Cohasset, en la bahía de Massachusetts.

La primera luz que señalaba estos bajos, y que aparecía sólo en la baja marea, estaba instalada sobre pilastras metálicas fijas en excavaciones practicadas en la misma roca; se terminó este faro en 1848, y, nueve años después, una galerna lo llevó mar adentro, ahogándose los torrerosque le ocupaban.

El faro actual, de fina estructura, se terminó en 1860, y su ejecución fue empresa de las más difíciles en su clase.

Las hiladas inferiores van asentadas cuidadosamente sobre la roca y fijos a ella los sillares mediante sólidos pernos.

Tiene su torre 32,60 metros de altura, y, en ella, se ha dispuesto las habitaciones de lostorreros solamente, habiéndose construido viviendas para sus familias frente al faro y en la costa próxima.

En los Grandes Lagos hay dos excelentes modelos de faros que, como los anteriores, están construidos sobre bajos fondos.

El que marca el escollo Spestade, en el extremo norte del lago Hurón, es una torre de piedra, sumergida 3,35 metros en el agua, a diez millas de la orilla, y expuesta a la acción de los grandes témpanos de hielo.

Para cimentar esta torre, se construyó un gran cajón o ataguìa alrededor del lugar de emplazamiento, agotándose después el agua por medio de bombas, quedando al descubierto, a 3,35 metros bajo el nivel del lago, la roca sobre la que se cimentó cuidadosamente la torre de mampostería.

Terminada en 1874, aquel mismo invierno soportó valientemente las embestidas de los hielos.

El faro de la roca Stannard, terminado en 1882, marca el bajo más peligroso del Lago Superior.

Está situado a 24 millas (38,4 kilómetros) de la orilla, siendo el que dista más de tierra en los Estados Unidos.

Como el del arrecife Spectacle, este faro descansa sobre un fondo cubierto por 11 pies de agua, y fue construido por el mismo procedimiento que aquél.

faro

El problema que se presenta al proyectar una obra de esta índole varía mucho si la cimentación sumergida descansa sobre arena o grava, o ha de levantarse sobre fondo de roca.

La más notable construcción sobre arena es la de Rothersand, a diez millas de la costa de Alemania, en la desembocadura del río Weser.

Este banco de arena está cubierto por 20 pies de agua, y el primer intento que se hizo para cimentar, con un cajón sumergido, fracasó por completo.

En 1883, sin embargo, se ideó un cajón de palastro de 14,30 metros de largo, 11,27 metros de ancho y 18,89 metros de profundidad, que fue remolcado hasta el banco de arena y sumergido unos 23,27 metros, a contar desde la baja mar.

A 2,45 metros sobre el borde inferior, había un diafragma que, cerrándolo por la parte superior, formaba la cámara de trabajo, provista de un tubo cilíndrico, en el que se dispuso un cierre de aire estanco, y permitía entrar y salir a los obreros.

faros

La arena se desalojaba por presión neumática, y, a medida que el cajón bajaba, se iba prolongando, por la parte superior, con nuevas planchas de hierro.

Cuando el cajón llegó a profundidad conveniente, se rellenó de mampostería y hormigón.

La torre es una construcción metálica, protegida de bloques, en la que está montado el reflector a 23,75 metros sobre la marea alta.

Se ilumina con luz eléctrica, estando alimentado este faro por cables submarinos que transmiten la corriente desde la costa próxima.

El faro del banco Fourteen-Foot, en la bahía de Delaware, se construyó por este mismo procedimiento en 1887.

En éste, sin embargo, el cajón fue de madera, con un borde cortante de siete pies de altura. Sobre esta especie de balsa, se colocó un cilindro de hierro de 10,66 metros de diámetro y 5,50 metros de altura, y todo así dispuesto, se remolcó al lugar donde se sumergió, llenándole de agua.

Cuando estuvo bien asentado sobre el fondo, se agotó la cámara inferior, excavándose después la arena, que era transportada al exterior por una tubería.

Conforme se profundizaba la excavación, los bordes cortantes de la cámara se hundían en la arena, y esta acción era favorecida por la carga del cilindro de hierro, cuyo interior iba rellenándose de hormigón.

El faro del bajío Diamond, frente al cabo Hatteras, trató de fundarse siguiendo este mismo sistema, pero no pudo conseguirse debido a la fuerza de las olas y violentas corrientes del Océano.

Estos problemas de cimentación sobre fondos de poca consistencia pueden resolverse, en muchos casos, por el empleo de pilotes a rosca o barreno, que consisten en fuertes columnas de hierro provistas, en su extremo inferior, de una especie de rosca de paso muy largo, que permite, literalmente, atornillarse en el fondo arenoso del mar, armándose después, sobre estas columnas, la estructura superior.

La primera construcción de esta clase fue la de Brandywine Shoai, en la bahía de Delaware, en 1,80 metros de agua.

En lugar de construir los faros, como hasta ahora se ha venido haciendo, con piedra, ladrillo y cemento armado, parece que existe la tendencia de substituir estos materiales por el hierro; las nuevas construcciones en que interviene casi exclusivamente este último ofrecen mucha más seguridad y son más ligeras.

El faro de Punta Arena, en California, fue el primero que se construyó en los Estados Unidos con cemento armado, habiéndose empleado este mismo sistema en todos los faros a lo largo del canal de Panamá.

También se ha utilizado el cemento armado en el faro de la isla de Navassa, entre Haití y Jamaica; fue construido a expensas del Gobierno norteamericano, sobre aquella isla rocosa, porque situada, precisamente, en la ruta natural desde Colón a la entrada del canal de Panamá, constituye un peligro constante para la navegación.

La elegante torre se ha construido con el mayor cuidado, teniendo en cuenta los violentos huracanes frecuentes en aquellos lugares, y tiene una altura de 45,70 metros.

Su luz es de 47.000 bujías, con un radio de 50 kilómetros.

La lente Fresnel y otros progresos:

Hacia el año de 1822, un físico francés, llamado Agustín Fresnel, señaló una nueva era en los sistemas de iluminación de faros, creando unas curiosas lentes, al propio tiempo reflectoras y refractoras, que se colocan alrededor de una luz única, situada en el centro.

El todo constituye un aparato que consiste en «una lente polizonal» encerrando una semilla lámpara central.

Esta lente está formada por prismas de cristal, dispuestos en planos o tableros, de los cuales, la parte central es dióptrica o refractora solamente, y la superior e interior son, a la vez, refractoras y reflectoras, como en el sistema «catadióptrico».

Eas ventajas de este sistema son las de aumentar el brillo de la luz, por el hecho de que una gran parte de ella, que procede de la lámpara, se concentra, mediante los prismas, en rayos que se distinguen mejor desde el mar, consiguiéndose también una economía en el aceite o el medio iluminante empleado.

Una lente Fresnes, del tipo más perfecto, da un rendimiento efectivo de un 60 por 100 próximamente de la luz de que se trata; el resto representa la pérdida en la parte superior e inferior de la linterna y la absorbida por el cristal de las lentes.

Estas lentes Fresnel se clasifican por su orden o tamaño, y dicho tamaño se mide por la distancia desde el centro de la luz hasta la superficie interna de la lente.

Así, en una luz de «primer orden» la referida distancia es de 905 milímetros; en una de «segundo orden», 690 milímetros, y en una luz de «sexto orden», 147 1/2 milímetros.

I,a primera lente Fresnel que se instaló en los Estados Unidos fue montada en el faro de Navesink en el año 1841, en la entrada de la bahía de Nueva York, y la mayor de este tipo, instalada a expensas del mismo país, es la de la Punta Makapuu, Oahu, Hawai, y es la primera luz que divisa el marino al aproximarse a aquellas islas, desde los Estados Unidos.

Es mayor que las clasificadas como de primer orden; tiene 1,30 metros de radio y, por lo tanto, el diámetro interior es de 2,75 metros, aproximadamente, estándo encerrada en una linterna de 4,87 metros de diámetro, también interior.

Una lente Fresnel de gran tamaño es uno de los aparatos ópticos más hermosos; el perfecto pulimento de las lentes, con sus múltiples facetas brillantes y su gran armadura de metal, le dan la atractiva apariencia de una enorme joya.

Con objeto de diferenciar un faro con respecto a otro, se asigna a cada uno características especiales.

Los distintivos de color se emplean generalmente para pequeños faros de orden inferior, en los que se usan por lo común lentes de color rojo.

El empleo de lentes coloreadas supone, sin embargo, una gran pérdida en potencia lumínica, pues se calcula que con el rojo, que es el más eficaz, dicha pérdida alcanza un 60 por 100.

En muchos casos no se necesita más que una luz fija, aunque haya peligro de confundirla con otras de la costa o de buques que pueda haber en las inmediaciones.

La construcción de ellas consiste en una lámpara central y una sola lente que dirige su haz luminoso sobre un determinado sector del horizonte.

Los faros importantes son, o del tipo de «destellos» o de «eclipses».

En los primeros gira toda la lente, y cada une de los bastidores o lentes parciales aparece como reflejo intenso a la vista del espectador.

Con objeto de conseguir un movimiento suave y rápido, la lente entera se apoya sobre flotadores en un depósito de mercurio; de esta manera, lentes que pesan siete toneladas, dan fácilmente una revolución completa en medio minuto.

La lente de Punta Ki-lauea, Hawai, construida en Francia, a un coste de 12.000 dólares, pesa cuatro toneladas.

Está montada, por medio de flotadores, sobre mercurio, da una revolución completa cada veinte segundos, y produce un doble destello de 940.000 bujías cada diez segundos.

Este doble destello se consigue disponiendo simétricamente cuatro lentes dos a cada extremo de un mismo diámetro.

Como es natural, variando la disposición de las lentes, su forma y su color, puede obtenerse una gran variedad de faros.

Fuente Consultada:
Historia de las Comunicaciones Transportes Terrestres J.K. Bridges Capítulo «Puentes en la Antigüedad»
Colección Moderna de Conocimientos Tomo II Fuerza Motriz W.M. Jackson , Inc.
Lo Se Todo Tomo III

Enlace Externo: Como Interprentan Los Barcos a los Faros Marinos

Vuelo sin escalas alrededor del mundo:Burt Rutan y su Voyager

Vuelo sin Escalas Alrededor del Mundo: Burt Rutan y su Voyager

BURT RUTAN

Nacido en Estacada, Oregon (unos 50 Km. al sureste de Portland) y criado en Dinuba, California, Rutan demostró desde edad temprana un interés agudo en aeronaves. Antes de cumplir los ocho años, diseñaba y construía modelos de aviones.

Elbert R. Rutan, más conocido por Burt, comenzó a volar  en 1959, se graduó de ingeniero aeronáutico en 1965, trabajó en la base Edwards de la Fuerza Aérea de California hasta 1974 en que armó su propia empresa y diseñó y construyó numerosos aviones de formas no convencionales usando materiales compuestos.

En 1982 formó Scaled Composites en el desierto de Mojave para diseñar nuevos aviones: uno de los primeros fue el Beechcraft Starship en 1983

En 1984 presentó su Voyager construido para dar la vuelta al mundo sin reabastecerse.

Tras dos años de puesta a punto, logró la hazaña en 1986, al mando de su hermano Dick Rutan y Jeana Yeager.

avión Voyager

El record de dar la vuelta al mundo SIN escalas  se batió en el año 1986 por el Rutan Model 76 Voyager: tardó más de 9 días recorriendo 42.432 kilómetros a una altitud promedio de 3.350 metros.

————-  00000 ————

Vuelo sin Escalas Alrededor del Mundo: Burt Rutan y su Voyager

Datos del Voyager diseño canard bimotor en tandem.

Costo: U$S 2.000.000

El motor principal, un Teledyne Continental de 100 HP refrigerado a agua y de uso permanente; el secundario a aire y de uso solo en los momentos necesarios con 139 HP.

Peso del planeador: 420 Kg..

Peso de los 2 motores: 400kgr.

Peso total vacio 820 Kg..

Peso del combustible al despegar: 3.200 Kg. en 17 tanques.

Peso total al despegue: 4200 Kg.

Datos del viaje: el despegue tomó 5500m.

Tardó tres horas en ascender 8000 pies.

Recorrido: 40.200 Km. Duración: nueve dias y cuatro minutos.

Combustible remanente al aterrizar: 48 Kg.; Vel. media 214 kph.

Rutan hizo también el Space Ship One con el que llevó en junio de 2004, pasajeros civiles al espacio exterior (más de 100 km. de altura) y luego repitió el viaje varias veces, en lo que parece el inicio de una nueva posibilidad de turismo aventura.

El británico Richard Branson patrocinó la vuelta al mundo en solitario, que cumplió Steve Fosset en 2005 con máquina construida por Rutan, y anuncia para 2007 viajes comerciales al espacio exterior a 130 Km. de altura, a un precio de U$S 200.000 con 4 minutos carentes de gravedad.

Temas Relacionados:

El Vuelo de Amelia Earhart
Cruzar El Canal de la Mancha
Exploración de África
Grandes Hazañas del Hombre y Sus Logros Tecnicos-Cientificos
Hazaña del Plus Ultra: Historia del Vuelo España- Buenos Aires
La Mayor Hazaña Espacial de la Historia
El Vuelo de Gordon Cooper,en el Faith 7:Hazañas Espaciales
VITO DUMAS:El Gran Navegante Argentino Dio la Vuelta al Mundo

Enlace Externo:• El Vuelo Más Largo Del Mundo

Caracteristicas del Avion Boeing 747:Historia de su Construccion

Caracteristicas del Avion Boeing 747:Historia de su Construccion

Boeing B-747:

Fue de nuevo la compañía Boeing, a finales de los años sesenta, la que dio el visto bueno a la enésima fase revolucionaria de la larga historia del transporte aéreo y la que conquistó una de las primacías más ambicionadas: construir y poner en producción de serie el mayor avión comercial del mundo.

Estas metas fueron alcanzadas, de hecho, el 29 de febrero de 1969, con el estreno en vuelo del primer B-747, el cabeza de serie de todos los «wide-body» (aviones de fuselaje ancho), un gigante de más de 400 pasajeros que, en seguida, llegó a ser conocido con el significativo sobrenombre de Jumbo.

El impacto que el nuevo avión produjo en el mercado se demuestra con unos pocos datos: en 1966, tres años antes de la aparición del prototipo, la Boeing había acumulado ya pedidos por un valor de 1.800 millones de dólares; en los seis primeros meses de servicio, los Jumbo lograron superar el límite del millón de pasajeros transportados; en 1979, las cadenas de montaje habían completado más de 250 unidades de este avión, con encargos que ascendían a otro centenar de unidades; el 747 que hacía el número 500, fue ultimado el 17 de diciembre de 1980.

En la mitad de 1981, el Jumbo era todavía el avión más prestigioso de la flota Boeing, con pedidos que se acercaban ya a las 600 unidades, diseminadas prácticamente por todas las principales compañías aéreas mundiales.

Los primeros detalles del 747 fueron revelados el 13 de abril de 1966, al mismo tiempo que el anuncio de un contrato por parte de la compañía Pan American para la adquisición de 25 aviones, por un valor de 525 millones de dólares de la época: el proyecto preveía, desde entonces, características revolucionarias, la más evidente de las cuales era la capacidad, que oscilaba entre 350 y 490 pasajeros acomodados en una cabina cuya anchura medía más de dos metros más respecto a la del mayor avión comercial entonces existente.

El «visto bueno oficial» del programa fue dado el 25 de julio del mismo año.

Sin embargo, los problemas por superar no fueron pocos y no estaban relacionados exclusivamente con los aspectos técnicos ,que se derivaban de la necesidad de hacer volar perfectamente un avión caracterizado por semejantes pesos y dimensiones.

Efectivamente, los proyectistas prestaron gran atención a las exigencias de distribuir y acomodar un número de pasajeros jamás experimentado anteriormente; se instalaron 10 puertas, mientras que el interior del inmenso fuselaje fue subdividido, esmeradamente, en compartimientos relativamente pequeños, con el fin de evitar un efecto desagradable de dispersión en los viajeros.

Pese a todos estos esfuerzos, la entrada en servicio de los B-747 creó una serie de grandes dificultades en las infraestructuras aeroportuarias, en aquella época incapaces de acoger simultáneamente a un número tan elevado de pasajeros que embarcaban todos juntos en el mismo avión.

La adecuación no fue rápida y, todavía hoy, pese a la gran difusión de los aviones de alta

Características  Avión: Boeing B-747-200

Constructor: Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1970
Motor: 4 turborreactores Pratt ti Whitney JT9D-7/3a, de 21.319 kg. de empuje cada uno
Envergadura: 59,64 m. Longitud: 70,66 m.
Altura: 19,33 m. Peso al despegar: 332.900 kg.
Velocidad de crucero: 910 km./h. a 9.500m. de altitud
Techo máximo operativo: 13.715 m.
Autonomía: 8.000 km.
Tripulación: 10-13 personas
Carga útil: 400 pasajeros

Fuente Consultada: Aviones de Todo el Mundo de Enzo Angelucci – Paolo Matricardi

Puedes leer un libro sobre esta maravilla aérea del autor Roberto Blanc, que lo ha enviado para que sea compartido con los navegantes interesados en el tema:

libro sobre el concorde

Temas Relacionados:

Evolucion de la Aviacion Durante La Segunda Guerra Mundial
Historia de los Primeros Aviones de Guerra Argentinos:El Pulqui
Historia del Primer Vuelo Con Motor de Los Hermanos Wright

Enlace Externo:• La era del Boeing 747 podría estar llegando a su fin

Boeing 727 Características Tecnicas Historia de su Construcción

Avión Boeing 727 – Características

• ►Boeing B-727

Indudablemente, el avión comercial más afortunado de los últimos veinte años, el Boeing 727 ha conquistado una envidiable primacía: la de ser el avión de transporte civil más vendido en cifras absolutas, en el mundo occidental.

Desde 1963, año en que se iniciaron las entregas a las compañías, hasta finales de 1981, este valioso y versátil trirreactor ha sido solicitado en más de 1.800 unidades, con una flota operativa superior a las 1.700 unidades.

El límite de los 1.500 aviones entregados fue alcanzado el 2 de julio de 1979, con un avión destinado a la compañía United Air Lines.

Desde el punto de vista estrictamente financiero, el programa B-727 ha resultado el más impresionante de la historia de la aviación comercial.

Fue precisamente un 727, en agosto de 1981, el avión de reacción número 4.000, de línea, entregado por la Boeing.

Boeing B-727

Los estudios preliminares para la definición de un avión de transporte destinado al corto y medio radio de acción, con el cual acompañar la actividad del 8-727, fueron iniciados por Boeing en febrero de 1956.

En aquella época, se levaban adelante investigaciones análogas en Gran Bretaña, y, en particular, los proyectos más interesantes eran los realizados por la compañía Bristol (modelo 200), por Avro (modelo 740) y por deHavilland (modelo 121).

Se trataba, en los tres casos, de aviones bastante semejantes en la configuración general y se caracterizaban por, la adopción de tres propulsores, uno de los cuales iba instalado en la cola, en la raíz de la deriva vertical.

En 1959, los intereses comunes impulsaron a Boeing y a de Havilland (cuyo proyecto había sido elegido por la compañía de bandera británica) a explorar las posibilidades de una cooperación, pero, tras un intercambio de visitas técnicas y de informaciones, la idea fue abandonada y las dos sociedades prosiguieron separadamente en el desarrollo de los respectivos programas.

La ocasión, desde muchos puntos de vista, representaba una gran posibilidad para la industria aeronáutica británica y el hecho de haberla dejado perder resultó un gran error, tanto desde el punto de vista técnico, como desde el punto de vista comercial, ya que el Trident, que era el avión directamente competitivo del B-727 construido en Gran Bretaña, no tuvo un gran éxito internacional y se encontró el mercado prácticamente bloqueado por el más valioso producto norteamericano.

El B-727que fue anunciado el 5 de diciembre de 1960— era, en efecto, considerablemente mayor y más potente, tenía mayor capacidad de combustible y ofrecía mejores prestaciones operativas.

Estas características de base fueron utilizadas posteriormente, mediante una inteligente obra de actualización, que, a través de las diversas series de producción, hizo posible el incremento de más del 60% del peso a plena carga, de casi el 30% de la autonomía y del 45% de la capacidad original de pasajeros.

El primer prototipo del 727 voló el 9 de febrero de 1963 y la producción de la serie inicial (100) empezó inmediatamente.

El avión obtuvo la certificación el 24 de diciembre y, poco más de dos meses después, el 1º de febrero de 1964, entró en servicio regular de línea con los colores de, la compañía Eastern.

Acuciada por las peticiones, Boeing no vaciló en poner la producción a un régimen bastante elevado: entre las 80 y las 100 unidades al año, y en introducir continuas modernizaciones destinadas a aumentar la flexibilidad operativa del avión.

En 1964 fueron anunciadas las versiones 100 C (carga), caracterizadas por una amplia compuerta para la carga de las mercancías, por un suelo reforzado y, sobre todo, por la posibilidad para la compañía de poder transformar, en menos de dos horas, la configuración del avión carguero en totalmente de pasajeros o mixto y viceversa.

Estos tiempos fueron restringidos drásticamente en la versión posterior 100 QC: apenas 30 minutos para adaptar el 727 a las exigencias específicas del transportista.

Sin embargo, la serie de mayor producción fue la 200, anunciada por Boeing en agosto de 1965 y que apareció como prototipo el 27 de julio de 1967.

Característica principal del nuevo 727 era el aumento de la capacidad de pasajeros (que pasó de 130 a 189), obtenida mediante un vistoso alargamiento del fuselaje (cerca de 6 metros).

El peso máximo aumentó en más de 11 toneladas respecto a las unidades iniciales de producción y, en consecuencia, se adoptaron también propulsores con una potencia considerablemente superior.

Las sucesivas mejoras llevaron, algunos años después, a una nueva versión del 727, denominada Advanced 200, en la cual se realzaron, más aún, las ya notables características operativas del trireactor.

Boeing anunció la iniciativa el 12 de mayo de 1971 y comenzó las entregas en junio del año siguiente.

Además del considerable incremento en la capacidad de combustible y en la autonomía, en el nuevo avión se instalaron motores más potentes (y también más silenciosos), que hicieron posible el aumento del peso, a plena carga, a 95 toneladas, casi 23 más que los 727-100 de producción inicial.

Además, los interiores fueron sometidos a una radical obra de modernización y proyectados de nuevo completamente.

La versión de base fue acompañada, en 1977, por una variante convertible más actualizada, designada 727-200 C y caracterizada por una capacidad de 137 pasajeros en configuración mixta.

Preparado como carguero exclusivamente, el avión es, en cambio, capaz de alojar en la bodega 11 contenedores normalizados, con un peso total, de pago, superior a las 20 toneladas, asegurando una autonomía de 3.150 kilómetros.

Especializada en el  transporte exclusivo de mercancías, fue en cambio, la versión 200 F, anunciada a comienzos de los años ochenta, provista de propulsores de reducido consumo de combustible y capaz de transportar una carga de pago de más de 28

Con su éxito excepcional de mercado —la unidad número 1.816 del 727 fue solicitada en noviembre de 1981 por la compañía Air Algerie—, el trirreactor de Boeing está hoy presente en todos los aeropuertos del mundo y con los coló-, res de una multitud de compañías, no sólo las principales internacionales, sino también transportistas charter y privados.

La vida operativa de este avión está proyectada para que perdure unos años, aunque a partir de 1983, el 727 empezará a notar la competencia del 757, más moderno y económico, y desarrollado por la misma Boeing.

Características Avión: Boeing B-727-200
Constructor: Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1967
Motor: 3 turborreactores Pratt & Whitney JT8D-9A, de 6.580 kg. de empuje cada uno
Envergadura: 32,92 m.
Longitud: 46,69 m.
Altura: 10,36 m. x.
Peso al despegar: 83.820 kg.
Velocidad de crucero: 953 km./h. a 6.705 m. de altitud
Techo máximo operativo: 10.060 m.
Autonomía: 4.260 km.
Tripulación: 6-7 personas
Carga útil: 189 pasajeros

Puedes leer un libro sobre esta maravilla aérea del autor Roberto Blanc, que gentilmente lo ha enviado para que sea compartido con los navegantes interesados en el tema:

libro sobre el concorde

Principios fÍsicos de los cohetes: porqué vuelan los cohetes Von Braun

Principios Físicos de los Cohetes: ¿Por qué vuelan?

Características de la propulsión por cohetes

Como ya hemos visto en los capítulos anteriores, el hombre ha ido imaginando muchos métodos, algunos totalmente sorprendentes, para trasladarse desde la Tierra a otros astros.

Unas veces estos métodos se basaban en principios físicos que creía conocer bien, pero que en la práctica jamás podrían haber dado resultado y otras se trataba simplemente de ingeniosos productos de su imaginación que no respondían a las leyes de la Naturaleza.

Tal es el caso de la misteriosa fuerza antigravitacional, que tan fácilmente resolvía todos los problemas de los vuelos por el espacio, o los recursos a fuerzas mágicas o sobrenaturales, que también tuvieron cabida en tantos relatos de viajes astronáuticos.

Algunos de los procedimientos utilizados, como el dejarse arrastrar por el vuelo de las aves, el empleo de alas artificiales, los globos aerostáticos (este último descrito por Edgar Allan Poe en su relato La Aventura sin Par de un tal Hans Plaau. etc. independientemente de la imposibilidad física de realizar un recorrido tan largo en un tiempo razonable, carecían de fundamento científico a partir del descubrimiento de la existencia del vacío entre la Tierra y la Luna, debida a los experimentos de Torricelli, que había inventado el barómetro en 1643, y de Blas Pascal, quien, en 1648, medía la presión atmosférica existente en diferentes alturas de una montaña, llegando a la conclusión de que la capa de aire no se extendía indefinidamente por el espacio, sino que tenía una altura determinada. encontrándose el vacío a continuación de ella.

El método del obús disparado por el gigantesco cañón Columbia de Julio Verne, aunque aparentemente podría ser realizable siempre que se encontrara un medio de reducir a límites tolerables la aceleración inicial sufrida por los tripulantes, tan poco ofrece ningún tipo de solución para vencer la resistencia del aire a la enorme velocidad de 40.000 kms. por hora.

Esta resistencia produciría un violento frenado del artefacto con el consiguiente calentamiento aerodinámico del mismo, el llamado «muro del calor» que aumenta con la velocidad, hasta alcanzar temperaturas imposibles de resistir por cualquier material conocido.

De todos los medios imaginados en estos relatos, el único que haría viables los vuelos por el espacio es el de la impulsión por cohetes, aparato que ya era conocido desde bien antiguo, aunque no hubiera merecido la suficiente atención y se encontrase relegado a unos aspectos muy secundarios en sus aplicaciones prácticas.

Una de las ventajosas características del cohete es que su velocidad puede regularse de forma que el calentamiento provocado por la resistencia del aire al atravesar las capas bajas de la atmósfera sea tolerable.

En el momento del despegue la velocidad del aparato es reducida, para irla incrementando progresivamente a medida que va alcanzando las capas superiores, donde la resistencia es mínima, y finalmente alcanza su máxima velocidad en el vacío donde la resistencia del aire es nula.

La fuerza de reacción

Para comprender mejor las inmensas posibilidades de los cohetes en el terreno de la Astronáutica, recordemos sus principios básicos.

Ante todo debemos partir de la idea de que un cohete es un aparato volador que se desplaza siguiendo los principios expuestos por Isaac Newton en su famosa Tercera ley del Movimiento:

A una fuerza llamada acción se opone otra llamada reacción, de igual magnitud, pero de sentido contrario.

Esta fuerza de reacción la podemos comprobar experimentalmente, observando el retroceso que sufre un cañón o cualquier otro tipo de arma, cuando dispara sus proyectiles.

Si colocásemos un cañón de tiro rápido sobre una vagoneta de ferrocarril y empezásemos a dispararlo en una dirección, la vagoneta empezaría a moverse en el sentido opuesto, y silos disparos se sucediesen a un ritmo más rápido que la duración del impulso de retroceso, éste se incrementaría sucesivamente y la vagoneta adquiriría una velocidad y una aceleración crecientes.

El fenómeno se intensificaría si se arrojasen proyectiles más pequeños y en mayor cantidad, o a mayores velocidades.

Lo ideal sería que se disparasen moléculas de un fluido a su máxima velocidad.

Esto es lo que se produce en el cohete cuando expulsa los gases producidos durante su combustión, obtenidos mediante la reacción química de sus dos substancias componentes: el combustible y el comburente.

saturno 5 y el apolo 11

El mismo principio se aplica a los motores de reacción de los aviones.

Estos aspiran por su parte delantera el aire exterior, mezclándolo con gasolina pulverizada u otro combustible, en una cámara de combustión donde se produce su encendido.

Los gases obtenidos, en lugar de mover un pistón como en los motores de explosión convencionales, salen expulsados por la tobera o salida posterior del motor formando un chorro de moléculas de alta velocidad (de aquí proviene el nombre de «propulsión a chorro» con que son designados también estos motores), provocando la consiguiente reacción que impulsa el motor hacia adelante.

Sin embargo aunque utilicen el mismo principio de reacción para producir el movimiento, existen ciertas notables diferencias entre los motores cohete y los motores a reacción.

En estos últimos, el oxígeno necesario para la combustión es obtenido del aire que aspiran del exterior, por lo cual sólo pueden funcionar en las capas atmosféricas lo suficientemente densas para poder proporcionar este gas en las cantidades necesarias, lo cual automáticamente invalida este tipo de motores para las grandes alturas y sobre todo para los vuelos por el espacio.

En cambio los motores cohete poseen la gran ventaja de contener en su interior todo el oxígeno necesario, el comburente, ya sea mezclado con el combustible, o en depósitos independientes en el caso de cohetes de combustibles líquidos, convirtiéndose así en un sistema verdaderamente autónomo, totalmente independiente del medio externo y por lo tanto capaz de funcionar en zonas donde exista el vacío más absoluto.

Este tipo de motores, denominados anaerobios, obtienen su máximo rendimiento precisamente en esas zonas carentes de aire atmosférico al no tener que vencer ninguna resistencia para su desplazamiento, lo que los convierte en los impulsores ideales de los vehículos espaciales.

Componentes del cohete

Todo cohete, desde los tipos más sencillos utilizados en pirotecnia, hasta los enormemente complejos de las aplicaciones astronáuticas, constan esencialmente de los mismos elementos.

Un cilindro, ya sea de cartón o de metal, en el que se alojan las substancias químicas que van a entrar en combustión, un sistema de encendido para producir ésta (la simple mecha de los pequeños cohetes de pólvora) en la correspondiente cámara de combustión, y un orificio de salida o tobera por el que se expulsarán los gases obtenidos provocando así la fuerza de reacción.

Para mantenerlo en la dirección deseada existen varios sistemas desde una simple varilla de madera al conjunto de aletas estabilizadoras y giróscopos de los grandes cohetes actuales.

Por otra parte, el cohete deberá transportar algún tipo de carga útil.

En los cohetes utilizados en los fuegos artificiales será la caperuza donde se aloja la mezcla que estallará cuando el cohete alcance la altura adecuada, produciendo sus brillantes efectos luminosos, mientras que en los cohetes de usos militares serán cargas explosivas y en los utilizados en Astronáutica serán las cápsulas espaciales, los satélites u otros instrumentos de medida que se vayan a lanzar al espacio.

La utilización de combustibles y comburentes, llamados en conjunto propergoles, de naturaleza sólida o líquida, dará lugar a tres tipos diferenciados de cohetes.

Los denominados cohetes a propergoles líquidos, por hallarse ambos componentes en ese estado, los cohetes a propergoles sólidos, por el mismo motivo, y los cohetes híbridos, donde uno de los componentes es sólido y el otro líquido.

Los cohetes a propergoles líquidos, de construcción bastante más compleja que los otros por la necesidad de llevar depósitos aislados y sistemas de bombeo de cada uno de los líquidos a la cámara de combustión, son generalmente de bastante mayor potencia que los de propergoles sólidos, por lo que se utilizan fundamentalmente en los aparatos que necesitan enviar al espacio grandes masas, como los vehículos americanos A polos, impulsados por los cohetes a propergoles líquidos del Saturno V.

En este caso el combustible es queroseno y el comburente oxígeno líquido, mantenido en ese estado mediante altas presiones y bajas temperaturas en los depósitos.

En la actualidad esos son los propergoles líquidos más empleados aunque también se utilicen el ácido nítrico, el peróxido de nitrógeno y el ozono líquido como comburentes y el alcohol, la hidracina o el hidrógeno líquido como combustibles.

La combinación ideal sería la de hidrógeno-oxígeno líquido por proporcionar la máxima velocidad a los gases de escape.

Los principales propergoles sólidos empleados son los siguientes: balistita (formado por nitroglicerina y nitrocelulosa), cordita (nitrocelulosa, nitroglicerina, vaselina), pólvoras, nitroparafina, y percloratos de amonio o de potasio.

Los propergoles híbridos más utilizados son: caucho artificial y oxígeno líquido, resinas sintéticas y peróxido de hidrógeno (agua oxigenada).

Los propergoles sólidos ofrecen por su parte la ventaja de ser fácilmente almacenables y tienen menos problemas a la hora de su manipulación por lo que son más adecuados para cohetes de aplicaciones militares o de pequeñas potencias de empuje.

También permiten que la construcción y el funcionamiento del cohete sean más simples.

El primer tipo de combustible utilizado en los cohetes no fue otro sino la pólvora negra, obtenida con la mezcla de salitre, carbón vegetal y azufre.

stos ingredientes al quemarse producen un gas que tiende a ocupar un volumen 400 veces mayor que la mezcla original, produciendo una fuerte presión en las paredes del recipiente que los contiene.

Si este se encuentra cerrado explotará bruscamente con el consiguiente «petardazo».

En el cohete de pólvora, ésta se coloca en una masa compacta, pero dejando un hueco en forma de embudo a lo largo de su eje central que terminará junto a la abertura de la parte posterior del cilindro que constituye el cohete.

Este hueco cónico y la abertura de salida constituyen la cámara de combustión y la tobera del motor-cohete.

Cuando se enciende la carga, la pólvora empieza a arder por la superficie interna de la cámara de combustión, creando rápidamente una considerable masa de gas a temperaturas muy elevadas y con una presión muy alta que escapará por la abertura posterior a gran velocidad, provocando por reacción el movimiento del cohete hacia adelante que se elevará emitiendo su característico silbido hasta que se queme toda la pólvora contenida en su interior.

Empuje de un cohete

La fuerza de propulsión que desarrolla el cohete es igual al producto de la masa de gases que arroja en un segundo por la velocidad de los mismos, es decir:

E = m.v

Por lo tanto si un motor-cohete consume 10 kgs. de propergol por segundo y expulsa los gases a una velocidad de 3.000 metros por segundo, el empuje obtenido sería de:

E=10 . 3000/9.8 =3.061 Km ó 3061 Tm.

(teniendo en cuenta que la masa es igual al peso dividido por la constante gravitatoria 9,8.)

De esta fórmula se desprende que para que el cohete pueda elevarse del suelo, su peso total a plena carga, deberá ser menor que el del empuje producido.

Velocidad final

Aplicando la fórmula de la Dinámica que dice «el momento lineal o la cantidad de movimiento de un sistema es constante», tendremos:

m.v = M.V

siendo m, la masa de los gases expulsados, u, la velocidad de los mismos, M, la masa total del cohete y V, la velocidad en ese momento.

Para saber la velocidad que adquiere el cohete despejamos V en la fórmula anterior y obtenemos:

V=m.v/M

Esta fórmula nos dice que la velocidad del cohete depende de tres factores: su masa, la masa de los gases que expulsa por segundo y la velocidad de éstos.

Por lo tanto para poder aumentar la velocidad del cohete deberemos disminuir su masa (M), aumentar la velocidad del chorro de gases (u) o aumentar la cantidad de gas expulsado por segundo (m), y de ser posible, las tres cosas a la vez.

La cantidad de gas expulsado y su velocidad de salida son constantes pero a medida que va consumiendo su combustible, la masa del cohete disminuye, por lo que la velocidad, del mismo irá aumentando sucesivamente hasta que alcance su límite máximo cuando el combustible se haya acabado por completo.

De esta forma vemos que el cohete despega del suelo con cierta lentitud en principio, para irse acelerando progresivamente a medida que transcurre su vuelo.

Esta característica le permite vencer la resistencia del aire con más facilidad que si saliese despedido a su velocidad máxima como les sucede a los proyectiles disparados por un canon.

Es lógico pensar que si el cohete contiene mayores cantidades de combustible, éste tardará más tiempo en consumirse y por lo tanto la velocidad final aumentará. Este incremento debe tener

un límite y para calcular con exactitud las posibilidades de aumento de la velocidad final, tenemos que utilizar el término «razón de masas», que corresponde al cociente de dividir la Masa total del cohete al despegar (M1) por la Masa final al consumir todo su combustible (M2).

Velocidad de KM/seg. que alcanza un cohete

Velocidad de KM/seg. que alcanza un cohete al final de la combustión en función de la razón de las masas, es decir, la relación entre la masa total en el momento del despegue y la masa al final de la combustión

Así la fórmula que nos dará la velocidad final del cohete, descubierta por Ziolkovsky, es la siguiente:

y = c.loge (M1/M2)

Es decir que la velocidad final (u) será igual al producto de la velocidad de eyección de los gases (c) por el logaritmo neperiano de la razón de masas. (El logaritmo neperiano es igual al logaritmo decimal x 2,3).

Esta velocidad final será exactamente igual a la velocidad de salida de los gases cuando el logaritmo valga 1, es decir cuando la razón de masas valga 2,718 que es la base de los logaritmos neperianos.

Un ejemplo nos ayudará a hacer los cálculos.

Supongamos que un cohete tiene una razón de masas de 3, lo que quiere decir que el combustible representa los dos tercios de su peso total, y que expele los gases a 2.000 m. por seg. La velocidad que alcance al final de la combustión será:

v = 2.000 x loge 3= 2.200 m. por seg.

Si en vez de logaritmos neperianos utilizamos logaritmos decimales, la fórmula se transformará en:

v = 2.000 x log 3 x 2,3 = 2.200 m. por seg.

Si la razón de masas hubiese sido de 10 y los gases se expelen a la misma velocidad de 2.000 m. por seg. la velocidad final sería de:

v= 2.000 x log 10 x 2,3 = 4.600 m. por seg.

Lo que demuestra la importancia que tiene para la velocidad final del cohete el incremento en la razón de masas.

La carga útil :Sin embargo la razón de masas no puede aumentar indefinidamente, pues el cohete está previsto para que transporte algún tipo de elemento que constituiría su carga útil.

Las cápsulas espaciales y sus tripulantes, los satélites artificiales, o los instrumentos de diversos tipos que se envíen al espacio en el cohete serán los componentes de esta carga y limitarán la razón de masas del mismo, si bien, la mayor parte del peso del cohete estará constituida por los propergoles.

 La carga útil llega a ocupar solamente de un 0,4 a un 2 % del peso total del aparato, lo que supone un rendimiento bastante bajo en comparación con cualquier otro vehículo de transporte.

Como en muchos casos no es suficiente un solo cohete para elevar una carga útil determinada, se pueden agrupar varios de ellos en forma de racimo, es decir en paralelo, y encenderlos todos a la vez, de forma que el empuje resultante sea la suma de todos los componentes del grupo.

Hoy día todos los grandes cohetes utilizados en Astronáutica recurren a este procedimiento y así tenemos a los gigantescos Saturno IV y Saturno V americanos, compuestos el primero de ellos por ocho motores en racimo que le proporcionan un empuje total de 745 Tm y el segundo por cinco motores principales, en su primera fase, que a base de quemar oxígeno líquido y queroseno, le proporcionan un empuje de 3.500 Tm.

Primeros Tanques y Cañones en la Segunda Guerra mundial

Armamento: Primeros Tanques y Cañones en la Segunda Guerra Mundial

Sin lugar a dudas los misiles más «famosos» fueron los V-1 y V-2, productos del ingenio de un grupo de científicos germanos entre los cuales se contaba el celebra Wernher von Braun (imagen izq.).

La V-1 era en realidad una bomba voladora desarrollada por la Luftwaffe como un misil tierra-tierra de mediano alcance.

Cientifico Aleman Von BraunSu denominación oficial era Fieseler Fi 103 pero luego fue bautizado: como V-1, por Vergeltungswaffe (es decir,, «el arma de la revancha»).

En líneas generales, la V-1 recordaba más bien a un avión que a un cohete propiamente dicho ya que estaba dotada de alas, timón y estabilizadores.

La impulsaba un pulsorfeactor montado sobre el fuselaje que le daba una velocidad máxima de 645 km/h y un alcance de 240 kilómetros, con un techo operativo de 3.000 metros.

Era catapultada desde una rampa inclinada a una velocidad aproximada de 100 metros por segundo y su principal defecto era la imprecisión de sus disparos, ya que era orientada hacia el blanco elegido y una vez sobre él se apagaba su motor y simplemente descendía planeando hasta hacer impacto «donde cayera».

De todas maneras los londinenses nunca olvidarán el particular sonido de su reactor y el angustiante silencio antes de la explosión.

Mientras tanto, el ejército impulsaba su propio proyecto, oficialmente denominado A-4 y posteriormente rebautizado como V-2, en el centro secreto de investigación de Peenemünde.

Los estudios sobre este cohete se iniciaron a principios de 1940 y recién dos años después se logró llevar a cabo la primera prueba estática.

En realidad el programa de desarrollo no contaba con el apoyo total del Führer, quien lo veía simplemente como un triunfo técnico más que como un arma revolucionaria.

No obstante, y gracias al firme apoyo del ministro de Armamentos, Albert Spéer, en diciembre de 1942 se inició su producción en serie.

En total se construyeron unos 6.000 V-2 aunque sólo fueron disparados aproximadamente la mitad de esa cifra.

De éstos, unos mil hicieron impacto en las Islas Británicas, y el resto cayó en el continente.

Precisamente el primero de ellos explotó en París el 5 de septiembre de 1944 y cuatro días más tarde caían los primeros sobre Londres.

El V-2 desarrollaba una velocidad máxima cercana a los 5.600 km/h, lo que lo hacía inalcanzable para los aviones aliados, mientras que su trayectoria tenía un apogeo de 95 kilómetros con un alcance de 300 km.

El peso total del cohete era de 12.900 Kg. de los cuales 975 eran de explosivos.

Los otros misiles utilizados por los alemanes fueron el Rheinbote, también tierra-tierra, y los aire-tierra Fritz-X y el Henschel Hs 293 y el antitanque X-7. Quedó en la mesa de diseños, entre muchos otros proyectos, el denominado A-9/A-10, que era un cohete V-2 modificado acopiado con otro de mayor poder en lo que iba a constituir el primer ICBM (proyectil balístico intercontinental) de la historia, con un alcance cercano a los 5.000 kilómetros lo que le hubiera permitido atacar a Nueva York. Pero los ingenios bélicos no se limitaron al aire.

También en tierra y mar surgieron, siempre rodeados del mayor de los secretos, armamentos nunca vistos que «reducirían», al decir de sus inventores, la duración de la guerra. ASÍJ en el campo de los blindados, los británicos desarrollaron un tanque pesado de asalto de 78 toneladas de peso equipado con un cañón de 32 libras.

Su nombre que al mismo tiempo resulta su mejor y más sintética descripción, era «Tortoise» (tortuga).

También los norteamericanos desarrollaron un tanque superpesado que denominaron T-28 y que alcanzó 75 toneladas de peso. Dotado con un cañón de 105 mm. y un blindaje máximo de 205 mm., apenas desarrollaba 15 km/h. P

ero, una vez más, los alemanes superaron todo lo visto hasta el momento con el Maus (ratón).

Proyectado por el Dr. Ferdinand Porsche a partir de 1942, sólo se llegó a construir un prototipo de este tanque-monstruo al que sorprendió el final de la guerra sin estar concluido.

Tanque "Maus"
Tanque «Maus»

El Maus pesaba 188 toneladas y estaba artillado con dos cartones uno de 128 mm. de calibre y otro de 75 mm.

Poseía un motor de 1.375 caballos de fuerza con transmisión eléctrica lo que le daba una velocidad máxima de algo menos de 20 km/h.

Para confirmar la antigua puja entre blindaje y proyectil, ambos bandos en pugna diseñaron una infernal variedad de cañones antitanque que disparaban distintos tipos de proyectiles perforantes que doblegaban a los gruesos blindajes.

Durante la última contienda se desarrollaron también los cañones sin retroceso que llegaban a ser tan livianos y manuables que podían ser disparados desde el hombro por un solo soldado, como el conocido «bazooka» norteamericano.

En materia de armas de puño resalta como curioso un aditamento, llamado Krumrnlauf, que permitía, literalmente, disparar «a la vuelta de la esquina».

Consistía de un cañón curvado en unos 45° con un visor especial y estaba pensado para disparar desde vehículos blindados a soldados que hubieran conseguido ubicarse junto a los lados, fuera del alcance de las armas normales.

Los alemanes también desarrollaron una gran variedad de aparatos de puntería mediante rayos infrarrojos para disparos nocturnos y una ametralladora, la MP-43 que sería la antecesora de los modernos rifles de asalto.

No todos los ingenios se referían exclusivamente a armas propiamente dichas, ya que fueron de decisiva importancia los adelantos logrados por los británicos en materia de radares y sonares —el primero en la guerra aérea y el segundo en la lucha antisubmarina— en los que se mantuvieron siempre un paso adelante de los técnicos alemanes.

Por su parte, los germanos contaban con el Schnorkel, un ingenioso dispositivo que permitía la provisión del oxígeno vital para tripulaciones y máquinas de los submarinos, mientras permanecían sumergidos.

Una sencilla válvula flotante impedía que el agua entrara al sistema.

Pero fue en el último año de la guerra, en 1945, cuando realmente se alcanzó la cumbre tanto en lo que hace al desarrollo científico y tecnológico estadounidense como en el máximo secreto del que fue rodeado el proyecto.

También fue la cumbre del horror y la destrucción. Se llamó Hiroshima y Nagasaki: y fue la Bomba Atómica

Fuente Consultada: Revista Historia N°148 Año 1979

Evolucion de la Aviacion Durante La Segunda Guerra Mundial

Evolución de la Aviación Durante La Segunda Guerra Mundial: Armas Secretas

LOS AVIONES DE GUERRA Y ARMAS SECRETAS

Al hablar de las armas secretas utilizadas durante la Segunda Guerra Mundial, especialmente las alemanas, resulta casi inevitable que las primeras que vengan a la mente sean la V-1 y su hermana mayor, la V-2

Casi podrían considerarse como las más representativas, al menos en lo que hace a su conocimiento por parte del público, de esa guerra paralela librada por técnicos y científicos de ambos bandos para intentar superarse con logros cada vez más sofisticados y cada vez más destructivos.

Es indudable que en esta contienda tecnológica los alemanes fueron mucho más allá que sus enemigos en el desarrollo de armamentos, ya sea si consideramos su cantidad o los variados campos que cubrieron.

Sus diseños en materia de cohetería, por ejemplo, fueron la base para el desarrollo, una vez finalizada la contienda, de la investigación espacial norteamericana y, en menor proporción, de la soviética.

Obviamente, todas las nuevas armas debían estar rodeadas del más riguroso secreto hasta llegar el momento de su entrada en acción.

Y aun entonces las medidas de seguridad no eran totalmente dejadas de lado y así, por ejemplo, se trataba de evitar por todos los medios que un nuevo diseño cayera intacto en manos del enemigo.

En cuanto uno de los bandos entraba en conocimiento, o sospechaba, de lo que el otro estaba planeando, inmediatamente sus propios científicos se apresuraban a desarrollar los medios para contrarrestarlo o superarlo con un diseño propio.

De ahí el halo de misterio que rodeaba a todos los proyectos y las consiguientes intrigas de espías y contraespías, los minuciosos informes de inteligencia y las acciones de sabotaje.

Aunque no todo lo planeado en las mesas de diseño llegaba al campo de batalla.

En realidad los que llegaron a un estado operativo sólo fueron una mínima parte del total de lo proyectado.

Así, en el campo de la aeronáutica, de un total de cerca de 40 proyectos de aviones a reacción diseñados por los alemanes.

Una veintena no logró despegar siquiera de las mesas de dibujo, y del resto, aunque llegaron a la faz operativa, solamente tres aviones entraron en combate.

De todas maneras superaron ampliamente a los aliados que no lograron desplegar más que un modelo de aeronave impulsada por turbinas: nuestro viejo conocido el Gloster «Meteor».

Precisamente cinco días antes de que estallara la Guerra, el 27 de agosto de 1939, levantaba vuelo en Alemania el primer avión impulsado por turbinas del mundo.

Era la culminación de los estudios iniciados tres años antes por el Dr. Hans Joachim Pabst von Ohain, quien fuera contratado por Ernst Heinkel para trabajar en su fábrica, y que llevaron a ese primer aparato: el Heinkel He 178. (imagen abajo)

Joachim Pabst von Ohain

Sin embargo, este prototipo no fue desarrollado debido a problemas insolubles en ese momento derivados de la instalación de la turbina dentro del fuselaje, por lo que fue dejado de lado en favor de otros proyectos.

En realidad el primer avión de combate en operación fue el Messerschmitt Me 262 (foto abajo), que entro en servicio en la  segunda mitad de 1944, cuando ya era tarde para volcar el resultado de la contienda.

Cabe destacar que los diseños de esta máquina databan de varios años antes y se ordenó la construcción de los primeros prototipos a principios de 1940, pero la creencia por parte de la cúpula alemana que la guerra iba a terminar «muy pronto» motivó que el proyecto se viera demorado hasta que el curso desfavorable de las acciones bélicas los llevó a impulsar otra vez su desarrollo.

 Messerschmitt Me 262
Messerschmitt Me 262

La entrada en servicio del Me 262 significó no sólo el inicio de la era del jet, sino también un verdadero problema para los aliados que solamente podían oponerle el caza a hélice P-47 Thuderbolt (imagen abajo), el que, a pesar de su gran maniobrabilidad, era superado en velocidad por más de 100 km/h.

No obstante, otro error táctico por parte de Hitler y sus generales hizo que el Me 262 fuera usado en distintos tipos de operaciones en las que no rendía tan buenos resultados como cuando desempeñaba su rol principal de avión de caza.

P-47 Thuderbolt
P-47 Thuderbolt

El segundo jet en servicio durante la guerra también fue alemán, era el Arado Ar 234 Blitz, diseñado como bombardero y avión de reconocimiento.

Al igual que el Me 262 era impulsado por dos turbinas ubicadas debajo de las alas y además estaba dotado de una cabina presurizada y asientos eyectables.

El otro avión a reacción que logró entrar en acción fue el Messerschmitt Me 163 Komet.

Al contrario de sus dos hermanos de armas, el Komet estaba impulsado por un motor cohete —y no por turbinas— que le permitía alcanzar una velocidad por ese entonces fabulosa: 950 km/h, si bien sólo podía mantenerla por escasos tres minutos que era el tiempo que demoraba en consumir el combustible.

Evolucion de la Aviacion Messerschmitt Me 163 Komet
Messerschmitt Me 163 Komet

En una oportunidad, el 2 de octubre de 1941, un Me 163 fue remolcado hasta 3.500 metros de altura por un avión de hélice —con el fin de ahorrar el combustible— y una vez alcanzada esa cota encendió su motor cohete y aceleró hasta alcanzar los 1.004,5 km/h.

De esa manera se superaba por primera vez la «mágica» barrera de los mil kilómetros horarios.

Al llegar a ese punto piloto se vio obligado a cortar el motor debido a las vibraciones en el fuselaje y a una súbita entrada en picada.

El Komet fue empleado para interceptar los masivos bombarderos aliados y tuvo su bautismo de fuego en agosto de 1944 con bastante éxito.

Sin embargo, aunque se llegaron a construir unos 300 aviones, sólo lograron nueve derribos hasta el fin de la Guerra.

El sucesor del Komet fue el Messerschmitt Me 263 (foto abajo), un avión de diseño muy parecido al Me 163 al que se le introdujeron varias reformas para mejorar su performance.

El primer prototipo voló a fines de 1944 y la orden para su producción masiva llegó, como tantas otras, cuando ya era imposible llevarla a cabo.

De los otros aviones a reacción que llegaron a despegar, ya sea impulsados por turbinas o motores-cohete, merecen destacarse el DFS 228, proyectado en el marco de un programa de investigación de vuelos supersónicos a gran altitud y utilizado posteriormente como avión de reconocimiento.

 Messerschmitt Me 263
Messerschmitt Me 263

Su silueta característica de grandes alas rectas, unida a su gran capacidad de planeo, recuerdan inmediatamente al muy posterior avión-espía utilizado por los Estados Unidos, el U-2 y que protagonizara en los años ’50 resonado episodio cuando cayó, junto con su piloto, en territorio de la Unión Soviética.

La desesperación por poner en servicio nuevas y decisivas armas que harían dar «un vuelco total» al curso de la guerra, según sostenía Adolf Hitler, llevaron a que, a fines de 1944, se buscara un caza veloz pero a bajo costo.

Influencia del Romanticismo Aleman en la Ideologia NAZI ...

Así, en el tiempo récord de algo más de dos meses se diseñó, construyó y voló el Heinkel He 162, llamado Volksjáger (caza del pueblo).

No se fabricó en gran cantidad y los que alcanzaron a volar fueron también muy pocos, lo que tal vez fue una suerte para los pilotos alemanes ya que defectos de diseño hacían muy difícil su vuelo estable.

Heinkel He 162,
Heinkel He 162,

Otro diseño bastante particular fue el del bombardero pesado Junkers Ju 287, un tetrarreactor que tenía dos de sus turbinas bajo las alas y las otras dos ubicadas en el fuselaje debajo de la cabina y a ambos lados de la misma.

Lo sorprendente de este avión era la configuración poco ortodoxa de sus alas que eran en flecha invertida (es decir, inclinadas en un ángulo de 25° hacia adelante), para permitirle alcanzar altas velocidades.

do también una serie de aviones provistos de motores cohete de diseño muy simple y poco sofisticados, como un intento de interceptar a los cada vez más numerosos bombarderos aliados.

Ninguno de ellos fue construido en gran número y finalmente fueron dejado de lado en favor de otros proyectos.

Por su parte, los aliados no pudieron poner en servicio más que un solo avión a turbinas, el británico Gloster «Meteor«, aunque sólo lo hizo en las postrimerías de la guerra.

De todas maneras se adjudicó varios derribos de bombas voladoras V-1.

Si bien los norteamericanos, habían iniciado los trabajos de un avión jet en 1941, no fue hasta octubre del año siguiente que voló el primer prototipo.

Se trataba del Bell XP-59 Airacomet, una aeronave dotada de una turbina que le otorgaba una velocidad final un poco mayor que la de los aviones convencionales con motor a pistón.

De todas maneras no llegó a entrar en servicio.

Evolucion de la Aviacion Bell XP-59 Airacomet

Pero tal vez sea en el campo de la cohetería donde se encuentran las armas más espectaculares y de una tecnología realmente de avanzada, que en la posguerra constituyeron la base para el desarrollo de la investigación espacial de aquellos que debían ser sus víctimas.

Sin lugar a dudas los misiles más «famosos» fueron los V1 y V2, productos del ingenio de un grupo de científicos germanos entre los cuales se contaba el celebra Wernher von Braun.

Vida de Von Braun y el Saturno 5: El Cohete Para la Mision Apolo ...

La V1 era en realidad una bomba voladora desarrollada por la Luftwaffe como un misil tierra-tierra de mediano alcance.

Su denominación oficial era Fieseler Fi 103 pero luego fue bautizado: como V1, por Vergeltungswaffe (es decir,, «el arma de la revancha»).

En líneas generales, la V1 recordaba más bien a un avión que a un cohete propiamente dicho ya que estaba dotada de alas, timón y estabilizadores.

La impulsaba un pulsoreactor montado sobre el fuselaje que le daba una velocidad máxima de 645 Km./h y un alcance de 240 kilómetros, con un techo operativo de 3.000 metros.

Era catapultada desde una rampa inclinada a una velocidad aproximada de 100 metros por segundo y su principal defecto era la imprecisión de sus disparos, ya que era orientada hacia el blanco elegido y una vez sobre él se apagaba su motor y simplemente descendía planeando hasta hacer impacto «donde cayera».

De todas maneras los londinenses nunca olvidarán el particular sonido de su reactor y el angustiante silencio antes de la explosión.

Mientras tanto, el ejército impulsaba su propio proyecto, oficialmente denominado A4 y posteriormente rebautizado como V2, en el centro secreto de investigación de Peenemünde.

Los estudios sobre este cohete se iniciaron a principios de 1940 y recién dos años después se logró llevar a cabo la primera prueba estática.

En realidad el programa de desarrollo no contaba con el apoyo total del Führer, quien lo veía simplemente como un triunfo técnico más que como un arma revolucionaria.

No obstante, y gracias al firme apoyo del ministro de Armamentos, Albert Spéer, en diciembre de 1942 se inició su producción en serie.

En total se construyeron unos 6.000 V2 aunque sólo fueron disparados aproximadamente la mitad de esa cifra.

De éstos, unos mil hicieron impacto en las Islas Británicas, y el resto cayó en el continente.

Precisamente el primero de ellos explotó en París el 5 de setiembre de 1944 y cuatro días más tarde caían los primeros sobre Londres.

El V2 desarrollaba una velocidad máxima cercana a los 5.600 Km./h, lo que lo hacía inalcanzable para los aviones aliados, mientras que su trayectoria tenía un apogeo de 95 kilómetros con un alcance de 300 Km.

El peso total del cohete era de 12.900 Kg. de los cuales 975 eran de explosivos.

Los otros misiles utilizados por los alemanes fueron el Rheinbote, también tierra-tierra, y los aire-tierra FritzX y el Henschel Hs 293 y el antitanque X7.

Quedó en la mesa de diseños, entre muchos otros proyectos, el denominado A9/A10, que era un cohete V2 modificado acopiado con otro de mayor poder en lo que iba a constituir el primer ICBM (proyectil balístico intercontinental) de la historia, con un alcance cercano a los 5.000 kilómetros lo que le hubiera permitido atacar a Nueva York.

Pero los ingenios bélicos no se limitaron al aire.

También en tierra y mar surgieron, siempre rodeados del mayor de los secretos, armamentos nunca vistos que «reducirían», al decir de sus inventores, la duración de la guerra.

ASÍ en el campo de los blindados, los británicos desarrollaron un tanque pesado de asalto de 78 toneladas de peso equipado con un cañón de 32 libras.

Su nombre que al mismo tiempo resulta su mejor y más sintética descripción, era «Tortoise» (tortuga).

También los norteamericanos desarrollaron un tanque superpesado que denominaron T28 y que alcanzó 75 toneladas de peso.

Dotado con un cañón de 105 mm. y un blindaje máximo de 205 mm., apenas desarrollaba 15 Km./h.

Pero, una vez más, los alemanes superaron todo lo visto hasta el momento con el Maus (ratón).

Proyectado por el Dr. Ferdinand Porsche a partir de 1942, sólo se llegó a construir un prototipo de este tanque-monstruo al que sorprendió el final de la guerra sin estar concluido.

Dr. Ferdinand Porsche

El Maus pesaba 188 toneladas y estaba artillado con dos cartones uno de 128 mm. de calibre y otro de 75 mm.

Poseía un motor de 1.375 caballos de fuerza con transmisión eléctrica lo que le daba una velocidad máxima de algo menos de 20 Km./h.

Para confirmar la antigua puja entre blindaje y proyectil, ambos bandos en pugna diseñaron una infernal variedad de cañones antitanque que disparaban distintos tipos de proyectiles perforantes que doblegaban a los gruesos blindajes.

Durante la última contienda se desarrollaron también los cañones sin retroceso que llegaban a ser tan livianos y manuables que podían ser disparados desde el hombro por un solo soldado, como el conocido «bazooka» norteamericano.

En materia de armas de puño resalta como curioso un aditamento, llamado Krumrnlauf, que permitía, literalmente, disparar «a la vuelta de la esquina».

Consistía de un cañón curvado en unos 45° con un visor especial y estaba pensado para disparar desde vehículos blindados a soldados que hubieran conseguido ubicarse junto a los lados, fuera del alcance de las armas normales.

Los alemanes también desarrollaron una gran variedad de aparatos de puntería mediante rayos infrarrojos para disparos nocturnos y una ametralladora, la MP43 que sería la antecesora de los modernos rifles de asalto.

No todos los ingenios se referían exclusivamente a armas propiamente dichas, ya que fueron de decisiva importancia los adelantos logrados por los británicos en materia de radares y sonares —el primero en la guerra aérea y el segundo en la lucha antisubmarina— en los que se mantuvieron siempre un paso adelante de los técnicos alemanes.

Por su parte, los germanos contaban con el Schnorkel, un ingenioso dispositivo que permitía la provisión del oxígeno vital para tripulaciones y máquinas de los submarinos, mientras permanecían sumergidos.

Una sencilla válvula flotante impedía que el agua entrara al sistema.

Pero fue en el último año de la guerra, en 1945, cuando realmente se alcanzó la cumbre tanto en lo que hace al desarrollo científico y tecnológico estadounidense como en el máximo secreto del que fue rodeado el proyecto.

También fue la cumbre del horror y la destrucción.

Se llamó Hiroshima y Nagasaki: y fue la Bomba Atómica.

Temas Relacionados

Historia de la Aviacion Comercial Aviones Boeing 707
Los Primeros Vuelos-La Era de la Aviacion en el Siglo XX Historia
Otto Lilienthal Creador del Primer Planeador
Pedro Zanni Record de Vuelo
Historia de los Primeros Aviones de Guerra Argentinos
Lindbergh Cruzó Sin Escalas y Solo el Oceano Atlantico
MACH:Unidad Para Medir La Velocidad de los Aviones

Enlace Externo: Historia de Aviones

Historia del Uso de las Armas Quimicas y Biologicas en la Guerra

HISTORIA DEL USO DE ARMAS QUÍMICAS Y BIOLÓGICAS EN LA GUERRA

“Se define como guerra biológica el uso intencional de organismos vivos o sus productos tóxicos para causar muerte, invalidez o lesiones en el hombre, animales o plantas.

Su objetivo es el hombre, ya sea causando su muerte o enfermedad o a través de la limitación de sus fuentes de alimentación u otros recursos agrícolas.

El hombre debe sostener una continua batalla para mantenerse y defenderse a sí mismo, a sus animales y a sus plantas, en competición con insectos y microbios.

El objeto de la guerra biológica es malograr estos esfuerzos mediante la distribución deliberada de gran número de organismos de origen local o foráneo, o sus productos tóxicos, haciendo uso para ello de los medios más efectivos de diseminación y utilizando puertas de entrada inusuales.

La guerra biológica ha sido adecuadamente descrita como salud pública al revés.” .

Del folleto Efectos de los agentes de la guerra biológica, publicado por el Departamento de Salud, Educación y Bienestar de los Estados Unidos de Norteamérica, en julio de 1959.

BREVE HISTORIA DEL USO DE ARMAS QUÍMICAS O GASES:

Un examen minucioso del papel que representaron los productos químicos en la Guerra Europea será no sólo interesante, sino también agradable narración, por la que se conocerán métodos nuevos y detalles atractivos para adaptar la ciencia moderna a los medios de producir la ruina de los pueblos y esparcir el dolor y la muerte.

USO DE ARMAS QUIMICAS

Es la descripción de cuanto pudo hacerse con rapidez sorprendente para suministrar a los ejércitos combatientes productos químicos, como los gases asfixiantes, aquellos que producían lágrimas y las variedades que obligaban a estornudar, con los gases tóxicos, líquidos inflamables, etc., etc.; del esfuerzo colosal llevado a cabo por los químicos de los países aliados para descubrir los medios de estorbar o impedir los efectos de este nuevo y espantoso método de ataque alemán, así como el éxito de los servicios diversos de los suministros militares en los Estados Unidos y el extranjero, acertando a castigar al enemigo con sus mismos procedimientos.

Los gases venenosos no se emplearon como medio de ataque por primera vez en la última guerra: 431 años antes de Cristo los espartanos saturaban la madera con pez y azufre, quemándola para asfixiar al enemigo.

Más tarde emplearon también flechas incendiarias, y los griegos utilizaron productos diversos químicos para incendiar y «disparar».

Durante la guerra civil en Norteamérica se emplearon los humos producidos al quemar el azufre para que el viento los llevase en dirección del bando contrario.

Como se ve, la aplicación no es nueva, y su marcha progresiva siguió el mismo paso que el avance en las investigaciones químicas y los perfeccionamientos técnicos en otros suministros militares en armonía con los tiempos.

El término «gas», en cuanto a suministros militares se refiere, quiere decir materiales que causan daño cuando se mezclan con el aire y se envían contra el enemigo.

El término indica su condición original y puesto que además pueden encerrarse dentro de las granadas, bombas o cilindros.

En cada caso, los gases son en realidad líquidos o sólidos que al romperse el depósito o artificio que los contiene se volatilizan o se generan, debido a la presión o fuerza explosiva.

Son generalmente de tres clases: persistentes, no persistentes e irritantes.

Otro importante grupo empleado con fines militares lo forman los llamados «humos», los cuales pueden ser venenosos o simplemente utilizarse sólo para ocultar al enemigo los movimientos de las tropas.

Los gases venenosos se emplearon por primera vez en la reciente guerra el 23 de abril de 1915, utilizando los alemanes el cloro (gas oximuriático) contra las líneas francesas e inglesas en el saliente de Yprés.

Un desertor había dado a conocer las intenciones del enemigo; pero no creyendo los aliados que Alemania violase las reglas establecidas en La Haya, no dieron importancia a este aviso, y, por tanto, no se tomaron serias medidas de protección contra ellos.

He aquí cómo describe los resultados Auld en su obra Gas y llama:

«Imaginaos, si es posible, la situación y estado de ánimo de aquellas tropas, al ver una extensa nube de ceniciento gas amarillo brotando del suelo y arrastrándose, empujado por el viento hacia ellos; los vapores quemaban la tierra, introduciéndose por las grietas y huecos, llenando los agujeros hechos por las granadas y las trincheras según iba acercándose.

Al principio, el asombro; después, el miedo, y por último, cuando las primeras capas de la nube envolvieron y dejaron a los hombres sin aliento y agonizantes, si pánico. Los que podían moverse huyeron, aunque en general en vano, pues la despiadada nube los seguía y alcanzaba.»

El 22 de abril de 1915 los alemanes lanzaron sobre las líneas francesas en Ypres una nube de gas de cloro, matando a más de 5.000 soldados y produciendo otras 10.000 bajas.

El desastre fue tal que la línea del frente se quebró, abriendo a los alemanes el camino del Canal de la Mancha.

Pronto empezaron las técnicas de defensa y a fines de abril de 1915 los Aliados inauguraron el uso de máscaras antigás en los frentes de combate.

Se inició una escalada continua de gases tóxicos y técnicas paliativas, que culminé con el uso masivo del mortífero gas de mostaza (iplirita).

Aunque éste no fue usado hasta la última parte de la guerra, se estima que produjo 400.000 bajas.

Se calcula que en total ambos bandos insumieron 124.200 toneladas de gases tóxicos en la contienda.

Los horrores de la guerra química y la presencia en los países europeos de miles y miles de veteranos «gaseados”, inválidos condenados a una supervivencia de hospital, impactaron de tal modo a la opinión pública internacional que se convocó a la Conferencia que en Ginebra en 1955 convino a prohibición de todo uso de gases asfixiantes, venenosos e incapacitantes.

El Protocolo de Ginebra fue firmado por 32 naciones —entre las que  no estaban ni Japón ni los Estados Unidos— y abiertamente violada aún antes del comienzo de la Segunda Guerra Mundial: en 1936 las tropas de Mussolini emplearon el gas de mostaza contra los etíopes durante la Campaña de Abisinia.

Después de la Segunda Guerra Mundial, las armas bacteriológicas reaparecieron en la Guerra de Corea.

En febrero de 1952 se denunció el uso que de ellas hacían los Estados Unidos. Para comprobar estas denuncias se formó la Comisión Científica Internacional para las investigación de los hechos concernientes a la guerra bacteriológica en Corea y en China, integrada por científicos de renombre de varios países.

Esta comisión concluyó, tras una larga investigación que «los pueblos de Corea y China  han servido de blanco para las armas bacteriológicas.

Estas armas fueron usadas en destacamentos del ejército de los Estados Unidos, que utilizó para este fin muchos y variados métodos, algunos de los cuales son continuación» de los métodos utilizados por el ejército japonés en la Segunda Guerra Mundial”.

Se produjo un informe de 700 páginas, presentado ante las Naciones Unidas en octubre de 1952, citando el uso de moscas, piojos, mosquitos, roedores, conejos y otros animales pequeños infectados con gérmenes de cólera, antrax, peste bubónica y fiebre amarilla.

Los Estados Unidos refutaron los cargos y las Naciones Unidas nunca se pronunciaron.

EL PRESIDENTE KENNEDY Y LA GUERRA QUÍMICA:

John Fitzgerald Kennedy llegó al poder con algunas ideas fijas. Entre ellas estaba su plan para flexibilizar una posible respuesta militar norteamericana, hasta entonces enmarcada rígidamente en el uso de dispositivos nucleares.

Biografia de John Kennedy Gobierno y Magnicidio – BIOGRAFÍAS e HISTORIA  UNIVERSAL,ARGENTINA y de la CIENCIA

J. F. K. sabía que el futuro de su país estaba poblado por guerras limitadas, en las cuales, por razones políticas, se haría muy difícil si no imposible utilizar todo el arsenal nuclear táctico.

Los conflictos limitados deberían pues enfrentarse con métodos nuevos, que aseguraron una gran versatilidad de respuestas que se adecuaran a requerimientos tácticos variables

Por empezar hacía falta un nuevo tipo de soldado de élite, superentrenado para operar con la mayor independencia y en el cual la esencial neutralidad ideológica del conscripto se reemplazara por una formación política adecuada que le permitiera matar, torturar y sabotear con cabal conocimiento de causa.

Este soldado debía ser no sólo un operador sino un formador de cuadros cívico-militares nativos de los países invadidos. Así surgió el cuerpo de los “green berets» (boinas verdes).

Los teatros de operaciones de estas nuevas guerras limitadas prometían dificultades insalvables para las armas convencionales.

Hacía falta utilizar transportes de un nuevo tipo, de operación vertical, gran autonomía y capaces de prestar apoyo efectivo a las fuerzas terrestres.

Luego de un comienzo tímido en manos de los franceses durante la guerra de Indochina, el helicóptero pasó a primer plano y se convirtió en uno de los principales instrumentos bélicos en Vietnam.

Las tácticas antiguerrilleras encontraron así expuestas novedosas: un nuevo tipo de soldado, multifacético y politizado, y el uso sistemático del helicóptero para contrarrestar la sorpresa y el empleo de terrenos escabrosos por parte de la guerrilla.

Hacía falta, sin embargo, algo más. Ni los boinas verdes ni los helicópteros alcanzaban ya para luchar con efectividad en Vietnam, donde las densas selvas tropicales, obstaculizaban la detección de francotiradores, impedían localizar las emboscadas, disimulaban los objetivos de la aviación y de la artillería.

Por otra parte, dan las características de la lucha guerrillera —donde según Mao (en un texto citado por todos los estrategas norteamericanos de la última década) “el combatiente es como un pez que nada en el agua que es su pueblo”— era importante “secar el estanque”, es decir, cortar la conexión logística y su base de apoyo popular.

O más simplemente aún, dejarlo sin sustento.

El presidente Kennedy no podía rehuir el compromiso del siglo, es decir, la exploración de los fértiles campos de la ciencia para encontrar nuevas armas espectaculares.

Y aunque los orígenes de su fortuna familiar no lo entroncaban con los fundadores del “establishment” (el contrabando de alcohol durante la Ley Seca era demasiado reciente en la maculada foja de su padre) había vivido en Massachussetts y se había educado en Harvard.

La ubicación geopolítica del asesinado presidente norteamericano es importante para comprender lo naturalmente que accedía a los pináculos de la ciencia norteamericana.

El núcleo científico de los Estados Unidos tiene uno de sus centros en Boston, Massachussetts. Harvard y el M. I. T. (Instituto Tecnológico de Massachussetts) represen­tan el paradigma de la acumulación de poder científico y político en los Estados Unidos.

El 25 por ciento de los miembros de la célebre “National Academy of Science” provienen de estas dos instituciones.

De entre 300 universidades, el M. I. T. mantuvo hasta hace un año el record absoluto de contratos con el Departamento de Defensa de los Estados Unidos.

Esta colaboración estrecha entre el gobiernofederal y las universidades comenzó durante la Segunda Guerra Mundial —con el desarrollo del radar, de las bombas atómicas, la investigación operativa, la computación, los misiles y la sociología aplicada— pero quedó definitivamente entronizada y reforzada con el pasaje del tiempo y la continuación de la guerra (Corea, la Guerra Fría, el apoyo a la guerra, colonial francesa).

Kennedy estaba en muy buenas relaciones con el “establishment’ científico.

Su política interior le había valido el apoyo electoral de la universidad. Salvo degenerados sociales como Teller o Seaborg, los grandes popes de la academia coincidían con él en la necesidad de evitar holocaustos nucleares, pactar con la Unid Soviética y buscar otros métodos para la lucha contra el comunismo.

Entusiastas con la actitud de Kennedy en todo lo referente a la cultura —un verdadero oasis en el perpetuo desierto el anti-intelectualismo norteamericano del que Goldwater, Nixon y Wallace son ejemplos contundentes— coincidieron con el presidente en la necesidad de aguzar el ingenio para diseñar armas “piadosas”.

Además, J. F. k. era un asiduo lector de lan Fleming, el autor de “James Bond”.

La euforia cientificista de la Casa Blanca llevaba los asesores de Kennedy a verdaderos delirios salvacionistas, en los que se visualizaban grandes batallas ganadas mediante gases soporíferos que tumbaban sin más consecuencia que un corto sueño reparador, a ejércitos enemigos, sólo por el tiempo necesario para hacerlos prisioneros.

Frente a la destructividad sin limite de las armas nucleares —que nunca cesaron de desarrollarse y perfeccionarse— o de las nuevas armas convencionales —cada vez más mortíferas— la farmacología, la toxicología y la microbiología modernas aportaban teóricamente una posibilidad de diseño de dispositivos efectivos pero carentes de letalidad.

Además, uniendo lo útil con lo agradable, los gastos de producción e investigación en farmacología, toxicología y microbiología son ridículamente bajos si se los compara con los del desarrollo de armas nucleares.

Las Ventajas:

El “U. S. Army Field Manual FM3-10” titulado “Empleo de agentes químicos y biológicos” dice textualmente:

Capacidad de búsqueda (search capacity): Los agentes biológicos «anti personales» puede ser diseminados, en concentraciones efectivas para producir bajas, sobre superficies extremadamente amplias. Muchos kilómetros cuadrados pueden ser efectivamente cubiertos por un solo avión o misil.

La «capacidad de búsqueda»

de las nubes de agentes biológicos y la dosis relativamente pequeñas se necesitan para causar infecciones entre la tropa dan a las municiones biológicas la capacidad de cubrir grandes áreas donde los objetivos militares no están precisados con exactitud pero donde los informes de los servicios de inteligencia hacen suponer que pueden existir tropas enemigos..

Ausencia de aviso:

Un ataque biológico puede ocurrir sin dar ningún aviso ya que los agentes biológicos pueden ser diseminados, mediante sistemas de armamentos que no llaman la atención, un área considerablemente alejada del blanco ya que se cuenta con el movimiento del aire para llevar el agente a su objetivo.

Los agentes biológicos no pueden ser detectados por los sentidos sin ayuda de instrumentación adecuada.

La detección y la posible identificación de los mismos requiere por lo general una apreciable cantidad de tiempo y técnicas de laboratorio complicadas (que por supuesto no están a disposición de unidades guerrilleras).

«Penetración de estructuras»:

Las nubes de agentes biológicos pueden penetrar fortificaciones, refugios y otras estructuras (incluyendo bunkers y túneles subterráneos) desprovistos de filtros adecuados.

Esta capacidad provee un medio para atacar tropas que se encuentran en fortificaciones tales que constituyen un blanco difícil para municiones dotadas de explosivos de alto poder o para armas nucleares de potencia reducida.

«La no destrucción de material y estructuras«:

Los agentes biológicos antipersonales llevan a cabo su cometido sin destruir físicamente —o afectando muy poco— sus blancos. Esto constituyen una ventaja en (. .) operaciones de combate, donde puede ser necesario conservar esas estructuras para las fuerzas amigas.”

Los antecedentes:

Cuarenta años duró la soledad, el cruel aislamiento en que vivían los militares y científicos  del “Army Chemical Corps” (ACC), ignorados por el Estado Mayor, despreciados por las universidades y amenazados cotidianamente solución como organismo.

Hartos ya de tantas postergaciones, decidieron en 1959 de la ofensiva lanzando en combinación con la Anned Forcas Chemical Association” -un grupo de militares e industriales directamente subvencionados por las principales corporaciones químicas norteamericanas— una campaña publicitaria denominada “Operación Cielos Azules”.

Era el momento del auge de los psicofármacos, y por radio y televisión y la prensa  sescrita estos profetas de la guerra química predicaron el evangelio de las armas «incapacitantes», con su sloganhacia una guerra sin muerte”. Los grupos de presión parlamentarios de la industria química completaron el movimiento de pinzas (la muy importante Comisión de Ciencia y Aeronáutica de la Cámara de Representantes se. puso de su lado) y en 1961 el “Army Chemical Corps” se vio súbitamente sumergido en dólares, constituyéndose en el núcleo central de un programa interdisciplinario en “Chemical Andbiologícal Warfare” (Guerra Química y Biológica).

De ahí en mas, nadaron literalmente en dinero.

El presupuesto inicial (1961) fue de 57 millones de dólares; en 1965 habla ascendido a 155 millones, pero esta cifra es parcial ya que en concepto de “adicionales” había recibido otros 117 millones;

En 1969, el monto de “adicionales” había sido candorosamente sumergido en el rubro de secreto militar.

Y además de este presupuesto líquido, están los  fondos suplementarios para la construcción de edificios y su equipamiento.

El instituto más importante –y más publicitado– de la “Army Chemical Corps” era Fort Detrick, en Maryland, que ocupaba un área de 1.300 acres y tiene un complejo edilicio evaluado en 75 millones de dólares.

De acuerdo con el folleto editado por Fort Detrick para atraer investigadores, el establecimiento era “una de las granjas de animales más grande del mundo” donde los equipos para estudiar los organismos patogénicos (serán) los mejores del mundo.

A fines de 1970, Fort Detrick fue desmantelado como parte de la campaña con que el gobierno del presidente Nixon pretendió publicitar sus aperturas pacifistas”.

Biografía de Richard Nixon-Política de su Gobierno con Vietnam – BIOGRAFÍAS  e HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA

Lo peculiar de Fort Detríck no residía en su tamaño ni en sus equipos. Mientras un reducido número de sus 600 científicos trabajaban en temas de microbiología básica, el resto del equipo se dedicaba a programas que tenían la cualidad de invertir el principio fundamental de la medicina y la salud pública: en forma coordinada se buscaba reforzar, perfeccionar, la capacidad patogénica de ciertos microorganismos cuidadosamente elegidos; y entre los casos en que se investigaba la producción de vacunas protectoras contra ciertas infecciones, los resultados eran, del más clasificado secretos militar.

Sólo el 15 por ciento de los resultados científicos recogidos anualmente en Fort Detrick aparecieron publicados en revistas científicas convencionales, accesibles.

El resto forma parte de la literatura secreta administrada por el Departamento de Defensa y sólo accesible en parte para otras agencias gubernamentales y firmas que realizan trabajos para el gobierno.

Fuente Consultada: Enciclopedia de los Grandes Fenómenos del Siglo XX Tomo 3

Temas Relacionados:

• Primeras Armas de Fuego :Uso de la Polvora,Mosquete y Pistolas
• Evolucion Tecnologica de las Armas de Guerra:Historia
• Armas de la Segunda Guerra Mundial Ametralladora Inglesa
• Armas en la edad Media Historia de las Armas Arco Largo Mosquete
• Armas Biológicas o Químicas Para El Terrorismo Mundial
• Historia del uso de las Armas Quimicas
• Caracteristicas del Bombardero Aleman Stuka
• Avion Caza Bell Usado en la Guerra Mundial

Enlace Externo:• Armas biológicas a través de la historia

Uso de Armas Químicas en la Primera Guerra Mundial:Gas Mostaza

Uso de Armas Químicas en la Primera Guerra Mundial:El Gas Mostaza

GUERRA QUIMICA: Se conoce con este nombre en el mundo de la estrategia y acción militar el empleo de sustancias químicas y organismos productores de enfermedades utilizados como armas de guerra.

La guerra química comenzó con el uso del cloro durante la Primera Guerra Mundial.

Desde entonces se han desarrollado muchos otros agentes químicos que pueden ser usados con tales fines.

Al mismo tiempo, también se han estudiado métodos para difundir enfermedades entre el enemigo.

Pero muy pocos de estos agentes han sido utilizados realmente como armas, porque su uso está condenado por los organismos internacionales, y porque siempre subsistió el temor de que el enemigo replique con armas semejantes.

También se evalúa la posibilidad de que no puedan controlarse tales elementos de modo que sus efectos recaigan contra los mismos que los emplean.

Los agentes químicos que más se han usado hasta este momento son los gases, llamados lacrimógenos, que provocan lágrimas y vómitos.

Se los ha usado como arma de guerra y para reprimir tumultos.

El más antiguo gas venenoso empleado como agresivo químico, el cloro y el fosgeno, actúan sobre los pulmones y causan shock.

Se han elaborado gases más nocivos aún, pues se absorben por la piel, de modo tal que las máscaras antigás no brindan protección contra ellos.

Pertenecen a este grupo los vesicantes, como el gas mostaza, que provoca ampollas, y ciertos gases que, al actuar sobre el sistema nervioso, provocan contracción muscular, y con ello la muerte por asfixia.

Estos gases se cuentan entre las sustancias químicas más venenosas que se conocen. Son líquidos volátiles y una gota muy pequeña, casi invisible puede resultar letal.

Las armas biológicas incluyen microorganismos como bacterias y virus, al mismo tiempo que las toxinas venenosas que algunas de dichas bacterias producen.

El peligro más grande de usar bacterias como armas radica en el hecho de que pueden causar epidemias incontrolables.

Entre los microorganismos que pueden ser usados para provocar enfermedades cuéntase, por ejemplo, los agentes del ántrax y la brucelosis.

Las armas químicas son fáciles de usar.

Pueden ser enviadas en bombas, proyectiles y cohetes explosivos.

En la Primera Guerra Mundial se permitió que los gases venenosos fueran arrojados sobre posiciones enemigas.

Pero un simple cambio de viento podía volverlos contra los agresores.

En cambio, las armas biológicas resultan de difícil uso porque deben agregarse al suministro de agua y alimentos o rociadas en forma de aerosol para ser respirada.

————-  00000 ————

Uso de Armas Químicas En La Primera Guerra Mundial

Se ha insistido en este trabajo en la íntima relación entre las hambrunas, las pestes y las guerras.

La Gran Guerra, basada en la lucha de trincheras que culminaba en peleas hombre a hombre, tuvo episodios de altísima mortandad.

Sólo en la batalla de Verdún —titulada como «el Infierno»—, que enfrentó a Francia y Alemania entre febrero y diciembre de 1916, murieron 338.000 soldados alemanes y 364.000 franceses.

Además, las técnicas armamentísticas modernas basadas en recientes descubrimientos científicos realizados en interés del bien de la humanidad confirieron a la guerra su rostro más cruel, con el uso de gas tóxico y de armas selectivas contra la población civil.

Para el empleo de armas químicas se recurrió a proyectiles de gas.»El alto peso específico del cloro —señala la Crónica del siglo XX— hace que no se eleve a más de un metro y medio y, por lo tanto, penetra fácilmente en las trincheras.

Los soldados —o las personas afectadas— se ponen azules, escupen sangre al toser, y expulsan espuma por la boca y la nariz.

Los ojos se salen de las órbitas y cada intento de respirar profundamente desata una fuerte crisis de tos, hasta que pierden el sentido o mueren por asfixia.»

Aunque los aliados denunciaron a Alemania por su uso, como una contravención de las disposiciones adoptadas en La Haya en 1899 y 1907, también ellos comenzaron a emplearlo desde fines de 1915.

En total, ambos bandos utilizaron un total de 113.000 toneladas métricas de armas químicas entre las cuales se encuentra el fosgeno (carbónico, un gas extremadamente tóxico) y el gas mostaza, que produce graves quemaduras.

Poco después se desarrollaron también gases nerviosos como el sarín, que, incluso aplicado en pequeñas cantidades, puede causar muerte o parálisis.

Las bajas en los combates terrestres ascendieron a 37 millones, y casi 10 millones de personas pertenecientes a la población civil fallecieron indirectamente a causa de la contienda.

De ellos, 3,5 millones se reparten entre Alemania y Rusia.

La I Guerra Mundial duró cuatro años, tres meses y catorce días.

El conflicto representó un costo de 186.000 millones de dólares para los países beligerantes.

Los pueblos, llevados a una lucha por intereses ajenos, fueron arrastrados, cuando no a la muerte, a una vida miserable, al hambre y a las enfermedades.

Sin duda, estos gravísimos padecimientos y pérdidas fueron los hechos desencadenantes de la triunfante Revolución Rusa de 1917, como así también de otros movimientos revolucionarios producidos poco después en Italia, Alemania y Hungría.

Además de la caída del odiado régimen zarista, la guerra provocó la abdicación del kaiser Guillermo II —último soberano de la dinastía de los Hohenzollern reinante desde 1701— y el ascenso al poder de los socialistas en Alemania y el desmembramiento del Estado plurinacional austro-húngaro y el consiguiente surgimiento de nuevos Estados: Checoslovaquia, Hungría y el reino de las naciones Sudeslavas —Servia, Croacia y Eslovenia—.

La caída del emperador Carlos I, el último «monarca del Danubio», puso fin a seiscientos años de soberanía de los Habsburgo en la región. La autocracia rusa encarnada en la dinastía de los Romanov, gobernaba el país desde 1613.

————-  00000 ————

LA DEFENSA CONTRA EL EFECTOS DE LOS GASES QUÍMICOS:

Perfeccionamientos progresivos desde la primera máscara de algodón empapado:

Aunque era desconocida la naturaleza de los primeros gases, fueron fácilmente analizados y reconocido el cloro, un cuerpo simple que contiene la sal común.

Las autoridades militares consultaron entonces con los químicos, ideándose caretas o máscaras formadas de algodón en rama o almohadillas empapadas en varias soluciones, que, sujetas frente a la nariz y la boca, protegían en cierta medida en el campo.

En este tipo primitivo están basados todos los modelos hasta llegar al último y más eficaz, ha parte esencial de la careta era la cestilla metálica donde se colocaban los preparados químicos capaces de absorber los varios tipos de gases mezclados con el aire respirado por los soldados.

Los granos de estos ingredientes tenían que presentar superficie absorbente apropiada, sin ofrecer demasiada resistencia o impedir la respiración, así como también era preciso tener en cuenta su tendencia a coagularse, endurecer y sobre todo su eficacia.

Con la introducción de los nuevos gases, especialmente los lacrimosos, hubo necesidad de modificar los absorbentes, tanto en su naturaleza como en la manera de aplicarlos, en vista de que los varios químicos se formaban de partículas imperceptibles en el aire, lo que requería el uso de potentes microscopios para determinar su naturaleza física y buscar dispositivos eficaces para detenerlas en la cestilla.

Se hicieron primero de algodón, después de fieltro, evitándose así penetrasen estos vapores y humos dentro de la máscara.

Fueron consultados fisiólogos para estudiar las formas más apropiadas, de manera que ajustase la cestilla a las líneas de la cara y tan cerca de ella como fuese necesario para evitar posibles accidentes.

Se llevaron a efecto diversos ensayos, teniéndola colocada los hombres mientras hacían diferentes trabajos para determinar los efectos y su eficacia durante la lucha.

Viose la necesidad de suprimir las piezas de la boca y de asegurarla en la nariz, características de los primeros tipos, con objeto de aumentar su comodidad, puesto que el soldado tenía que llevar puesta la careta muchas veces durante horas y horas.

Fue también necesario estudiar la manera de que toda máscara, su soporte, esqueleto o cestilla, las piezas diversas y tubo de goma, fuesen impermeables a los gases, pues cualquier pequeña avería podía dar fácilmente lugar a consecuencias fatales.

Al principio se utilizaron preparaciones especiales para evitar se empañasen las piezas frente a los ojos y a causa de la respiración; pero más tarde se encontró el medio conveniente para hacer salir el aire directamente a través de estas mismas piezas oculares, como puede verse en la máscara Tissot.

La terrible historia de la guerra de exterminio por medio de los gases:

Había, además, que resolver el problema de fabricar las máscaras de modo que pudieran colocarse rápidamente a la menor alarma.

Aunque parezca extraño, a a pesar de que los soldados conocían perfectamente la peligrosa naturaleza de los gases utilizados contra ellos y la necesidad, por tanto, de evitar respirarlos y colocarse la máscara, fue una de las más difíciles tareas de los oficiales encargados de este servicio enseñarles cómo habían de ajustar estos aparatos y el conseguir los conservaran puestos en las ocasiones precisas.

Sólo cuando se castigó duramente por las faltas de cumplimiento a las instrucciones recibidas respecto a este particular, se pudo alcanzar algún resultado.

Después del primer ataque, en abril, los alemanes no emplearon gases durante el verano y otoño de 1915, lo que permitió, afortunadamente, a los aliados estudiar los métodos de defensa antes del otro ataque, en 19 de diciembre, con nuevo gas, cuya acción, particularmente engañosa, era debida al hecho de que cualquier persona atacada débilmente por él, y en apariencia libre de peligro, al moverse poco después sentía sus efectos, que por veces fueron mortales.

Aunque el ataque duró sólo una hora, fue preciso usar los cascos por algún tiempo después, en vista de la persistencia del gas a permanecer en las zanjas y trincheras.

La disciplina en general fue en extremo buena, y los casos, notablemente pocos, y éstos acaecidos principalmente por no observar las indicaciones dadas para tomar las medidas defensivas necesarias.

Este segundo ataque fue particularmente importante, porque dio a conocer muchos principios en que se basó en lo futuro el empleo de los gases: primero, aumento de concentración, conseguida reduciendo el tiempo empleado en el ataque; segundo, utilización de nueva substancia, el fosfógeno, y tercero, elemento de sorpresa.

Este último se efectuó preparando el ataque en la semioscuridad del amanecer, cuando los aliados estaban menos preparados y en la hora que mejor satisfacían las condiciones del viento.

A no ser por el silbido producido al salir los gases de los depósitos cilíndricos y el olor, hubiera sido cosa imposible darse cuenta del gas.

Desde esta época, prácticamente todos los ataques con gas se hicieron de noche.

Se emplearon evidentemente algunos gases encerrados en granadas en los dos fuertes ataques de 1915.

En presencia del bromuro de jilito (producto de la destilación de la madera) fue descubierta por este tiempo.

Esta substancia produce copioso lagrimeo, aunque se presente en tan pequeña proporción como una parte en volumen por un millón de aire.

No tiene acción permanente, sirviendo tan sólo para poner fuera de combate durante algún tiempo a los hombres.

En 1916 los alemanes utilizaron también otro gas lacrimoso y varios más venenosos, con los que aumentaron el número de heridos, accidentes y muertos.

Los aliados comenzaron a comprobar la extensión del plan enemigo en el empleo de los gases asfixiantes, y dieron un marcado ímpetu a las medidas protectoras contra dichos gases.

Este año de 1916 fue el de mayor actividad por parte de los alemanes en el empleo de gases; se hicieron cinco grandes ataques contra los ingleses y muchos otros contra Francia y Rusia.

Caracterizaron estos ataques el empleo de gases más concentrados y mayores cantidades del venenoso fosgeno (oxicloruro de carbono).

La nueva táctica consistió en ocultar por todos los medios posibles los preparativos previos, la utilización de nubes de humo para desviar la atención y el lanzamiento de los gases a intervalos variables.

Esto último fue en realidad tristemente eficaz, pues la segunda emisión, después de la calma que seguía a la primera nube, cogía desprevenidos a los hombres.

Protector completo contra el gas moztaza

En agosto de 1916 se verificó el último ataque contra los ingleses con gases asfixiantes.

Aquí se lanzó una espesa nube de fosgeno durante el momento de relevo y cuando era prácticamente doble el número de hombres en las trincheras.

Fue tan fuerte, que se precisaron las máscaras contra los gases nueve millas a retaguardia del punto donde descargaron.

El empleo se abandonó a causa del limitado número de gases que podían ser utilizados, y también por el reducido número de cilindros para lanzarlos a la vez, la dificultad de efectuar los ataques por sorpresa, debida a los trabajos y tiempo que se precisaban en los preparativos, y, finalmente, por los accidentes ocasionados a los mismos que los utilizaban.

El empleo de granadas cargadas de gas aumentó rápidamente, debido a que no hay limitaciones en cuanto se relaciona con la cantidad de proyectiles lanzados y gases utilizados.

También con ellos es mucho más fácil alcanzar el campo enemigo.

Se tomaron cuidadosas medidas para evitar excesivas bajas en las trincheras, donde era evidente la persistente naturaleza de ciertos gases; se establecieron también cubiertas protectoras, sistemas especiales de alarma, rapidez en la colocación de las máscaras (seis segundos) y métodos eficaces para hacer desaparecer los gases.

Un ataque extraordinario se llevó a efecto en Arras, por el mes de diciembre de 1916.

Enormes cantidades de granadas cayeron en los alrededores, saturando los pisos y muros de las casas.

Como era muy intenso el frío, se evaporaron lo gases lentamente.

Al siguiente día, cuando aparentemente habían desaparecido, muchos soldados se quitaron las máscaras; pero debido a un aumento de la evaporación al subir la temperatura atmosférica en las horas de sol, fue muy grande el número de atacados.

Equipo completo de protector de la caballería

La utilización de la mostaza (sulfocianato de alilo) para producir gases ha sido evidentemente el más sencillo, pero también el mayor perfeccionamiento en la preparación de estas substancias para los suministros militares en la gran lucha, originando un cambio radical en las ideas que se tenían desde el principio, pues se creyó que la eficacia de estos productos dependía de la mayor o menor presión del vapor o, en otras palabras, de su mayor tendencia a extenderle.

Equipo completo de protector de la caballería

El gas de la mostaza es realmente un líquido, cuyo punto de ebullición es le 220 grados centígrados y tiene una presión de vapor muy baja.

Es, sin embargo, bastante persistente, teniendo la propiedad peculiar de formar vejigas en la piel, y cuando los vapores presentan so concentración máxima, las quemaduras requieren mucho tiempo para su curación.

No fue, a pesar de esto, el más eficaz ni mortífero de los gases empleados en la guerra.

En Nieuport se dispararon más de 50.000 granadas en una sola noche, inundando prácticamente la andad.

Se calculó que en el otoño de 1916 los alemanes lanzaron más de un millón de granadas conteniendo aproximadamente 2.500 toneladas de este gas.

Una gran parte de este mismo año lo emplearon los aliados en estudiar vanas disposiciones destinadas para proteger a las tropas contra sus efectos, y suministrando nuevas telas especiales, guantes botas y diferentes ungüentos.

Es seguro que en los futuros suministros militares el gas de la mostaza desempeñará un importantísimo papel, y se conseguirán perfeccionamientos que permitan arrojarlo desde aeroplanos.

La «lewisita» es un derivado del arsénico, otro tóxico muy enérgico que se descubrió al estudiar el gas de la mostaza

En un fuerte y tenaz vejigatorio, aunque menos persistente que el gas anterior, actúa en cantidades muy pequeñas.

Se dice que después de la guerra, tanto los, alemanes como los japoneses han mejorado extraordinariamente esta substancia.

Otra materia de gran valor táctico fue la que obligaba a los atacados a estornudar.

Era la «onifenolclorina», un sólido que pulverizado en partículas diminutas se esparcía al estallar las granadas.

Sencillas «humaradas», desde las inofensivas a las que producían los olores más desagradables, también se emplearon extensamente, y claro que ofrecen ancho campo para perfeccionamientos futuros.

Se desconfiaba tanto de ellos, que obligaban a colocarse las máscaras, y desde luego pueden ser líquidos o mezclados con substancias tóxicas y producir unas cuantas bajas.

En el comienzo de la guerra dieron un gran resultado algunos tipos de materias incendiarias. Los alemanes producían el líquido inflamable en un depósito portátil dividido en dos compartimientos uno de ellos lleno de nitrógeno comprimido y el otro de petróleo.

Pronto fue descartado este aparato, pues su acción se reducía sólo a distancias de 22 a 27 metros.

La llama se enroscaba hacia la parte superior, siendo posible defenderse de ella en las mismas trincheras, y como la acción duraba aproximadamente un minuto, los lanzafuegos quedaban a merced del enemigo.

Fuente Consultada:
Grandes Pestes de la Historia Cartwright – Biddiss
Colección Moderna de Conocimientos Universales – Tomo II W.M. Jackson, Inc.

Temas Relacionados:

La Primera Guerra Mundial
Armas de la Segunda Guerra Mundial Ametralladora Inglesa Bren
Evolucion Tecnologica de las Armas de Guerra
Caracteristicas del Tanque Alemán Panzer
Cronologia de las Armas y Batallas del Mundo
Las Armas Alemanas – Bombas V1 V2 en la Segunda Guerra

Enlace Externo: Armas Químicas en la Guerra