Los Dirigibles

Records de la Aviación Civil Altura, Velocidad y Distancia

Primeros Records de Altura, Velocidad y Distancia de la Aviación Civil

Records de Distancia y Velocidad:

Al compás de la emulación deportiva y las ansias de superación, y mientras las máquinas se perfeccionaban, se fueron registrando marcas de las que mencionaremos las más notables de la primera época.

1921. Adriana Bolland atravesó la cordillera de los Andes, de Mendoza a Santiago de Chile.

1926. Pelletier-Doisy voló de París a Pekín en 6 días y 18 horas.

1926. Arrachart marcó el record de distancia sin escalas (París-Basora, 4.305 kilómetros) en 26 horas y 25 minutos.

1927. Pinedo voló 40.540 kilómetros en 44 etapas alrededor del Atlántico.

1930. Mariza Hilsz. Record cubriendo el circuito París-Saigón-París.

1930. Costes y Bellonte. Cruzaron por primera vez el Atlántico de París a Nueva York.

1930. Mermoz cruzó el Atlántico Sur.

1931. Balbo (al frente de una escuadrilla de aviones) atravesó el Atlántico Norte.

1931. Marisa Bastie. Batió el record para avionetas, con un vuelo de 2 889 kilómetros.

1931. Herndon y Pangborn cruzaron por primera vez el océano Pacífico de Tokio a California (7.700 kilómetros).

1932. Amelia Earhart fue la primera aviadora que atravesó sola el Atlántico.

1933. Willy Post. Gira alrededor del mundo (25.000 kilómetros) en 7 días y 18 horas.

1934. Agello señaló el record de velocidad en hidroavión con 209 kilómetros por hora.

1934. Marisa Hilsz. Vuelo París-Tokio-París.

1934. Scott y Campell Black ganaron la carrera Londres-Melbourne (18.160 kilómetros) en 2 días y 23 horas.

1934. Agello, con un avión italiano, alcanzó una velocidad de 709 kilómetros.

1935. Batten. Record sensacional, Londres Australia, en 5 días.

1938. Huguez dio la vuelta al mundo trazando un casquete boreal en menos de 80 horas, que comprendió las ciudades de Nueva York, París, Moscú, Omsk, Yakutsk, Fairbanks, Minneápolis y retorno a Nueva York.

1939. Udet (general alemán) cubrió 100 kilómetros a un promedio de 634,32 kilómetros por hora.

https://historiaybiografias.com/linea_divisoria6.jpg

PIONEROS DEL VUELO CIVIL

grandes aviadores de la historia

https://historiaybiografias.com/linea_divisoria6.jpg

lindergh, Espíritu de San Luis

Carlos Lindbergh, un muchacho norteamericano aficionado a la aviación, se propuso allá por 1927 intentar la travesía del Atlántico en su avioncito de turismo denominado Espíritu de San Luis. Con sobrecarga de nafta que hacía peligrar el vuelo despegó del campo de Roosevelt, en Nueva York, la noche del 20 de mayo del año citado. A propósito de su aventura se hicieron los más pesimistas comentarios. Se le tildó de loco, de inconsciente… eAntes y durante su hazaña se le llamó «el tonto volador». Lo cierto fue que a la mañana siguiente, a las 22 y 24 (hora francesa), aterrizaba en el aeródromo de Le Bourget, en París. Había cubierto la distancia entre las dos ciudades en 33 horas y 39 minutos. Asombro del mundo. Aquel aviador con cara de chiquillo pasó a ser una de las más legítimas glorias de los Estados Unidos.

RECORDS DE ALTURA: Recordaremos también aquí las primeras marcas famosas hasta las vísperas de la guerra de 1939, pues de allí en adelante fueron vertiginosas, como veremos. Las registradas por la Federación Aeronáutica Internacional fueron:

1909. (Agosto) Latharn, 155 metros.

1909. (Octubre) Lambert, 300 metros.

1909. (Diciembre) Latharn, 453 metros.

1910. (Enero) Latharn, 1.000 metros.

1910. Paulham, 1.209 metros, en Los Angeles.

1910. Brookins, en Atlantic City, 1.900 metros.

1910. León Morand, en Francia, 2.587 metros.

Hubo cuatro records más ese año y fueron:
Henry Wijnmalen, 2.780 metros.
Drexel, 2.882 metros.
Johnston, 2.960 metros.
Legagneux, 3.100 metros.

Legagneux era francés, y Francia retuvo el record logrado ese año de las marcas de altura hasta 1913, superándolas constantemente. En efecto: Roland Garros llegó a los 5.610 metros y Edmond Perreyron a 6.000. En 1913 Legagneux batió todos los records con 6.120 metros.

Al iniciarse el año 1914, nuestro compatriota, el célebre aviador Jorge Newbery, con un aparato Morane Saulnier, logró la altura de 6.100 metros.

Desde allí hasta 1920 dejaron de registrarse las pruebas, pero la guerra obligó a los pilotos a una frenética lucha de superación, como se comprobó al reanudarse las competencias.

Veamos:
1920. Schroeder (norteamericano), 10.093 metros.

1920. MacReady (norteamericano), 10.518 metros.

1923. Sadi Lecointe (francés), 10.727 metros.

Francia retuvo el record hasta 1927, y las marcas fueron superadas como sigue:

1927. Champio (norteamericano), 11.710 metros.

1929. Souceck (norteamericano), 11.930 metros.

1929. Willi Newenhofen (alemán), 12.739 metros.

1930. Apollo Soneck (norteamericano), 13.157 metros.

1932. Cyril Uwins (inglés), 13.404 metros.

1933. Lemoine (francés), 13.661 metros.

1933. Renato Donati (italiano), 14.433 metros.

Italia retuvo el record dos años.

1936. Georges Detré (francés), 14.843 metros.

1936. Swain (inglés), 15.223 metros.

1937. Mario Pezzi (italiano), 15.655 metros.

Este record fue considerado imbatible, pero poco tardó el piloto inglés Adam en superarlo.

1937. Adam (inglés), con un Brístol 138, llegó a 16.440 metros.

Italia había perdido el record, pero lo recuperó, como se verá.

1938. Pezzi llegó a los 17.083 metros de altura.

 aviadores franceses Costes y Bellonte

Los aviadores franceses Costes y Bellonte, que el 1º de septiembre de 1930 unieron en un vuelo las ciudades de París y Nueva York.

EL VUELO POR LA ESTRATOSFERA

La resistencia del aire (y su mayor densidad en ciertos casos) conspira contra la posible velocidad de los aviones. Por el contrario, a menor densidad es mayor la rapidez del deslizamiento.

Basado en estas observaciones, el ilustre sabio y aeronauta Augusto Piccard afirmó, en cierta ocasión, que la estratosfera, por razón de su escasa densidad, sería en el futuro la ruta del cielo donde los aviones alcanzarían velocidades fantásticas.

Claro estaba —y lo reconocía— que para ello habría que vencer primero algunos graves inconvenientes, que fueron puntualizados en «La Gazzeta dello Sport«, de Milán, por el técnico italiano S. Trevisán, «El problema del vuelo de altura —decía— es muy complicado.  Como se sabe, en el motor de explosión, la mezcla ideal requiere cierta relación entre el volumen del aire y el del carburante que la componen.

Es también sabido que no cambia en forma apreciable el aporte del carburante cuando el motor funciona a régimen normal, en tanto que se reduce notablemente el volumen del aire debido a la disminución de la densidad atmosférica. Y así, a medida que la mezcla se vuelve más rica en carburante, el motor rinde cada vez menos.

La hélice, cuyo buen desempeño ha sido calculado para funcionar en aire denso, al hacerlo casi en el vacío, en vuelos de gran altura, la acción de sus paletas resulta de muy escaso rendimiento. La menor resistencia del aire para la marcha del avión es una ventaja que no compensa, ni con mucho, el resultado por demás deficiente del grupo motopropulsor.

También constituye la bajísima temperatura un gran inconveniente para el avión que vuela a muy elevada altura: el lubricante se torna demasiado viscoso, las barras y los cables metálicos del comando se vuelven demasido tensos, las substancias de engrasamiento se congelan, se forma hielo sobre las partes del avión expuestas al aire, etc.»

Todos estos inconvenientes fueron superados por la técnica moderna. Los aparatos para los vuelos por la estratosfera son herméticamente cerrados y tienen dispositivos para provisión de oxígeno, además de calefacción. En cuanto al aviador, lleva un traje que constituye una coraza neumática que lo preserva del frío.

Lo cierto es que se cumplieron las predicciones de Piccard, y que los vuelos de gran distancia se efectúan por la estratosfera a velocidades vertiginosas.

hermanos piccard

Los profesores Augusto y Juan Félix Piccard, belga el primero y suizo el segundo, hermanos y compañeros de aventuras en arriesgadísimas pruebas de exploración científica. El objetivo de sus vuelos a la estratosfera no fue otro que el de estudiar los rayos cósmicos y otros fenómenos del espacio, cuyas conclusiones fueron de enorme utilidad para la aviación. Juan Félix insistió por largos años en esta clase de ascensiones, incluso acompañado por su esposa, en tanto que Augusto se dedicó a la exploración de las grandes profundidades del mar en una esfera de su invención.

traje para el vuelo en la estratofera

Arriba uno de los trajes usados por los aviadores para los vuelos por las altas regiones del espacio. Adviértense en este equipo el casco protector con anteojos, la máscara inhaladora, las riendas del paracaidas y las guarniciones de la silla eyectable

turbina de un avion

 Una turbina que accionada por el gas proveniente de las cámaras de combustión proporciona una energía con infinitamente mayor regularidad  que los pistones del motor de explosión, sacudidos por un movimiento alternativo generador de molestas vibraciones.

https://historiaybiografias.com/archivos_varios5/globo-piccard1.jpg

El globo estratosférico del profesor Augusto Piccard, con el que alcanzó en 1932 una altura de más de 17.000 metros.

Explotación Agricola en Europa del Siglo XIX Economía

EL PREDOMINIO DE LA ECONOMÍA AGRÍCOLA
EN EUROPA EN EL SIGLO XIX

La Europa de principios del siglo XIX era aún una Europa campesina cuya vida económica dependía estrechamente de las fluctuaciones de sus principales producciones agrícolas. La ausencia de excedentes mantenidos limitaba el desarrollo de las ciudades, que permanecían muy ligadas al campo. Las frecuentes malas cosechas de cereales, patatas, legumbres, ocasionaban grandes subidas de precio. Las crisis estacionales o anuales, engendradas por las malas cosechas o por la deficiencia de las relaciones comerciales y de los medios de transporte, se conjugaron a partir de 1817 con una larga etapa de depresión y de hundimiento de los precios, que sucedió al favorable período precedente.

LA POBLACIÓN: A partir de 1801, la población mundial ha crecido con más rapidez que nunca. Sólo en el siglo XIX se duplicó con creces; la anterior duplicación tardó cuatro veces más. Desde el siglo XVII la curva de crecimiento se ha ido haciendo cada vez más empinada. Sin embargo, las cosas no son tan sencillas como parece deducirse de esta imagen general. Algunos países han crecido con más rapidez que otros, y lo mismo puede decirse de los continentes.

El resultado ha sido un cambio en el orden de las naciones, atendiendo a su número de habitantes. Empecemos por Europa: en 1801, Francia reunía bajo su bandera más habitantes que ningún otro país al oeste de Rusia; en 1914 ocupaba la cuarta posición, por detrás de Alemania, Austria-Hungría y Gran Bretaña. El crecimiento de los Estados Unidos fue aún más rápido: en 1900 sus habitantes habían ocupado ya todo el continente (que en 1801 aún seguía inexplorado en gran parte) y su número había ascendido de 6 a 76 millones, lo que representa un aumento del 1.150 por 100.

Se dispone  de   información   mucho   más completa y exacta acerca de los países de Europa y América que de los de Asia y África; no obstante, parece comprobado que la población creció en todas las partes del mundo durante el siglo XIX: en China, por ejemplo, el aumento superó el 40 por 100, llegándose a los 475 millones; Japón pasó de unos 28 millones a unos 45, y la India de 175 a 290 millones. Se trata, en todos los casos, de incrementos muy grandes.

LA AGRICULTURA CONTINUA PREDOMINANDO
Salvo algunas excepciones, los métodos de explotación agrícola permanecían anticuados, ya que la mayoría de los grandes propietarios se desinteresaron de ello y no trataron de aumentar sus rentas por medio de la comercialización de sus productos. En cuanto a los pequeños cultivadores, sin instrucción, apartados de la escena política por los regímenes censatarios, no disponían de capital suficiente para introducir innovaciones.

agricultura en europa

Falta de abono, la tierra se convertía en  barbecho  cada   tres   años;   falta   también de maquinaria (se sembraba a mano, se trillaba con el mayal, se segaba con la hoz), una gran parte del suelo se desperdiciaba y los rendimientos obtenidos eran muy escasos. El desconocimiento de los métodos de conservación de la carne, el estado de los animales, desnutridos y sujetos a epidemias, impedía toda explotación ganadera racional, utilizándose el ganado, sobre todo, para los trabajos agrícolas.

Las crisis de subsistencias probaba trágicamente que el destino de millones de  hombres  dependía aún de las cosechas  de   trigo;   por  eso la agricultura estaba orientada hacia los productos de más corriente consumo, y, en pri mer lugar, hacia los cereales, como el trigo el centeno, la cebada, la avena y el alforjón.

La ausencia  de  excedentes  obligaba  a  la: diferentes naciones e incluso a las regione: a  vivir  replegadas  sobre  sí  mismas.   Uni camente  los   productos   exóticos   (especias café) daban lugar a un tráfico importante Sin embargo, este medio siglo conoció cier tos progresos agrícolas, de los que Inglate rra fue la principal beneficiaria. Más  adelantada que sus vecinos, había experimentado, desde el siglo XVIII , nuevos métodos; 2.000 lores, propietarios del tercio de la superficie cultivable, transformaron hectáreas de tierra de labor en fértiles praderas, en las que practicaron una ganadería moderna con selección de razas (la raza Durham llegó a ser la primera de Europa).

Los decretos para la formación de «acotados» (reunión de tierras rodeadas por vallas), concluidos en 1840, los «cornlaws», leyes que prohibían la entrada de trigos extranjeros, habían enriquecido   a   estos   grandes   propietarios que llevaron a cabo una verdadera revolución sustituyendo el barbecho por el cultivo de plantas herbáceas, de trébol, de alfalfa y otras análogas, alternando con los cereales; la utilización de los abonos (cal, guano, fertilizantes industriales descubiertos por Liebig), la mejora de los arados, la desecación de los pantanos, reforzaron esta revolución agraria.

Las Corn Laws fueron aranceles a la importación para apoyar los precios del grano británico doméstico contra la competencia de importaciones, vigentes entre 1815 y 1846.

PEQUEÑAS PROPIEDADES Y GRANDES DOMINIOS: Además  del  tipo inglés (que acabamos de ver mas arriba),  se podían  distinguir otras dos modalidades  de  agricultura en Europa.  Una de ellas predominaba en Francia, Países Bajos, Suiza y norte de Italia; la supresión de las servidumbres señoriales   había   emancipado   jurídicamente   al campesinado, pero éste, dueño en su inmensa mayoría, de pequeñas o medias propiedades, vegetaba y se mantenía gracias a la supervivencia de las prácticas comunales y a la ayuda de trabajos artesanos.

Sin embargo, en estos países fueron realizados importantes   trabajos   de  desecación   (particularmente en Holanda, donde los «polders» alcanzaron una gran extensión) que permitieron acrecentar la superficie cultivable. El rercer tipo de agricultura, el de los grandes dominios   señoriales,  reinaba  en  la  mayor parte de Europa; en el sur de Italia y en Toscana, la aristocracia terrateniente practicaba el absentismo, dejando a los administradores el cuidado de ocuparse de sus inmensas propiedades, y éstos las hacían explotar por los jornaleros a los que apenas les quedaba para vivir. Los grandes propietarios españoles practicaban también la aparcería; pero tenían que hacer frente a la Mesta, poderosa asociación de ganaderos que monopolizaba inmensas extensiones de tierras, oponiéndose al desarrollo de la agricultura.

En Prusia y en Europa Oriental, las reformas napoleónicas fueron abandonadas después de Waterloo y los campesinos tuvieron que devolver a los nobles el tercio de sus tierras, cayendo nuevamente en un estado de semi-servidumbre. Sin embargo, algunos pequeños hidalgos prusianos intentaron modernizar sus posesiones siguiendo el ejemplo de los lores ingleses.

Por último, en Rusia, la tierra estaba en manos de la corona y de los nobles; una parte de sus inmensos dominios era explotada directamente, y la otra repartida en parcelas entregadas a las familias de los siervos a cambio de los servicios que prestaban trabajando las tierras de su señor. Rusia era entonces la mayor exportadora de trigo de Europa, pero las exportaciones se hacían en detrimento de la población, que vivía en condiciones miserables. Esta oposición entre la Europa Occidental y los países orientales, próximos todavía a las estructuras feudales, había de durar hasta nuestros días.

Los Satélites Artificiales Argentinos Historia Plan Espacial

SATELITE ARTIFICIAL ARGENTINO
HISTORIA PLAN ESPACIAL

Los vehículos espaciales, como por ejemplos los satélites artificiales,  resultan instrumentos impresindibles para el avance científico y tecnológico de la imanidad. Son numerosos los fines con que se utilizan; ellos, cabe destacar los fines científicos, medioambienles, de comunicaciones, de navegación y militares. Mientras ue los satélites giran en órbita alrededor de nuestro planeta, las sondas se han liberado de la atracción gravitatoria de la Tierra y se desplazan en trayectorias variadas.

Los satélites recorren distintos tipos de órbitas, a diferentes alturas con respecto a la superficie terrestre. Tienen tamaños muy variables; algunos pueden llevar tripulantes a bordo.

Los de mayor envergadura se ubican en órbitas bajas entre 250 y 450 km, como por ejemplo, el transbordador espacial norteamericano y la estaciónespacial Mir, que permiten transportar astronautas, satélites y equipos de mantenimiento y reparación.  También se encuentra el telescopio espacial Hubble, que estudia la luz procedente de los objetos más alejados del Universo.

https://historiaybiografias.com/linea_divisoria4.jpg

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio. Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos. En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

Mono Juan Enviado al Espacio Por Argentina, Murió en el zoologico de Córdoba.

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio. El tripulante, de la especie caí, había nacido en Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja. Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal. En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD
A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas. En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos. Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones. La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas. El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social. El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información. La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos. La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES: La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida. En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre. Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó.

En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador. Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite. Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento.

Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta.

En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete. El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

Los satélites geoestacionarios se mantienen a una distancia de 38.500 km girando a la misma velocidad que la Tierra, por ello siempre se observan en el mismo punto sobre el ecuador terrestre. Se utilizan para establecer comunicaciones telefónicas y televisivas.

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:
Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro. Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica. Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se creala Sociedad Argentina Interplanetaria, la primera en América latina, en 1949. Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II. Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro «La Ciencia Argentina», explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II. Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario. La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B. Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita. En febrero 1994, el New York Times se refería a la empresa argentina como «una pequeña versión argentina de una compañía de Silicon Valley» y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial «Argentina en el Espacio 1995-2006». Varotto cuenta que este programa «fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo». Y agrega: «Se decidió concentrar los recursos en ir arriba para mirar para abajo». El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, «contribuya a la optimización de actividades de determinadas áreas socio-económicas». Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

SATÉLITES SAC-A Y SAC-B
La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita. Mejor suerte tuvo la misión SAC-A, que se concretó en 1998. El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C
Argentina en su Plan Espacial Nacional – «Argentina en el Espacio 1995-2006» , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae). Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de «proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes».

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7. Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales. Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la Conae llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino. Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites. El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la Conae- y varias empresas del país, que son las que construyeron el satélite. El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP. Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane
Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas. El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la «sugerencia» de EE.UU.
Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.
Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990. Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat). Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio. El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales. Fabricó el «bus», o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE. Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina. A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche. De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica. Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre d 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia. La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales. El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
«La Ciencia Argentina» de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario «La Nación»

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del «empleado bancario» ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos «bigotes» de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla Disputa

Historia del Uso de la Corriente Alterna
Disputa de Edison Vs. Tesla

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el «príncipe de los experimentadores». Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar.

Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: «Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética«. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad. En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las «resplande cientes herraduras que brillaban dentro de los globo en forma de peras».

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno y consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

iluminador electrico de gran potencia

PROYECTOR ELÉCTRICO DE 1,50 METROS, QUE ILUMINA LOS OBTETOS SITUADOS A 16 KILÓMETROS DE DISTANCIA

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

generadores de corriente electrica

Con su sala de turbinas de vapor construida a orillas del rio, completo aislamiento de todo el equipo eléctrico, disposiciones hidráulicas para eliminar las cenizas, instalación de calderas con recalentadores de vapor formados de seis tubos colocados sobre la cámara de combustión, extenso empleo de motores para llevar a efecto las operaciones precisas con las válvulas y perfecta maquinaria para facilitar el transporte del carbón, esta estación central de «Hell Gate», Nueva York, de la Compañía United Electric Light y Power, no tiene rival.

La Corriente Alternada

Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  «impulsar» a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

https://historiaybiografias.com/linea_divisoria3.jpg

LECTURA COMPLEMENTARIA:
La importancia de la electricidad como medio de transportar energía: Es difícil encontrar aplicación de la electricidad que demuestre más claramente su completa sumisión al hombre como la que se relaciona con el transporte de la energía o fuerza motriz. Desde tiempo inmemorial el hombre ha utilizado recursos que reemplazasen al esfuerzo que puede producir su brazo; el empleo de la fuerza de los animales es muy antiguo, y hay muestras evidentes de que también aprovechó la energía producida al caer el agua.

de todas maneras, en cada caso, siempre coincidían el lugar de producción y el de aplicación de la energía. La rueda hidráulica y el molino de nuestros antepasados estaban instalados al lado mismo del salto de agua. De este modo, muy pocos de nuestros grandes recursos hidráulicos podían ser aprovechados, pues la mayoría de los grandes saltos de agua están situados en lugares inaccesibles de las regiones montañosas, a los cuales sería imposible, o por lo menos muy costoso, transportar las primeras materias.

La fuerza motriz, invisible, va desde la escarpada montaña a la populosa ciudad Los progresos y desarrollo de la máquina de vapor y su creciente importancia han hecho se piense en buscar un medio de transmitir la energía al lugar del consumo desde el punto donde pueda producirse económicamente, ya por estar próximo el combustible o ser más fácil el acarreo desde la mina.

generador de energia electrica

UN GRAN GENERADOR ELÉCTRICO DE TURBINA: Uno de los generadores, de 55.000 caballos de fuerza, en la instalación hidroeléctrica de Queenston-Chippawa. Las turbinas de esta clase reposan sobre una especie de cojinetes o almohadillado de agua, tan delicadamente dispuesto, que si no se frena, tarda doce horas en pararse por completo, a contar desde el momento en que se corta la marcha.

Cuando la instalación de una máquina de vapor puede hacerse a la orilla de un estuario o un puerto, el carbón se transporta por mar a un coste relativamente bajo; pero dentro de las ciudades la conducción es carísima. El mismo agente que permite al hombre hablar a gran distancia con sus semejantes, puede ahora emplearse para transmitir la energía desde los saltos de agua en las montañas o las minas de carbón a la distante ciudad o centro consumidor. Las empresas industriales pueden así establecer las fábricas en aquellos lugares donde los jornales son menos elevados y la primera materia más abundante, puesto que es factible producir la energía necesaria a cientos de kilómetros.

De esta manera también pueden elegirse locales propios y convenientes para las fábricas y las centrales eléctricas donde se genera la energía, ligándose los dos centros por una línea de transmisión que abastece de fuerza eléctrica de un extremo a otro. Pero todavía la ingeniería moderna no es capaz de suministrar por este medio la fuerza motriz a las distancias que envía la voz humana.

La longitud a que puede transmitirse la energía económicamente en la actualidad es de 440 kilómetros en números redondos, y el alcanzar mayor distancia es uno de los grandes problemas que estudian los técnicos en nuestro siglo.

La transmisión eléctrica ha hecho posible la centralización de las grandes instalaciones productoras de fuerza motriz, y de este modo se ha conseguido convertir mucho más económicamente la energía química del carbón en eléctrica a bajo coste. La posibilidad de transportar la energía a grandes distancias permitió la instalación de enormes centrales conteniendo máquinas generatrices y convertidores de tal tamaño, que el coste de la producción por unidad de energía es tan bajo que permite sea consumido por las personas de recursos más modestos.

Debido precisamente a la con solidación y seguridad de estas grandes centrales, transmitiendo la energía a cualquier punto de la zona que las rodea por medios económicos y eficaces, ha sido posible la utilización de la electricidad en las fábricas, talleres y las viviendas.

En las instalaciones industriales más modernas se han suprimido los antiguos ejes, poleas y correas, acoplando motores eléctricos a los diversos mecanismos. La gran cantidad de energía economizada por esta disposición, sin duda mucho más apropiada y flexible para transmitir el movimiento, se emplea en aumentar el número de máquinas trabajando.

El coste de los edificios es así menor, y pueden construirse agrupados o separadamente, segrtn se quiera o convenga, sin tener que ajustarse a la posición del eje transmisor, lo que permite instalar las máquinas en la mejor posición, para disminuir acarreos innecesarios con el producto manufacturado, La eliminación de las correas deja mayor espacio libre, facilita el trabajo de los puentes-grúas o transbordadores, evita el polvo que se removía durante la marcha y, finalmente, también permite un alumbrado mejor.

La ausencia de cojinetes y aparatos para la lubricación de los mismos libra del goteo continuo de aceite, y todo esto trae consigo una mayor limpieza en las operaciones, mejorando, por consiguiente, las condiciones de salubridad durante el tiempo de estancia de los obreros en el trabajo y disminuyendo además múltiples daños al producto acabado.

La electricidad, aplicada al movimiento de la maquinaria, da mayor rendimiento, produce la fuerza con más flexibilidad que con el antiguo sistema de ejes transmisores, de tal suerte que pueden ponerse en marcha o hacer parar individualmente los aparatos sin que se note el menor cambio en la velocidad de los otros.

Pueden llevarse a efecto muchas operaciones delicadas que necesitan una velocidad igual. La sencillez con que puede regularse ésta, así como ampliar la fuerza motriz, facilita el aumento de producción y hace disminuir el coste de la materia elaborada. Son mucho menos frecuentes los accidentes donde se ha adoptado este sistema. Este hecho, unido a la disminución de ruido, mejor iluminación y mayor espacio, son de gran importancia para patronos y obreros, pues éstos tienen que encontrarse así en mejor disposición para el trabajo.

Las fábricas ya no se ven obligadas a esparcir el humo que lanzan sus chimeneas o el polvillo de sus ventiladores sobre las casas que las rodean, desde que aparatos eléctricos pueden evitarlo, o recoger, como por ejemplo, el polvo, de tanto valor en las fábricas de cemento.

El ozonizador eléctrico instalado en los tubos de salida de vapores que producen mal olor los evita, y permite ejecutar estas operaciones, molestas y desagradables, en locales situados dentro de la población, sin temer a que se opongan sus habitantes. En las fábricas donde es preciso mover hierros de varias formas, grandes y potentes electroimanes, instalados dentro o fuera de los talleres, transportan los materiales de un lado a otro en todo tiempo, ya llueva o nieve, aumentando así su capacidad productora.

Una de las aplicaciones más importantes de la fuerza eléctrica es la que se relaciona con la tracción. Al presente hay dos medios para poder hacer marchar los trenes en nuestros ferrocarriles: la máquina de vapor y la locomotora eléctrica. Necesariamente, la locomotora de vapor se irÁ abandonando poco a poco, debido a su limitado espacio para generar la fuerza precisa con la amplitud y rendimiento conveniente, mientras que
en el tractor eléctrico la energía llega de una estación central capaz de producirla en la cantidad que se requiera.

Una instalación móvil de vapor está sujeta a rápida y elevada depreciación, necesitando un coste de conservación mayor que la sencilla locomotora eléctrica. El molesto humo y el vapor desaparecen con el tractor eléctrico, y esto, que es de la mayor importancia en el caso de las líneas subterráneas de las grandes ciudades, fué frecuentemente la principal razón del cambio de la tracción de vapor por la eléctrica.

El empleo de la tracción eléctrica por todas partes en las líneas de tranvías y metropolitanos subterráneos se debe, como hemos dicho, principalmente a esta propiedad especial de no producir humo, y  también a la de poder establecer motores encada coche y así mover uno o varios, formando trenes según las necesidades del tráfico.

Las aplicaciones eléctricas han hecho incalculables beneficios mejorando las condiciones de la vida, pues por ellas, en muchas ciudades industriales, los s obreros pueden habitat en la parte más sana de los alrededores, sin perder demasiado tiempo en trasladarse desde su casa al almacén, tienda o taller donde prestan sus servicios.

Aquellos que viven en poblaciones extremadamente densas, por otro lado, pueden salir económicamente al campo para deseansar del torbellino de la ciudad. Las relaciones sociales, el cambio comercial, el mismo paisaje, todos ellos perderían extraordinariamente sin el motor sin humo. Las rápidas líneas de tranvías interurbanas, en regiones menos pobladas, transportan pasajeros y mercancías a las granjas situadas en su ruta. De este modo se tienen medios económicos y convenientes para efectuar las diversas transacciones entre los productores y los que consumen en las ciudades.

El transporte de pasajeros y mercaderías por medio de las líneas eléctricas, el teléfono y el telégrafo, acortan las distancias de tal suerte, que los habitantes del campo están en íntima comunicación entre sí, pudiendo aprovecharse de estas grandes mejoras.

Fuente Consultada:
Colección Moderna de Conocimientos Universales – La Era de la Eléctricidad – Tomo II – Editores W.M. Jackson, Inc.

 

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer «la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en «V», puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en «V», grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en «V», el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en «V» próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación «vuela» sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en «V», la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Aviones Convertibles Primeros Modelos y Tipos Historia

Aviones Convertibles Primeros Modelos y Tipos

INTRODUCCIÓN: El día 2 de noviembre de 1954 constituye un hito en la historia del aeroplano. Dicho día, en la base de pruebas de la casa Convair, el piloto J. K. Coleman realizó el primer vuelo en un avión que despegó verticalmente desde su posición de partida, basculó en el aire, voló horizontalmente a más de 800 kilómetros por ahora y aterrizó de nuevo en posición vertical hasta quedar apoyado sobre la cola.

El Faire-Rotodyne, convertible para pasajeros, de velocidad superior a los 300 kilómetros por hora.

El avión era un monoplano de ala en delta Corvair XFY-1 equipado con un turbopropulsor Allison de 5.500 HP. Dos hélices tripalas contrarrotativas proporcionan, junto con el empuje del chorro del reactor, la fuerza de sustentación necesaria para el despegue vertical. Se trata de un nuevo tipo de avión, que los norteamericanos designan VTOL (Vertical Take oíi Landing: despegue y aterrizaje vertical) y que en Europa se conoce por «convertible».

En el año 1950, con ocasión de la guerra de Corea, el Gobierno de los Estados Unidos se dio cuenta de la necesidad de disponer de aviones de caza capaces de despegar en cualquier clase de terreno, sin necesitar aeródromos y pistas de aterrizaje.

En efecto, el peso cada vez mayor de los aviones de caza obligó a hacer pistas y campos de aterrizaje de mayor extensión y resistencia, y, por otra parte, el terreno montañoso no ofrecía lugares a propósito para la instalación de tales campos y pistas. Asimismo había que pensar en aviones de caza capaces de despegar de la cubierta de los buques de guerra y de transporte y que pudiesen aterrizar de nuevo en ellos, evitando tener que acompañar las escuadras y convoyes con costosos y vulnerables portaaviones.

A partir de dicho año los proyectos se suceden, la mayoría irrealizables por fantásticos; pero algunos ofrecen posibilidades constructivas, y al cabo de cuatro años se consigue que vuele el primer «convertible».

Qué se entiende por avión convertible:

Un avión convertible es un avión capaz de despegar y aterrizar como un helicóptero, es decir, verticalmente, y una vez alcanzada la altura suficiente, volar como un avión.

Aunque el helicóptero resuelve muchos problemas, como son los del salvamento en zonas difíciles de acceso, vigilancia y enlace, así como transporte del aeropuerto al centro urbano y de ciudad a ciudad con helicopuertos centrales, las misiones de tipo militar, en campaña, quedan limitadas en estos aparatos por su reducida velocidad.

En dos décadas de desarrollo el helicóptero sólo ha alcanzado una velocidad máxima de 251 kilómetros por hora (récord mundial, septiembre de 1953, helicóptero Sikorsky XH-39, piloto Wester, de los Estados Unidos), y no es previsible ni probable que llegue a alcanzar nunca las velocidades sónicas, ya alcanzadas y hasta rebasadas por algunos tipos de aviones de caza.

El 5 de enero de 1959 el Fairey-Rotodyne, primer convertible comercial para pasajeros, ya logró alcanzar en sus vuelos de ensayo los 307 kilómetros por hora sobre un circuito de 100 kilómetros, batiendo con ello la marca de velocidad máxima alcanzada por los helicópteros.

Si motivos militares son los que han impulsado el rápido desarrollo del convertible, no debe olvidarse el problema de la seguridad, que queda ampliamente resuelto con este tipo de avión. Por consiguiente, no deberá extrañar que, una vez puestos a punto los convertibles militares, se construyan paralelamente los convertibles civiles, tanto para el transporte de viajeros como para el turismo o el avión particular.

Tipos de aviones convertibles:

Los convertibles se clasifican en tres grandes grupos:
1.° Los que disponen de rotores, hélices o reactores distintos para la sustentación como helicópteros y para la propulsión como aviones.
2.° Los que tienen un mismo rotor, hélice o reactor para la sustentación y la propulsión, y el eje del propulsor ha de girar 90° al pasar de una a otra clase de vuelo.
3.° Los que se sustentan y avanzan sobre una columna de aire creada por sus elementos propulsores. Son las plataformas volantes.

En el primer grupo, los aparatos reúnen las características del helicóptero combinadas con las del aeroplano: alas y hélices o reactores de avión para el vuelo horizontal, y rotor de helicóptero o reactores para el vuelo vertical. La ventaja principal de estos convertibles estriba en la seguridad de su pilotaje, ya que el paso de vuelo helicóptero al vuelo avión es continuo, conservando siempre el mando del aparato. El grupo primero se subdivide en tres subgrupos:

a)    Los convertiplanos cuyo rotor de despegue se para en el vuelo horizontal, de manera que las palas ofrezcan una resistencia mínima al avance.
b)    Los convertiplanos en que las palas del rotor de sustentación vertical se colocan de manera que en vuelo horizontal actúan como las alas fijas de los aviones normales.
c)    Los combinados de avión y helicóptero, es decir, los helicoplanos o helicópteros combinados, con fuselaje y alas de avión provisto de rotores sustentadores.

Entre los proyectos correspondientes al grupo primero, subgrupo a), destaca el convertiplano de Wilford, con rotor monopala contrapesado, de propulsión por reacción, a tase de chorro de gases comprimidos por el motor y eyectados e inflamados en el extremo acodado de la pala.

En el subgrupo b) merece citarse el convertiplano de Herrick, HV-1, que realizó sus primeros ensayos en 1931, prosiguiendo sus estudios en años posteriores (el HV-2 voló en 1937).

avion convertible herridyne

Modelo norteamericano «Helidyne», convertible, con dos rotores coaxiles y dos motores para vuelo horizontal. Ofrece, en su conjunto, las ventajas del helicóptero, el autogiro y del avión clásico.

Convertiplano de Herrick. Es un biplano con una ala fija y otra giratoria, a voluntad, dotada de turborreactores en sus extremos. Para el despegue y aterrizaje el plano superior actúa como un rotor de helicóptero; este rotor se convierte en plano cuando navega en vuelo horizontal.

El subgrupo c) está formado por los helicópteros «combinados», de los cuales constituye un precursor el autogiro español La Cierva, cuyos primeros vuelos datan del año 1923. El notable ingeniero Juan de la Cierva, con su revolución genial de la articulación de las palas del rotor y el descubrimiento del fenómeno de autogiración, hizo posible el desarrollo posterior del helicóptero y, como consecuencia, el del convertiplano.

Como se sabe, el autogiro primitivo era un avión de alas reducidas en las que una hélice tractora proporcionaba la velocidad suficiente para que el rotor entrase en autogiración, suministrando la fuerza de sustentación necesaria al vuelo. El rotor permitía una velocidad de vuelo muy reducida y el aterrizaje prácticamente vertical, y en los últimos modelos se lograba el despegue vertical acelerando el rotor mediante una transmisión desde el motor.

Soluciones parecidas, aunque no pueden clasificarse   estrictamente   como  convertibles,   son:

El «helicoplano» Hamilton, que se ensayó en los Estados Unidos en 1929, formado por un avión monoplano de ala alta Hamilton con dos hélices de eje vertical de 5,50 metros de diámetro situadas bajo el ala y a ambos lados del fuselaje.

Tipo de avión convertible que despega sobre un trípode, proyectado por L. H. Leonard. Una vez que el aparato ha despegado, gira sobre sí mismo un ángulo de 90 grados, las aletas estabilizadores se reducen por retracción (alas delanteras) y el aparato queda convertido en un cigarro puro volante de grandes alas.

El «giróptero» del francés Chauviére, construido en 1929, provisto de rotor sustentador y hélice tractora.El «clinógiro» de Odier Bessiére, ensayado en Francia en 1932, no es más que un monoplano Caudron 193, con motor de 95 HP, al que se le ha añadido una ala superior giratoria formada por un rotor de cuatro palas. Un proyecto posterior de A. Flettner prevé un avión clásico con cuatro hélices verticales para asegurar despegue y aterrizaje verticales.

Entre los «combinados» modelos pueden citarse los siguientes:

El helicóptero birrotor americano de la «Gyro-dyne Co.» Helidyne 7 A, con alas fijas reducidas de avión y dos motores con hélices propulsoras que le permiten volar a 140 kilómetros por hora con una carga útil de 1.340 kilogramos. Se trata de una adaptación del helicóptero Bendix. Sus primeros vuelos tuvieron efecto en noviembre de 1949. Un nuevo tipo, el Helidyne, destinado al transporte militar, presenta un peso en vuelo de 11.300 kilogramos.

Parecido a éste es el aparato experimental francés Farfadet SO-1310, helicóptero con un rotor de reacción a base de aire comprimido suministrado por una turbina «turbomeca» de 260 HP y alas fijas de superficie reducida, así como una hélice tractora accionada por una segunda turbina. En vuelo horizontal el rotor entra en autogiración. Sus ensayos dieron comienzo en el año 1953.

El Fairey-Rotodyne, que ya se ha citado, corresponde a este subgrupo.
En el grupo segundo, convertiplanos de rotor sobre eje que bascula en 90° para pasar del vuelo vertical al horizontal, también se distinguen dos subgrupos:

a)    Convertiplanos en que el rotor y el fuselaje basculan simultáneamente al pasar del vuelo en helicóptero a vuelo en avión, o sea eje del rotor invariable respecto al fuselaje.

b)    Convertiplanos con rotores o reactores de eje basculante respecto al fuselaje que permanece siempre en posición horizontal.

Los aparatos correspondientes al grupo segundo se caracterizan por tratarse en general de aparatos de alas fijas cuyas hélices son de diámetro mucho mayor al que normalmente sería necesario para el vuelo horizontal. En efecto, en este tipo de convertiplano las hélices, que trabajan con eje vertical, han de proporcionar la fuerza de sustentación necesaria para elevar vertical-mente el aparato.

El Hillar X-18 Propelloplane, avión convertible de ala basculante que despega en vertical.

Entre los aparatos del grupo segundo, subgrupo a), figuran los primeros convertibles de realización práctica y cuyos vuelos permitirán la solución del problema para los aviones de caza. Es el VTOL Convair XFY-1, ya citado, y otros como el Coleóptero, que más adelante describiremos con mayor detalle.

Este subgrupo a) es mecánicamente el de más fácil realización;  en cambio, presenta  otros inconvenientes que la práctica indicará la forma en que deberán solucionarse. Son éstos la difícil maniobra del paso de vuelo vertical a horizontal, y viceversa, basculando todo el aparato.

El embarco de los tripulantes y del material en el fuselaje en posición vertical tampoco será fácil. Por último, la estabilidad en el momento de aterrizaje si sopla viento algo fuerte parece precaria dada la altura del centro de gravedad con relación a la reducida base de apoyo sobre la cola.

Como primeros proyectos y realizaciones, merecen citarse los siguientes:
El de Focke-Wulf, que durante la segunda Guerra Mundial proyectó un convertible a base de substituir las alas por un gran rotor tripala situado tras la cabina de mando, accionado por estatorreactores en el extremo de las palas. Esto obligaba a utilizar cohetes de despegue. Los empenajes de tipo normal soportaban el tren de aterrizaje, sobre el cual se apoyaba el aparato en posición vertical para el despegue y aterrizaje.

Parecido al anterior, pero más atrevido, es el proyecto de L. H. Leonard, en el cual dos grandes rotores impulsan un fuselaje en cuya proa se halla la cabina de mando y los empenajes, y en la popa el tren de aterrizaje que, replegado en vuelo, se despliega para el aterrizaje vertical sobre la cola.

Un convertiplano correspondiente a este grupo, que fue construido por encargo de la Marina de los Estados Unidos, es el ala volante semicircular «Chance Vought» XFSU-1, de Zimmerman. En los extremos del ala dos grandes hélices tractoras despegaban el aparato colocado en ángulo de 45° y el aterrizaje se efectuaba en un espacio muy limitado, lo que permitía su utilización sobre las cubiertas de los buques. Fue rescindido el contrato de construcción en serie debido a la precaria estabilidad en el aterrizaje, defecto que, como indicamos, es inherente a este grupo.

Los aparatos del grupo segundo, subgrupo b), se reducen en general a aviones clásicos en los que, bien los motores, bien las alas, pueden bascular en 90° para lograr la posición vertical de las hélices.

Entre éstos pueden citarse el Bell XV-3, monoplano bimotor con dos rotores de 7 metros de diámetro en los extremos de las alas, cuyos ejes giran a la posición vertical para el despegue y a la horizontal para la propulsión. En el Bell-VTOL, monoplano de ala alta del año 1955, son los turborreactores situados bajo el ala los que basculan.

Otro tipo interesante de convertiplano es el Hiller X-18 Propelloplane, de 18 toneladas, cuyos primeros vuelos se realizaron en 1958. El ala, que gira solidariamente con los propulsores, colocándose en posición vertical para el despegue y horizontal para el avance, soporta dos turborreactores provistos de hélices contrarrotativas.

Una disposición análoga presenta el Vertol 76, cuyo primer vuelo completo se llevó a cabo el 15 de julio de 1958. El Kaman 16-B es un aparato anfibio construido según las mismas directrices.

Fuente Consultada:
Enciclopedia Cultural UNIVERSITAS Tomo N°17 -Los Aviones Convertibles-

Biografia de Cavendish Trabajo Cientifico Vida y Obra

Biografía de Cavendish Trabajo Científico

Enrique Cavendish nació en Niza (Francia), en 1731. A la edad de 11 años íue enviado a la escuela en Hackney (Londres). En 1749 pasó a Cambridge, pero salió de allí sin haber obtenido ningún título. Perteneció a la Royal Society desde 1760 y, a partir de ese año, se dedicó, por su cuenta, al estudio de las matemáticas y de la física. Seis años después publicó trabajos sobre las propiedades del hidrógeno y del ácido carbónico.

Enrique Cavendish

Gran científico británico nacido el 10 de octubre de 1731. No muy famoso, pero destacado porque fue el primero en medir la densidad y composición de la atmosfera terrestre. Analizó la densidad media del nuestro planeta, descubrió el gas argón, inventó el pendulo de torsión, y propuso la ley de atracción electrica entre cargas de distinto signo. LLegó a poner en riego su vida al realizar experimentos con corrientes elétricas. Tenía una vida muy excentrica, y gozaba de una excelente posición social y económica.

Al mismo tiempo, investigaba las propiedades del calor, llegando independientemente a los conceptos de calor latente y calor específico, pero nunca se atrevió a publicar los resultados de sus investigaciones. También descubrió el nitrógeno, describiendo sus propiedades más importantes.

La  mayor contribución  de Enrique  Cavendish a la ciencia fue el descubrimiento de la composición del agua. Debe recordarse que la teoría del flogisto desorientó a los químicos durante algún tiempo, y que él, como muchos de sus contemporáneos, la apoyó.

Primero realizó experimentos sobre la composición del aire, demostrando que era constante. Luego mezcló dos partes de aire inflamable (hidrógeno) con una de aire desflogisticado (oxígeno) en el interior de un globo de cristal, haciendo explotar la mezcla por medio de una chispa eléctrica.

Otros químicos de su tiempo no se habían fijado en el rocío o empañamiento que se produce en las paredes de cristal del globo después de esta explosión. Cavendish comprobó que el peso del globo no había variado. Comprendió que los gases se habían combinado, dando agua. Como no publicó sus investigaciones, se suscitó una controversia, puesto que algunos atribuían el descubrimiento a Jacobo Watt, el inventor de la máquina de vapor.

En conexión con este experimento, descubrió la composición del ácido nítrico. A veces, las gotas de condensación que quedaban en ‘ las paredes del recipiente eran ligeramente acidas, y, al analizarlas, comprobó que tenían ácido nítrico. Explicó este hecho mediante la hipótesis de que el ácido se formaba por combinación del nitrógeno con los otros dos gases. El nitrógeno se encontraba allí como impureza.

Esto pudo demostrarlo añadiendo más nitrógeno, con lo cual se formaba más ácido nítrico. En sus años postreros viajó por toda Inglaterra, tomando nota de las formaciones rocosas y del paisaje. Su último gran experimento fue el descubrimiento de la atracción gravitatoria entre los cuerpos, lo que equivale a pesar la Tierra, como es denominado en algunas oportunidades.

obra cientifica de cavendish

El globo de explosión (reacción) que Cavendish usó se llenaba con los gases y se pesaba de la manera mostrada. Entonces se hacía explotar la mezcla por medio de una chispa eléctrica. Averiguó que el peso no cambiaba y que los gases desaparecían, quedando unas gotas de agua condensada en  las  paredes del  globo.  Se  basó en este experimento   para    explicar   ta    composición    del    agua.

Ampliar Sobre El Peso de la Tierra de Cavendish

Procesos Para Obtener Metales desde Minerales

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos. El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros. La cantidad de metales que existen en la corteza terrestre es relativamente pequeña. Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos. Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral. Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas. La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %. Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—. Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado. Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero. El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.   El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

METALURGIA: El campo de acción que abarca la metalurgia es verdaderamente amplio. Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características. En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales). El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre. Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

Minerales de Hierro

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado. En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado. Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente. Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición. Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente. Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente. Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos. En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables. Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza. El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación. Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada. Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación. También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.
El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia. Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable. Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción. También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta. Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos. Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales. La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia. La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año. En el- futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Historia del Primer Vuelo Con Motor Los Hermanos Wright

Historia del Primer Vuelo Con Motor Los Hermanos Wright

https://historiaybiografias.com/linea_divisoria1.jpg

BREVE FICHA BIOGRAFICA

• Wilbur nació ei 16 de abril de 1867, cerca de Millville (Indiana, EE.UU.).

• Orville nació el 19 de agosto de 1871, en Dayton (Ohio, Estados Unidos).
• Desde la niñez se interesaron por la mecánica.

• En 1892 abrieron un negocio de reparación y exposición de bicicletas.

• Pocos meses después se convirtieron en fabricantes de ese medio de transporte.

• En 1896 empezaron a investigar sobre aviación. Luego construyeron y probaroi su primer planeador no tripulado, que podía virar en el aire por medio de un dispositivo mecánico.

• En losaños siguientes, diseñaron alas y hélices, y a fines de 1903 probaron el primer avión tripulado con motor, fabricado por ellos.

Ultinos anos:

• En 1909 crearon la compañía Wright para fabricar aeronaves y entrenar pilotos.

• El de mayo de 1912, Wilbur murió víctima de la fiebre tifoidea.

• En 1915, Órville abandonó el negocio de aviones y se dedicó a la investigación y a la asesoría del Comité Nacional de Aeronáutica de los Estados Unidos.

• Murió el 30 de enero de 1948, en Dayto’n, su ciudad natal.

El 17 de diciembre de 1903, en Kitty Hawk (Carolina del Norte, Estados Unidos), los hermanos Wright realizaron el primer vuelo pilotado de una aeronave más pesada que el aire y propulsada con motor.

El avión fue diseñado, construido y volado por ambos hermanos, quienes efectuaron dos vuelos cada uno.

Orville recorrió treinta y seis metros en un vuelo de doce segundos y, unas horas después, Wiibur avanzó doscientos sesenta metros en cincuenta y nueve segundos.

Esta fecha marcó un hito: habían creado el aeroplano, uno de los inventos más trascendentales del siglo.

https://historiaybiografias.com/linea_divisoria1.jpg

UN POCO DE HISTORIA: Desde los tiempo mas remotos volar siempre ha sido el gran sueño del hombre, e impulsados por ese deseo de transformarse en pájaros ha hecho que muchos valerosos intrépidos hayan ideado todo tipo de artilugio para luego lanzarse desde lo mas alto de su zona, y muchas veces estrellarse contra el duro piso.

Pero debemos agradecer infinitamente a ese grupo de soñadores porque fueron ellos lo que pusieron la semilla inicial para que luego otros mas osados probaran nuevos artefactos voladores.

Como casi todos sabemos, el gran genio del Renacimiento europeo, llamado Leonardo Da Vinci comenzó a esbozar en su cuaderno de anotaciones diarias, las primeras formas de esos artefactos, pero sin llegar a realizar experiencia alguna, pues él estaba mas ocupado con otras prioridades que le daban grandes satisfacciones sin arriesgar su pellejo, como fue el arte y la comida.

Se sabe que los primeros intentos fueron en Francia por el siglo XVIII, los hermanos Montgolfier hicieron las primeras pruebas con globos aerostáticos y otros menos conocidos se han lanzado desde grandes alturas.

En 1785, un francés y un americano cruzan el Canal de la Mancha en globo, y no tardarán en realizarse los primeros intentos de volar en avión.

Un inglés de apellido Cagley en 1849 construye un planeador de tres alas, y hace sus pruebas usando como piloto a un niños de solo 10 años y se convierte en el primer aparato en flotar un mínimo tiempo en el aire.

Deberán pasar unos 40  años para que en 1890, otro francés,  Clément Ader realice un  primer vuelo de la historia en un aparato propulsado por vapor.

Pero despacio estamos entrando al siglo XX, pero sin olvidarnos de otros grandes inventores, como Lawrence Hardgrave que construye un modelo impulsado por paletas movidas por un motor de aire comprimido que vuela 95 metros, Otto Lilienthal que en 1877 inventa un planeador con alas curvadas. Samuel Pierpont Langley también se anima y ahora consigue elevar durante un minuto de aeroplano impulsado por vapor y que bajaba lentamente planeando.

Y ahora si llegamos a 1903, Orville Wright realiza el primer vuelo de la historia en un aeroplano propulsado y bajo control humano, durante 12 larguísimos segundos. Trabajando junto a su hermano Wilbur, desarrolla los primeros aviones propulsados por un pequeño motor.

Los Wright eran fabricantes de bicicletas y empezaron diseñando planeadores, con los que realizaron cientosde pruebas; incluso diseñaron su propio túnel de viento.

Según sus experiencias a ellos les faltaba una fuerza poderosa que trate de impulsar con potencia el aeroplano hacia adelante y oro colega llamado Charlie Taylor, les fabricara un motor de gasolina de doce caballos que pesa poco más de ochenta kilos, mas o menos el peso de una persona.

Después de varias pruebas y de estrellarse  varias veces en la arena con su planeador motorizado, consiguieron recorrer unos 31 metros el día 17 de diciembre de 1903 con el Flyer.

El brasilero Alberto Santos Dumon, en Francia logrará tres años después un vuelo de 220 metros en 22 segundo.

 Los hermanos Wright eran hijos del obispo estadounidense Milton Wright, ministro de la Iglesia United Brethren (Hermanos unidos), y de Susan Koerner Wright.

Wilbur, el mayor, nació en Millville, Indiana, el 16 de abril de 1867 en tanto Orville, en Dayton, Ohio, el  19de agosto de 1871.

Desde niños se interesaron por los juguetes, cometas y objetos mecánicos, y uno de sus preferidos era una hélice que se cargaba con unas gomas elásticas  y lograba elevarse mientras la hélice giraba.

Si bien muy tenían personalidades muy distintas, a los hermanos los unía el mimo espíritu inquieto e ingenioso, pues por curiosidad los hacía desarmar, explorar construir nuevos objetos mecánicos.

 En 1889 instalaron su propia imprenta e Dayton, donde editaron y publicaron el diario West Side News, y tres años más tarde, entusiasmados con la aparición de Ir bicicletas, dejaron la imprenta para instalar un taller de reparación que se transformaría en la Wright Cycle Co., que vendía su propio modelo de bicicleta.

Los ingresos ayudaban a su manutención mientras ellos investigaban sobre aeroplanos.

Wilbur se interesó en el vuelo cuando se enteró del fatal accidente de Otto Lilienthal mientras investigaba el planeo en 1896. Por aquel entonces, la investigación sobre el vuelo se orientaba a emular el movimiento de las alas de las aves. Mientras observaba el vuelo de un águila, Wilbur comprendió que además de utilizar el planeo, movían las alas para girar.

El control del vuelo era vital además de la propulsión. Un aeroplano tenía que poder ladear, subir o bajar, y girar a derecha e izquierda, y dos o tres de estas actividades debían realizarse simultáneamente.

Los hermanos Wright decidieron enfrentarse a los problemas del control del vuelo antes de pensar en la fuerza propulsora.

Escribieron a la Smithsonian Institution pidiendo material sobre investigación aeronáutica y leyeron todo lo que pudieron encontrar sobre el tema. En 1899 ya habían diseñado una cometa de dos alas que podían moverse mecánicamente de forma que una tenía más sustentación y la otra menos.

Entre 1900 y 1902 diseñaron tres planeadores biplanos, utilizando un túnel de viento en Dayton para ayudarse en la investigación. Llegaron a diseñar mecanismos fiables que les permitían tener el dominio de los movimientos de los aparatos en el aire, como por ejemplo en los virajes mediante una técnica denominada alabeo.

Eso los ayudó luego a conseguir un avión controlable, que comenzaron a construir en 1902.

Los vuelos se iniciaron en una playa llamada Kitty Hawk, en Carolina del Norte, que eligieron después de que el Weather Bureau les proporcionara una lista de lugares ventosos. La arena protegería los planeadores y la soledad del lugar les daría privacidad.

La versión final de los planeadores tenía timón trasero para girar a izquierda y derecha, alerones para ascender o descender, y las alas podían plegarse. Una vez que estuvieron satisfechos con los planeadores, diseñaron el motor, una máquina de cuatro cilindros y doce caballos de potencia.

Al primer aparato experimental lo llamaron Flyer. Realizaron su primer vuelo exitoso de prueba el 17 de diciembre de 1903, en Kitty Hawk, estado de Carolina del Norte, en EE.UU. Lo piloteó, acostado sobre la máquina, Orville Wright.

Su hermano Wilbur corrió a su lado para mantenerlo equilibrado. Pese a que disponía de motor, emplearon una catapulta para impulsarlo y rieles para que carreteara derecho.

Unavez en el aire, el biplano voló unos 40 metros durante 12 segundos, a un metro del suelo. Lo hizo llevado por su planta impulsora de cuatro cilindros, alimentada a nafta y con un sistema de transmisión por cadena que trasladaba su empuje a las hélices.

Ese mismo día realizaron otros tres vuelos, presenciados por cuatro socorristas y un niño de la zona, siendo los primeros de su tipo hechos en público y documentados.

En la última prueba, Wilbur Wright consiguió volar 260 metros en 59 segundos.

Al día siguiente, diarios como el Cincinnati Enquirer y el Dayton Daily News publicaron la noticia.

Según algunos biógrafos Orville, ganó la prioridad de manejo con  el lanzamiento de una moneda, el 17 de diciembre de 1903.

portada de una revista sobre los hermanos wright

El Flyer realizó su primer vuelo exitoso en 1903, en Carolina del Norte. Lo piloteó, acostado sobre la máquina, Orville Wright. Su hermano Wilbur corrió a su lado para mantenerla equilibrada.

Esa mañana un fuerte viento de más de 40 kilómetros por hora,  soplaba sobre la franja de dunas que interrumpen el mar. A las nueve de la mañana  los hermanos Wilbur y Orville Wright, inventores y constructores del aparato, ayudados por cinco hombres, arrastraron la mole de 275 kilogramos desde su cobertizo hasta la llanura de arena, al pie de Kill Devil Hill, una elevada duna de 30 metros de altitud.

El viento consigue levantar el planeador número 3 de los hermanos Wright en Kitty Hawk (Carolina del Norte). Ambos fueron excelentes pilotos de planeadores, y el año 1902 sometieron a prueba en Kitty Hawk las teorías aeronáuticas que desarrollaron en Dayton. En esta foto tomada por Orville, su hermano Wilbur (al fondo) y Dan Tate, de Kitty Hawk, hacen volar el planeador como una cometa.

17 DE DICIEMBRE DE 1903, LA PRIMERA EXPERIENCIA:

Para conseguir suficiente velocidad para ese primer despegue, habían encendido la máquina en una duna arenosa. Hoy, el viento haría todo el trabajo. Se llevaría el aparato hacia arriba como una cometa: una cometa sin pita, empujada hacia delante por un motor, lista a retar la gravedad y a volar hasta donde quisiera.

Los dos hombres habían diseñado el motor ellos mismos. Habían fabricado cada parte del avión que esperaba por ellos en el cobertizo -experimentando, investigando y probando sus descubrimientos. Ahora sólo faltaba la gran prueba.

El viento no era el único hambriento en esa costa desolada. Wilbur y Orville Wright también lo estaban, pero por el trabajo. El viento sería su amigo, no su enemigo. Les ayudaría en el despegue y suavizaría el aterrizaje.

Los dos hermanos sonrieron. Yahabían esperado suficiente tiempo. Era el momento de empezar.

Tomada la decisión, los Wright salieron de su pequeño campo rápidamente. Verificaron el viento otra vez. Colgaron una señal para llamar a los salvavidas desde su base, a una milla de distancia a través de la arena. Los salvavidas habían estado informados del plan desde el principio; no podían quedarse por fuera ahora.

Era tiempo de revisar la aeronave.

Los fabricantes la sacaron del cobertizo y la chequearon por todas partes. Las alas, los puntales, los cables que unían los controles: todos estaban en su sitio, como deberían estar. Las hélices se movían fácilmente.

También el control que accionaba el estabilizador frontal que salía por delante de las alas. Los patines con forma de trineo que sostenían la máquina no mostraban ningún signo del accidente que había tenido días antes. La aeronave estaba lista.

Los hermanos Wright la colocaron en la carrilera de lanzamiento y la amarraron con algunos trozos de alambre para mantenerla quieta. Wilbur puso unacuña debajo del ala derecha.

A unos pocos pies de distancia, Orville organizó su cámara.

Mientras fijaba los trípodes firmemente en la arena, los salvavidas llegaron al campo sonriendo y hablando a gritos para que los oyeran.Miraban fijamente mientras los dos hermanos prendían el motor de la nave.

Funcionó muy suavemente, con vibraciones regulares, calentándose para el momento en que tuviera que correr por la rampa de lanzamiento hacia el vacío.

«Dale Orville», dijo Wilbur. «Yo ya tuve mi turno, ahora te toca a ti».

Cautelosamente, Orville se acomodó en la nave, y se extendió cuan largo era en el ala baja. El viento le daba de frente en sus ojos y la arena le pegaba en los párpados. Miró hacia abajo a las pequeñas piedras en el piso bajo su cara.

Era el último chequeo a los controles, moviendo sus caderas de un lado al otro. Sí, el receptáculo donde él estaba se movía con él, torciendo las estructuras de las alas hacia los lados.

En la punta del ala derecha estaba Wilbur, esperando para sostener el ala nivelada, a medida que se fuera moviendo por la carrilera. Realmente, ya era el momento de despegar. Orville, con su mano, soltó los alambres que le servían de ancla a la nave.

 Se estaba moviendo hacia delante a una velocidad de caminante.

No, más rápido que eso. Con el rabillo de su ojo, Orville podía ver que su hermano tenía que ir corriendo a su lado. Corriendo más rápido. Acelerando la carrera… y, de repente, Wilbur ya no estaba allí. La nave había despegado. ¡Estaba subiendo muy alto ¡Rápidamente, Orville movió la palanca que controlaba el estabilizador frontal.

De repente, ahí estaba el piso, solamente a diez pies debajo de él y subiendo rápidamente Desesperado, Orville haló la palanca hacia atrás.Fue como si le hubieran pegado en el estómago. Con un golpe y un vacío, la nave frenó su caída alocada. La tierra empezó a quedarse lejos, al tiempo que la máquina apuntaba hacia arriba; el paisaje se llenó de cielo. Un ventarrón cogió sus alas con un golpe y las hizo subir todavía más.

Orville movió de nuevo la palanca. Con velocidad acelerada, la máquina se inclinó en el aire. Luego se fue hacia el piso como una golondrina en picada. Otra corrección, y volvió a apuntar hacia el cielo. Y hacia abajo.

Y hacia arriba… Y para abajo. Y con un crujido, una sacudida de choque y un montón de arena que volaba, la máquina se estrelló contra el suelo. Y se quedó allí. Medio mareado y sin aliento, Orville salió arrastrándose fuera de la estructura y miró hacia atrás, al punto desde donde había despegado.

La distancia recorrida en aquel primer vuelo con motor dirigido fue de sólo 37 metros, menos que la longitud de la cabina de un jumbo.  Quizá parezca insignificante, pero supuso el inicio de una nueva era.  En menos de setenta años, el hombre llegó a la luna.  Los hermanos Wright habían abierto un camino que otros pronto seguirían. 

La conquista del aire
Solamente había volado ciento veinte pies, y durante doce segundos. Pero esa distancia corta y ese pequeño tiempo, se sumaban a nada menos que a una victoria. Orville y su hermano habían logrado lo que nadie había hecho hasta ese momento.

Habían construido una máquina más pesada que el aire, que podía llevar una persona en vuelo libre. Se mantuvo suspendida por su propia fuerza y sus movimientos se podían controlar difícil, pero definitivamente por su piloto.

Entre los dos habían diseñado y creado el primer aeroplano de tamaño completo, con éxito.

En las arenas al sur de Kitty Hawk, Carolina del Norte, Orville y Wilbur Wright habían conquistado el aire.

Lo ocurrido en aquella jornada quedó señalado para el común de la gente como el inicio de la aviación moderna y así lo registra la mayoría de las páginas históricas. Sin embargo, hay quienes sostienen que no es así.

Argumentan que durante las pruebas el Flyer no se elevó por sus propios medios, sino ayudado por rieles y una catapulta. Más allá de las polémicas, los Wright patentaron su avión y siguieron mejorándolo.

Durante 1904, efectuaron un centenar de vuelos. En uno de ellos recorrieron casi 40 kilómetros en 38 minutos.

En los años siguientes, realizaron infinidad de pruebas y exhibiciones tanto en su país como en Europa y batieron numerosos récords. A partir de 1908, los aviones de los hermanos Wright ya no necesitaron más de una catapulta para alzar vuelo.

El 17 de septiembre de ese año, mostrando un modelo biplaza a militares de su país, Orvalle Wright se accidentó y quedó malherido. Desafortunadamente, su ocasional acompañante, el teniente Thomas Selfridge (1882-1908), se transformó en la primera víctima fatal de la aviación con motores tal cual la conocemos en la actualidad.

A continuación, intentaron vender su aeroplano a los ejércitos francés, británico y americano. Pedían grandes cantidades de dinero pero no ofrecieron ninguna exhibición y se encontraron con la incredulidad de los responsables.

No empezaron los vuelos de demostración hasta 1908, ya que antes temían el espionaje, y el mundo empezó a creer en la posibilidad del vuelo tripulado. A los pocos años la aviación europea había superado sus esfuerzos. Wilbur murió en 1812 y Orville en 1948. Ambos permanecieron solteros: el vuelo era su única pasión.

Luego de esa histórica primer experiencia, el piloto Orville comentó «Después  de calentar el motor durante unos minutos, tiré del cable que sujetaba el aparato a la guía, y comenzó a moverse. Wilbur corría (…) sujetando un ala para que mantuviese el equilibrio en la guía (…) El manejo del aparato durante el vuelo fue desastroso, subiendo y bajando continuamente (…) El vuelo duró sólo 20 segundos, pero a pesar de todo fue la primera vez que un artilugio manejado por un hombre había conseguido elevarse por sí mismo gracias a su propia potencia y volar una distancia sin reducir su velocidad y aterrizar poco después en un punto alejado de donde había empezado (…)».

Con estas palabras, publicadas en 1913 en el semanario American Aviation Journal, Orville Wright recordaba el primer vuelo con motor en el biplano Flyer 1,  realizado en diciembre de 1903, iniciando así la historia de la aviación moderna.

Un diario italiano La Domenica ilustra en 1908 el fracaso de Orville Wright y de Thomas Selfridge en unos de sus experimentos que termina con una caída desde unos 30 metros.

SANTOS DUMONT: El brasileño a bordo de la nave 14 bis, de 1906. Muchos consideran que el suyo fue el vuelo inaugural de la aviación, tal como la entendemos hoy.


Cerca de Chicago, EE.UU., se realiza una prueba del planeador de alas múltiples ideado por Octave Chanute (1832-1910). Este ingeniero estadounidense, de origen francés, está considerado entre los pioneros de la aviación, que además contribuyó al éxito de los legendarios hermanos Wright.

CRONOLOGÍA DE LOS PRIMEROS INTENTOS

852 — El hispano musulmán Abas Ibn Firnas se lanza desde una torre de Córdoba con lo que se considera el primer paracaídas de la historia.

875 — El mismo Firnas se hizo unas alas de madera recubiertas de seda y se lanzó desde una torre en Córdoba. Permaneció en el aire unos minutos y al caer se rompió las piernas, pero fue el primer intento conocido científico de realizar un vuelo.

1010 — El inglés Eilmer de Malesbury, monje benedictino, matemático y astrólogo, se lanza con un planeador de madera y plumas desde una torre y vuela 200 metros, pero al caer se rompe las piernas.

1250 — El inglés Roger Bacon hace una descripción del ornitóptero en su libro Secretos del arte y de la naturaleza. El ornitóptero es un artilugio parecido a un planeador, cuyas alas se mueven como las de un pájaro.

1500 — Leonardo da Vinci realiza los primeros diseños de un autogiro que habría de elevarse haciendo girar las aspas impulsado por los brazos. También diseña un ornitóptero como el de Roger Bacon y un planeador.

I709 — El jesuita brasileño Bartolomeo de Gusmao, también conocido como «el padre volador», describe, y probablemente construye, el primer globo de la historia, y se lo enseña y hace una demostración, con el ingenio de papel, en el patio de la Casa de Indias, en Lisboa, al rey Juan V de Portugal.

1783 — El francés Jean Frangois Pilátre de Rozier es el primer hombre en ascender, en un globo de aire caliente, diseñado por Joseph y Etienne Montgolfier. • En diciembre, los franceses Jacques Alexandre-César Charles y Marie-Noél Robert realizan el primer vuelo en un globo aerostático de hidrógeno, hasta una altura de 550 metros.

1785 — El francés Jean Pierre Blanchard y el estadounidense John Jeffries cruzan por primera vez el canal de la Mancha en globo. • Los franceses Frangois Pilátre y Jules Román se convierten en los primeros hombres en morir en un accidente aeronáutico al estrellarse su globo, dos años después de aquel primer ascenso de Pilátre.

1794 — El Servicio de Artillería Francesa crea la primera fuerza aérea del mundo en la forma de una compañía de globos bajo el mando del capitán Coutelle, que entrará en combate ese mismo año en Fleurus, Bélgica. Hasta 1908 no se creará una fuerza aérea dotada de aeroplanos.

1797 — El francés André-Jacques Garnerin realiza el primer descenso en paracaídas desde una aeronave al lanzarse desde un globo a 680 m de altura sobre el parque Mongeau, en París.

1836 — El Gran Globo de Nassau vuela desde Londres hasta Weilburg en Alemania, a 800 Km., en 18 horas.

1849 — El británico George Cayley construye un planeador de tres alas que vuela con un niño de diez años a bordo y se convierte en el primer aparato en volar más pesado que el aire.

Fuente Consultada:
El Diario de National Geographic N°39
Genios de la Humanidad Los Hermanos Wright
PIONEROS Teo Gómez

El Caso Watergate Causas del Espionaje en la Presidencia de Nixon

Causas del Caso Watergate en la Presidencia de Nixon

EL CASO WATERGATE: El candidato republicano Richard Nixon derrotó al demócrata Hubert Humphrey en los comicios de 1968, que tuvieron una participación del 60,7 % de los electores, por una diferencia de medio millón de votos. El nuevo presidente procedió a recortar los programas de la Guerra contra la Pobreza de su antecesor y a reducir el gasto federal para equilibrar el presupuesto. Del 3,3 % de desempleo de finales de 1968 se pasó al 5,8% en 1970, y se abrió un rápido proceso inflacionario que hizo devaluar el dólar en más del 8 % en dos años.

Fue reelecto en 1972 y durante el segundo mandato de Nixon, en octubre de 1973, se produjo la guerra del Yom Kippur, que enfrentó a Israel con Egipto y Siria. Más allá del plano militar y político, la decisión del 17 de octubre de la Organización de los Países Exportadores de Petróleo (OPEP) de no vender crudo a las potencias que apoyaron a Israel obligó a los países afectados, Estados Unidos y Holanda en especial, a adoptar medidas alternativas para reducir su enorme dependencia del petróleo.

La OPEP cuadruplicó el precio del crudo provocando un fuerte efecto inflacionario y una desestabilización de la economía internacional.

En este contexto de crisis del petróleo y crisis monetaria, con la segunda devaluación del dólar, saltó a la prensa el caso Watergate.

El extraño asunto de un presunto robo de documentos en las oficinas de la presidencia del Partido Demócrata en el edificio Watergate de Washington durante la noche del 17 de junio de 1972 se convirtió, gracias a la tenacidad de dos periodistas de The Washington Post, Cari Bernstein y Bob Woodward, en el mayor escándalo político de la historia de Estados Unidos.

investigadores periodistas del caso watergate

El caso Watergate terminó con la dimisión en agosto de 1974 del republicano Richard Nixon y con más de treinta colaboradores de la Casa Blanca implicados en una compleja trama de espionaje político, sobornos y uso ilegal de fondos. Los dos periodistas contaron con la ayuda de una enigmática fuente de información llamada Garganta Profunda, el seudónimo tras el que se escondía el número dos del FBI, Mark Felt, como reveló él mismo en 2005.

El hasta entonces vicepresidente Gerald Ford asumió el cargo tras la dimisión de Richard Nixon y le concedió el perdón para que no siguiera adelante el caso Watergate. Así evitó que el ex mandatario fuera procesado y encarcelado. En su toma de posesión, prometió honestidad y transparencia, y llegó a asegurar que «la larga pesadilla nacional» estaba superada. Apenas permaneció dos años en la presidencia.

https://historiaybiografias.com/linea_divisoria5.jpg

ANTECEDENTES EN LA ÉPOCA DE NIXON: A lo largo de los años setenta hubo una situación económica, política y social complicada bajo el mandato de dos presidentes republicanos y uno demócrata. El republicano Richard Nixon, que inició la distensión Este-Oeste viajando a Moscú y Beijing en 1972, sufrió el embargo de petróleo de los países árabes por su apoyo a Israel, preludio de una crisis energética mundial.

En 1973 puso fin a la intervención norteamericana en Vietnam y se vio envuelto en un caso de espionaje al Partido Demócrata, conocido como el escándalo Watergate, por lo que debió presentar su dimisión en 1974.

El vicepresidente Gerald Ford sustituyó a Nixon y pasó a la historia por exonerarlo públicamente, una medida impopular que le hizo perder las elecciones en 1976, ganadas por el demócrata Jimmy Cárter.

La pesadilla nacional parecía haber terminado, aunque Vietnam y Watergate no iban a ser fáciles de olvidar. Cárter abogó por una política exterior de respeto a los derechos humanos.

No obstante, la crisis económica, heredada de etapas anteriores, y los problemas internacionales tampoco encontraron soluciones satisfactorias. El 4 de noviembre de 1979 cientos de estudiantes iraníes, con el beneplácito del nuevo gobierno islámico, asaltaron la embajada de Estados Unidos en Teherán, y tomaron como rehenes a 52 estadounidenses durante 444 días.

Fue la llamada Crisis de los Rehenes, que acabó con la salida de Cárter de la Casa Blanca, que fue ocupada por el republicano Ronald Reagan en 1980.

Richard Nixon (imagen abajo) realizaba su campaña electoral para un segundo mandato presidencial en junio de 1972 cuando un guardia de seguridad del Watergate, complejo de hoteles y oficinas de Washington, advirtió que se estaba cometiendo un robo en la sede nacional del Partido Demócrata.

La policía detuvo a cinco hombres (que portaban micrófonos) en el lugar y poco después a dos más, el antiguo agente del FBI, Gordon Liddy, y el antiguo agente de la CIA, Howard Hunt.

Pronto se descubrió que Liddy, Hunt y el  ladrón James McCord estaban relacionados con la Casa Blanca y el comité para la reelección del presidente, llamado CREEP. El torbellino de escándalos que siguió terminó en 1974 con la primera renuncia de presidente estadounidense.

https://historiaybiografias.com/linea_divisoria5.jpg

Gobierno de Richard Nixon: Crisis política: el caso Watergate. Richard Milhous Nixon, del Partido Republicano, llegó a la presidencia en 1969 y se reeligió en 1972.

Durante su primer periodo presidencial adoptó en política interior una conducta centralista e incluso personalista; reorganizó el sistema de modo que pudiera reforzar su control personal sobre el gabinete, a fin de que los ministros no pudieran oponerse a los proyectos de ley que elaboraba sin consultarlos siquiera.

Además, Nixon llegó a oponerse al poder legislativo, compuesto en su mayoría por demócratas, con lo que dio lugar a un enfrentamiento entre el Congreso y la presidencia revestida por él de plenos poderes, al grado de que fue considerado por la crítica como imperial presidency.

Pero con todo lo personalista que fuera el gobierno de Nixon durante su primer periodo, lo verdaderamente grave para la democracia estadounidense fueron las tácticas ilegales que se valió para reelegirse

Poco antes de que se iniciara la campaña para las elecciones presidenciales de 1972, la policía sorprendió a personas que extraían instrumentos electrónicos de las oficina del Partido Demócrata ubicadas en el hotel Watergate de la ciudad de Washington.

Dichos instrumentos habían sido colocados evidentemente para escuchar las conversaciones y llamadas telefónicas celebradas en ese lugar; aquellas personas resultaron ser antiguos agentes de la CIA y del FBI que colaboraban en el comité para la reelección de Nixon.

Sin embargo, el asunto trascendió por el momento debido a que el presidente se encargó personalmente de encubrirlo. En noviembre, Nixon reelecto mientras que el ministerio público acusaba de meros asaltantes a las cinco personas implicadas.

Pero una investigación llevada a cabo por dos reporteros del Washington Post llevó al descubrimiento de que el asalto de las oficinas demócratas en el Watergate había formado parte de un sabotaje bien planeado contra la campaña electoral de Partido Demócrata y de que Nixon y sus colaboradores más cercanos se habían conjurado para encubrir el delito.

A pesar de que Nixon creyó poder negar su participación en el delito dejando que sus colaboradores fueran acusados y enjuiciados, en julio de 1973 se supo que el propio presidente había mandado a grabar todas las conversaciones en cintas magnetofónicas.

En marzo de 1974, el Gran Jurado federal consideró al presidente coparticipe sin cargos formales, en una conspiración para obstruir la acción de la justicia en la investigación del escándalo Watergate.

El procurador general ejerció presión legal para obtener las grabaciones de la Casa Blanca, en tanto que comenzaba la investigación con la posibilidad de proceder a un impeachment (juicio político formal contra el presidente o algún alto funcionario del gobierno).

El 5 de agosto, se obligó a Nixon a entregar otro grupo de cintas, que lo vinculó directamente con el encubrimiento de actividades ilegales que involucraban a la Casa Blanca. El 8 de agosto, Nixon renunció…

«Nunca he sido un desertor; abandonar mi cargo antes de terminar el mandato es totalmente contrario a todos los instintos de mi cuerpo. Pero como presidente debo pensar en las necesidades de mi país antes que en las mías», dijo Nixon. Un mes después de convertirse en presidente, Gerald Ford indultó a su antiguo jefe, y le ahorró un proceso criminal.

Durante el verano de ese año, Nixon intentó restablecer su prestigio con viaje. al Oriente Próximo y a la URSS. Pero a su regreso encontró que las investigaciones del caso habían avanzado.

El 24 de julio, el Tribunal Supremo determinó, de forma unánime, la obligación del presidente de entregar las últimas grabaciones. Una de éstas, que recogía la orden dada por Nixon al FBI para que detuviera su investigación sobre las cinco personas descubiertas en el Watergate, constituyó la prueba concluyente del papel del presidente en el encubrimiento del caso.

En la tarde del 8 de agosto, ante la inminencia de ser sometido a juicio político, Nixon anunció por televisión a todo el país su decisión de dimitir. Fue reemplazado por Gerald Ford, nombrado vicepresidente el año anterior en sustitución de Spiro Agnew, obligado éste a renunciar al cargo por resultar culpable de soborno.

La dimisión de Nixon constituyó un precedente en la historia de Estados Unidos, ya que sólo uno de sus antecesores, Andrew Johnson (sucesor de Lincoln), había sido sometido a un proceso de impeachment en 1868, pera fue absuelto y pudo terminar su mandato.

Con el caso Watergate, la clase política estadounidense —demócrata o republicana— sufría una nueva crisis de credibilidad ante el pueblo, no obstante que en política exterior Nixon había logrado poner fin a la Guerra de Vietnam y entablar relaciones con la China comunista. Gerald Ford gobernó hasta 1976, cuando, en las elecciones presidenciales de ese año, fue derrotado por el demócrata James Carter.

https://historiaybiografias.com/linea_divisoria5.jpg

Nixon y Kissinger
Con Richard Nixon en la Casa Blanca y Henry Kissinger como su principal consejero áulico en política exterior, interesa mucho conocer algunos de los antecedentes de ambos personajes en relación con la «guerra fría».

Son antecedentes muy significativos, Nixon adquirió fama de belicoso «halcón» desde los comienzos de su carrera política. En 1948, como legislador novel, se erigió en el principal inquisidor que tuvo Alger Hiss en las audiencias de la Comisión sobre Actividades Antinorteamericanas de la Cámara de Representantes, unas dramáticas audiencias que llevaron al procesamiento y la condena del desdichado profesor adscrito al Departamento de Estado y procuraron un enorme impulso al maccarthysmo en todo Estados Unidos.

Con tales méritos, Nixon pronto ascendió, en el ambiente de la «guerra fría», a senador por California y luego a vicepresidente de su país, como segundo de Eisenhower.

Como vicepresidente, en 1958, en un prólogo a unos informes que publicó la Comisión de Desarrollo Económico para conmemorar el decimoquinto aniversario de su fundación, Nixon escribió: «Con la misma certidumbre con que entonces (1942) estábamos en guerra, estamos también en guerra ahora».

Y con referencia al doctor Edward Teller, el «padre de la bomba H», el hombre que sostenía que «cualquier plan de desarme efectivo estaba condenado al fracaso», Nixon manifestó: «Ninguna de las personas con las que he hablado ha mostrado una comprensión más clara de la lucha mundial presente».

Este mismo Nixon, en 1960, cuando el malhadado vuelo del avión espía U-2 echó por por tierra la conferencia cuatripartita de París, declaró, en discurso difundido por la televisión norteamericana, poniendo imprudentemente en evidencia al turbado Eisenhower, que las incursiones de los U-2 sobre territorio soviético eran muy útiles y continuarían a pesar de los pesares.

En cuanto a Kissinger, judío de origen alemán que llegó de niño a Estados Unidos, cuando su familia huyó de los furores antisemitas hitlerianos, pronto se destacó como una «lumbrera de Harvard», la universidad norteamericana donde se forman numerosos hombres públicos.

Director del Instituto de Estudios Internacionales de Harvard, Kissinger público muchos artículos y varios libros sobre política exterior que fueron muy leídos en determinados círculos. Siempre como un campeón, no solamente de la «guerra fría», sino también de las «guerras limitadas», inclusive nucleares.

Porque entendía que «cualquier acuerdo sobre desarme era casi imposible» y que las armas nucleares «debían ser la base de la estrategia norteamericana».

En un ensayo publicado en el número de marzo de 1955 de la «Yale Revieu», Kissinger sostuvo que la estrategia norteamericana «debía fijarse dos objetivos: el inmediato de impedir cualquier nueva expansión soviética y el mediato de «reducir el bloque soviético hasta que no pueda triunfar en una guerra agresiva de tipo convencional y que quede disuadido de una guerra nuclear por la superioridad tecnológica norteamericana».

Y llegó a la siguiente conclusión: «Todo será inútil, sin embargo, … a menos que aumentemos nuestra fuerza militar; es imperativo que aumentemos nuestro ejército, nuestra defensa aérea, nuestra capacidad nuclear táctica y nuestros gastos militares, por la sencilla razón de que ninguna diplomacia es más fuerte que el poder que tiene detrás».

Fuente Consultada: El Mundo Moderno y Contemporáneo de Gloria Delgado

 

La Tragedia Aérea en el aeropuerto de Tenerife Accidentes Aéreos

El Choque de Aviones en Tenerife (1977)

Tenerife está plagada de niebla.  Las nubes se acumulan alrededor del extinto volcán Pico de Teide y esparcen una repentina bruma extraña a través de la isla de vacaciones del Atlántico. El domingo 27 de marzo de 1977 estaba muy nublado.

Una bomba, instalada por terroristas del movimiento de liberación de las islas Canarias, había explotado en una tienda del aeropuerto de Las Palmas, en la vecina isla de Gran Canaria, y las aeronaves estaban siendo desviadas de las Palmas a Santa Cruz. 

Entre ellas había dos jumbo jets Boeing 747: el vuelo 4805 de la línea holandesa KLM, proveniente de Amsterdam, y el vuelo 1736 de Pan Am, proveniente de Los Ángeles y Nueva York.

Los tres controladores aéreos de servicio en la torre de control tenían once aeronaves en tierra, todas esperando autorización para despegar.  Pero sus principales preocupaciones eran la niebla que espesaba rápida mente y había reducido la visibilidad a 500 metros, y las luces del eje de pista que no estaban funcionando. 

Para aumentar la confusión, dos de las tres frecuencias de radio del aeropuerto estaban fuera de acción y los pilotos tenían que hablar a los controladores por el parloteo de la única frecuencia que quedaba.  La escena estaba lista para el desastre.

La pista principal este-oeste en Santa Cruz tiene 3.2 kilómetros de largo y está a 666 metros sobre el nivel del mar.  Paralela a ésta hay una segunda pista que las aeronaves usan para rodar desde y hacia los edificios de la terminal.  Estas dos pistas están unidas en cada extremo y conectadas a lo largo de sus extensiones por cuatro calles de acceso. 

El vuelo 4805 de KLM y el vuelo 1736 de Pan Am esperaban en la segunda pista de rodaje, la aeronave holandesa justo delante de la estadounidense. La espera terminó finalmente antes de las 5 p.m. El piloto de KLM, capitán Jaap van Zanten, anunció a sus 229 molestos pasajeros que por fin le habían dado autorización para rodar y prepararse para el despegue hacia Las Palmas.  El capitán de Pan Am, Victor Grubbs, hizo un anuncio similar a los 370 pasajeros estadounidenses.

Debido a la congestión en la calle de rodaje, a ambos pilotos se les ordenó mover sus aeronaves a la pista principal y rodar al punto de despegue en el extremo lejano. 

El mensaje salió de la torre de control al vuelo 4805 de KLM: «Ruede derecho hacia adelante al extremo de la pista y retroceda». El poderoso jet del capitán Van Zanten avanzó lenta mente por la larga pista mientras el capitán Grubbs recibía instrucciones de la torre: seguir al jet holandés para dejar la pista dando vuelta a la calle de rodaje de la izquierda.

El capitán Van Zanten completó la maniobra y dirigió la nariz de su aeronave a la niebla que ocultaba los 3.2 kilómetros de la pista principal delante de él.  Su copiloto informó a la torre de control: «KLM 4805 está ahora listo para despegar.  Estamos esperando autorización».  La torre respondió: «OK, espere para despegar.  Yo le llamaré».

La razón de la horrenda cadena de acontecimientos que ocurrió en los siguientes minutos tal vez nunca sea descubierta.  Lo que sí se sabe es que mientras la torre de control verificaba la posición del jumbo de Pan Am, la aeronave holandesa se preparaba para despegar.  Y mientras la aeronave estadunidense toda vía avanzaba pesadamente por la autopista principal antes de dar vuelta a una de las calles de rodaje, la aeronave de KLM soltó sus frenos, aumentó el empuje y empezó a rodar los 3.2 kilómetros de pista… derecho hacia el vuelo 1736 de Pan Am, invisible a través de la niebla.

El jet holandés ya viajaba a 240 kilómetros por hora cuando el copiloto de Pan Am Robert Braggs lo avistó por primera vez.  Dijo: «Vi las luces delante de nosotros a través de la niebla.  Al principio pensé que era el KLM parado al extremo de la pista.  Luego me di cuenta que las luces venían hacia nosotros».  Braggs gritó: «Salga, Salga».  El capitán Grubbs gritó:»Estamos en la pista.  Estamos en la pista».

Angustiosamente despacio, Grubbs hizo que su jumbo diera un giro de 30 grados en un último intento desesperado de evitar el desastre.  Pero era demasiado tarde.  La aeronave de KLM viajaba demasiado rápido.  No podía parar ni desviarse.  La única opción para el capitán Van Zanten era tratar de levantar la nariz de su jumbo en un esfuerzo por «saltar» sobre la aeronave e bloqueaba su ruta. Pero el capitán Van Zanten había pasado el punto de no regreso. 

Dos segundos después de levantarse, la aeronave holandesa se estrelló contra el jumbo estadounidense a alrededor de 250 kilómetros por hora.  La nariz del jet de KLM golpeó la parte superior de la otra aeronave, arrancando el techo de la cabina del piloto y el compartimiento superior de pasajeros.  Los dos gigantescos motores que pendían de las alas fue ron los siguientes en golpear al avión estadounidense.  Las cubiertas de los motores se incrustaron en la cabi na posterior, matando a la mayoría de los pasajeros instantáneamente.

El boeing de KLM continuó su terrible viaje por en cima del avión y a lo largo de la pista, desintegrando se y explotando en miles de pedazos.  Ni una sola persona a bordo del avión holandés sobrevivió.  Todos los sobrevivientes del avión de Pan Am estaban sentados al frente o en el lado izquierdo, lejos del impacto.  Par te del lado izquierdo del avión se desprendió en el choque, y los sobrevivientes fueron lanzados o salta ron para ponerse a salvo.

El choque ocurrió a las 5:07 p.m., pero durante los largos segundos del desastre, los controladores de tráfico aéreo no se dieron cuenta de ello.  Una aeronave española que volaba sobre Tenerife irrumpió para solicitar permiso para aterrizar.  La torre de control respondió bruscamente: «Silencio en el radio, por favor.  Seguiré llamando a KLM».  Pero KLM ya no existía.  Era un revoltijo de restos ardientes esparcidos.

Hasta que una racha de viento rompió el banco de niebla los controladores no se dieron cuenta de que eran testigos del máximo horror que todo el mundo había temido: un choque entre dos jumbo jets, cada uno de los cuales pesaba 240 toneladas, tenía 70 me tros de largo y un plano de cola de la altura de un edificio de siete pisos.  Y ambos atestados de pasajeros.

La muerte fue instantánea para los 229 pasajeros y 15 tripulantes del jet de KLM.  Pero entre los sobrevivientes del jumbo de Pan Am hubo relatos de pánico, horror y heroísmo. En el compartimiento de primera clase «se desató el infierno», según el pasajero de 37 años Jim Naik, de California.  Dijo: «Estaba sentado con mi esposa Elsie cuando hubo una repentina explosión. 

El avión estalló completamente en llamas.  Luchaba por sacar a Elsie conmigo, pero después del impacto la gente empezó a caer encima de nosotros desde el compartimento de arriba, al hundirse el techo.  Un pedazo del techo cayó sobre mi esposa.  Luego una segunda explosión me lanzó a la pista.  Corría hacia atrás del avión para salvar a Elsie cuando vi que un cadáver caía fuera.  Era mi esposa». John Amador, de California, de 35 años, dijo: «Miré por la claraboya y vi el avión KLM que venía directo hacia mí.  Me agaché y, cuando levanté la vista, nuestra propia aeronave se había partido en tres partes. 

Tuve miedo de ser asado por el fuego».  Sin embargo, saltó y se puso a salvo. Briton john Cooper, un mecánico de Pan Am de 53 años, viajaba como pasajero en el compartimiento del pilotaje cuando el avión fue chocado por el jumbo de KLM.  Fue lanzado afuera y sólo sufrió cortadas leves.  Dijo: «Hubo un terrible choque.  No quiero recordarlo.  Había gente gritando terriblemente, mujeres y niños envueltos en llamas.  Nunca podré sacarme de los oí dos el ruido de esos gritos».

Dorothy Kelly, una sobrecargo de Pan Am de 35 años, de New Hampshire, fue la heroína del día.  Se le otorgó después la medalla al valor, y esto es lo que re cordaba del desastre: «Hubo ruido, las cosas volaban alrededor.  Nada era reconocible.  No había nada alre dedor que se viera como se veía antes: sólo metal mellado y pequeños pedazos de escombros.  Cuando todo se asentó, me di cuenta de que el techo había desaparecido arriba de mí aunque yo todavía estaba en lo que había sido la aeronave.  Al principio no vi a nadie.  Hubo explosiones detrás de mí y me di cuenta que la única forma de salir era por arriba.  El piso empezó a hundirse mientras yo salía por arriba».

La señora Kelly saltó más de seis metros para poner se a salvo y luego se volvió a mirar el avión roto y en llamas.  Hubo una serie de explosiones y oyó a la gen te que gritaba dentro de la aeronave, así que volvió corriendo: «Vi al capitán de rodillas, sin moverse.  Pen sé que se había roto las piernas.  Alrededor había otras personas con miembros fracturados.  Agarré al capitán por debajo de los brazos y jalé y seguí animándolo a seguir adelante.  Temía que el fuselaje nos cayera encima. Hubo una enorme explosión.  Dije: Tenemos que movernos más aprisa.  Seguí empujando y jalando y luego lo dejé caer en la pista».

Habiendo salvado la vida del capitán Grubbs, la señora Kelly fue rápidamente de un lado a otro, arrastrando a otros sobrevivientes ofuscados lejos de los restos, hasta que estuvo segura de que no podía haber nadie más vivo.

Pero las explosiones seguían constantemente en el jumbo.  Una última serie de estallidos envolvió en llamas al avión.  Ya no había ninguna esperanza de sobrevivencia para quienes habían quedado a bordo.  De los 370 pasajeros y 16 tripulantes del jumbo, más de 300 estaban muertos minutos después del choque y más de 60 quedaron gravemente heridos.  El número final de muertos en el día en que los dos leviatanes de los cielos chocaron fue un horripilante 582.

Programas de Exploracion Espacial Cronología Las Misiones al espacio

Programas de Exploración Espacial
Cronología Las Misiones al Espacio

Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el Año Geofísico  Internacional , pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958.

Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960.

A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Tabla siguiente es un resumen de los principales programas de exploración del espacio:

NombrePaísFechasLogrosMiembros
SputnikURSS1957-1958Primer
Satélite
Valery Byskovsky.Yuri Gagarin, Adrián
Nikolayaev, Pavel Popovitch, Valentina
Tereshkova, GhermanTitov
Malcolm Scott Carpenter, L. Gordon
Cooper
.John Glenn,Virgil Grissom,
Walter Schirra, Alan Shepard
ExplorerEE.UU.1958-1984Experimentos
Científicos
PionnerEE.UU.1958Investigación
de la Luna
LunikURSS1959Aterrizaje
en la Luna
VostokURSS1961-1963Primer Vuelo
Tripulado
MercuryEE.UU.1961-1963Americanos en el Espacio
VeneraURSS1961-1983Investigaciones
de Venus
RangerEE.UU.1961-1965Alunizajes
MarinerEE.UU.1962-1974Mercurio, Venus
y Marte
OSOEE.UU.1962Estudio Solar
MarsURSS1962-1971Investigación
de Marte
Pavel Belyayev, Konstantin Feoktistov,Vladimir
Komarov, Alexei Leonov, BorisYegorov
Edwin Aldrin, Neil Armstrong, Frank
Borman, Eugene Cernan, Michael Collins,
Charles Conrad, L Gordon Cooper.Virgil
Grissom, James Lovell, James McDivitt,
Walter Schirra, David Scott, Thomas
Stafford, Edward White, John Young
VokshodURSS1964-1965Vuelos espacial con tres tripulantes
GéminisEE.UU.1964-1966Prueba de Vuelos Lunares
LunaURSS1966Fotografía
Lunar
Luna OrbiterEE.UU.1966-1967Cámara en
órbita lunar
Adwin Aldrin, William Anders, Neil Armstrong,
Alan Bean, Frank Borman, Eugene Cernan,
Michael Collins, Charles Conrad, Walter
Cunningham, Charles Duke, Don Eisle,
Richard Gordon, Fred Haise, James Irwin,
James Lovell, Edgar Mitchell, Stuart Roosa,
Walter Schirra, Harrison Schmitt, Rusell
Schweickart, David Scott, Thomas Stafford,
Jack Swigert,Alfred Worden, John Young
SurveyorEE.UU.1966-1968Robot Lunar
ApoloEE.UU.1966-1975El hombre llega
a la Luna
SoyuzURSS1967-1986Estación
Espacial
Vladimir Dzanibekov, Georgi Grechko, Alexei Gubarev, Pyotr Klimuk, Vladimir Remek,Yuri Romanenko, Víctor Savinykh, Svetlana Savitskaya.Vladimir Shatalov, Vitaly Stevastyanov, Vladimir Vasyutin, Vladimir Volkhov Alan Bean, Gerald Carr, Charles Conrad, Owen Garriott, Edward Gibsonjoseph Kerwinjack Lousma, William Pogue, Paul Weitz
SalyutURSS1971-1986Estación espacial tripulada
SkylabEE.UU.1973-1974Primera estación espacial americana
ATMEE.UU.1973-1974Estudio Solar
Apolo-SoyuzEE.UU./URSS1975Emprendimiento InternacionalVanee Brand, Valery Kubasov, Alexei Leonov, Donald Slayton,Thomas Stafford
VoyagerEE.UU.1977-1986Estudio de Gigantes
de Gas
Valery Byskovsky.Yuri Gagarin, Adrián Nikolayaev, Pavel Popovitch,Valentina Tereshkova, GhermanTitov Malcolm Scott Carpenter, L. Gordon Cooper.John Glenn,Virgil Grissom, Walter Schirra,Alan Shepard
SMMEE.UU.1980-1989Estudio
Solar
TransbordadorEE.UU.1981-?Naves tripuladas de uso reiterado
SpacelabEE.UU./AEE1983Laboratorio espacial de uso reiterado
VegaURSS1985Estudio atmosférico de Venus y fotos del cometa Halley
MirURSS1986-?Estación
Espacial
Pavel Belyayev, Konstantin Feoktistov,Vladimir Komarov, Alexei Leonov, BorisYegorov Edwin Aldrin, Neil Armstrong, Frank Borman, Eugene Cernan, Michael Collins, Charles Conrad, L. Gordon Cooper.Virgil Grissom, James Lovell, James McDivitt, Walter Schirra, David Scott,Thomas Stafford, Edward White, John Young
GiottoAEE1986
SuseiJapón1986
BuranURSS1988
FobosURSS1988
GalileoEE.UU.1992-?
CassiniEE.UU./AEE1996

 

La Tragedia del Prestige El derrame de petroleo en el oceano Desastre

La Tragedia del Prestige
El derrame de petroleo en el océano

El miércoles 13 de noviembre de 2002 un viejo petrolero que transportaba 77.000 toneladas de hidrocarburos de Letonia a Gibraltar se encontraba a la deriva frente a las costas de Muxía (Galicia) tras ser golpeado por el temporal.

El buque navegó durante varias horas con olas de 6 metros y vientos de fuerza 9, perdiendo gran cantidad del fuel que transportaba por una brecha de 40 metros que se había abierto en el casco. Las autoridades denegaron al petrolero el permiso de atraque en ningún puerto español.

Una semana después se partió en dos y se hundió a una profundidad de 3.850 metros a 133 millas del cabo Fisterre. Así se inició el desastre del «Prestige», un deteriorado buque monocasco de 26 años de antigüedad, con bandera de conveniencia de Bahamas, que no había pasado ninguna revisión a fondo desde 1999.

La Tragedia del Prestige El derrame de petroleo en el oceano Desastre

El Prestige fue un petrolero cargado con 77.000 toneladas de fuel, cuyo hundimiento en el año 2002 frente a las costas españolas produjo una inmensa marea negra, que afectó a una amplia zona comprendida desde el norte de Portugal hasta las Landas de Francia, teniendo especial incidencia en Galicia.

Era un petrolero con bandera de Bahamas, procedente de Letonia (y previamente de San Petersburgo) y con rumbo a Gibraltar, lanzaba un SOS a unos 50 km deFinisterre a primera hora de la tarde.

El capitán, Apostolus Mangouras, de origen griego, comunicaría que oyeron un ruido muy fuerte en estribor: un golpe había abierto una grieta en el casco, con el resultado de una vía de agua en dos tanques de estribor.

En una primera versión se identificará la causa del accidente con una vía de agua por fatiga, pero, después, tras saberse que ese mismo día un mercante había comunicado la pérdida de 200 troncos (de 17 metros de largo por 30 centímetros de ancho) a su paso por el corredor marítimo gallego (algunos de ellos aparecerán manchados de fuel días más tarde en diferentes puntos de la Costa de la Muerte: Lira, Corcubión, Finisterre y Cee, la hipótesis derivará hacia la posibilidad de que un tronco impulsado por el oleaje pudo haber impactado en el costado derecho del barco, que ya había sido arreglado, en mayo del pasado año, en un astillero chino, en el puerto de Wan Souk. Tampoco se descartan como posibles desencadenantes la fuerza de arrastre de las olas del mar y una mala maniobra.

A partir de ese momento comienzan a producirse una serie de negociaciones entre el armador, el Gobierno español y las empresas de salvamento. A pesar de que la situación es crítica y demanda soluciones urgentes, los diferentes sectores implicados no consiguen ponerse de acuerdo de forma inmediata. Es mucho lo que se arriesga: las 77.000 toneladas de fuel están valoradas en 60 millones de euros.

Impacto en la zona

La Tragedia del Prestige El derrame de petroleo en el oceano DesastreEsta marea negra es una catástrofe ecológica. Hay decenas de especies de aves, invertebrados, peces y mamíferos marinos afectados. El plancton de la zona, que es la base de la cadena trófica, ha resultado aniquilado. Toda la vida marina de la zona afectada desaparecerá a corto plazo por culpa del vertido. Los recursos marinos tienen una gran capacidad de regeneración, pero se calcula que ésta no comenzará hasta dentro de 3-4 años. Los efectos a largo plazo de la marea negra podrán observarse todavía dentro de 15-20 años.

La marea negra del Prestige ha puesto en peligro los puestos de trabajo de alrededor de 120.000 gallegos. En la Costa da Morte, el 40% de los puestos de trabajo dependen directamente de la pesca. Se calcula que alrededor de 2.500 barcos y 6.000 pescadores no podrán salir a faenar, pero el fuel no solo acaba con sus empleos, sino también con todos aquellos sectores que dependen directa o indirectamente del mar.

Los mariscadores y acuicultores se verán afectados si el fuel penetra en las rías, especialmente la de Arousa, ya que se vería afectado el grueso de la producción de mejillón, berberecho, almeja, viera y rodaballo. En el momento de redactar este texto, el fuel no había penetrado aún.

Las fábricas de conservas, un sector genera 13.000 empleos en Galicia, también tienen un negro futuro. En las costas gallegas están los cultivos de mejillón más importantes del mundo, por lo que las pérdidas pueden ser elevadísimas.

El turismo en Galicia depende en gran medida de la costa y se verá muy afectado por la marea negra. Debemos recordar que en el año 2001 Galicia recibió más de 4 millones de visitantes. De los 525 hoteles gallegos, unos 320 (con cerca de 23.000 plazas) están en la costa afectada por el vertido.

La economía de la zona quedó supeditada a las subvenciones ante la imposibilidad de faenar en las costas como consecuencia del daño ecológico ocasionado por la marea negra. Muchos de los trabajadores que tuvieron que parar su actividad por la marea negra comenzaron a cobrar unas ayudas de 1.200 euros al mes por persona, apenas un mes después de la catástrofe. Según denunció en su día el Instituto Español de Oceanografía (IEO) se había perdido toda una generación de peces, moluscos y crustáceos por culpa del crudo y un año y medio después del vertido, el fuel se mantenía en la cadena alimentaria.
En 2007, un lustro después del accidente, aún quedaban restos de fuel en los fondos marinos más inaccesibles y faltaban por tratar 60.000 toneladas de residuos. Los científicos advierten por entonces del peligro que supone subestimar el impacto de los vertidos de fuel en las poblaciones de las zonas contaminadas si se ignoran los efectos a largo plazo que se derivan de una exposición crónica.

Fuente Consultada: «Prestige»: Crónica en negro por Miquel Ponte y Enciclopedia Libre Wikipedia

Choque en el Río Potomac Accidente Aereo Tragedias Aereas

La Tragedia del Río Potomac: Accidente Aéreo

La tormenta que se había formado sobre Nueva 0Rleans, remolineando desde una hondonada de baja presión sobre el Golfo de México, abarcó el noreste del la noche a la mañana dejando a los estados del su bajo una capa extraordinariamente espesa de nieve.  En Alabama, un hombre murió cuando las ramas congeladas de un árbol cayeron sobre él.  Atlanta y Chicaz registraron las temperaturas más bajas del Siglo.

Para la mañana del 13 de enero de 1982, las tempestades d nieve llegaron a la capital, Washington, D.C. A la p.m., la Autoridad Federal de Aviación cerró durante 73 minutos el Aeropuerto Nacional, a kilómetro y me dio de la Casa Blanca’ para que las máquinas quita nieves pudieran limpiar las pistas de una capa de más d 12 centímetros.

En las oficinas de gobierno de la ciudad, los jefes d servicio civil escudriñaban ansiosamente los cielos cargados de nubes, y poco después del almuerzo con vinieron en dejar que el personal regresara temprano a su casa para evitar las ventiscas que se esperaban.  Pronto, todas las carreteras que salían de la capital estaban congestionadas de carros que avanzaban cuidadosamente a vuelta de rueda a través de la niebla cegadora.

Una enorme culebra de tráfico atravesaba el congelado río Potomac por el puente de dos carriles de la calle 14, parte de la autopista Jefferson Davis, la ruta más transitada entre Washington y los suburbios de Virginia.  Luego, exactamente a la 4 p.m., el terror salió rugiendo del cielo en un desastre que habría de cobrar 78 vidas y pasmar a una nación.

El vuelo 90 de Áir Florida había estado programado para salir del Aeropuerto Nacional hacia Fort Lauder da le y Tampa a las 2:15 p.m., pero dieron las 3 p.m. antes de que los 71 pasajeros (tres de ellos cargando bebés) dejaran la sala de salida y ocuparan las 21 filas de asientos del jet Boeing 737 de dos motores.  Cuarenta y un asientos quedaron vacíos.  El capitán Larry Wheaton, de 35 años, y el copiloto Roger Pettit verificaron sus tableros de instrumentos y pidieron disculpas por los retrasos mientras los trabajadores del aeropuerto deshelaban las alas con glicol líquido.  Aun cuando la visibilidad seguía restringida a menos de un kilómetro, el aeropuerto fue reabierto, y los dos hombres observaron que un avión llegaba a la terminal y notaron los enormes carámbanos que colgaban de sus alas.

«Me alegro deveras de que haya gente rondando en el mismo lugar adonde quiero ir, dijo Wheaton.  No puedo ver la pista sin estas banderas.  Tal vez más arriba…» La sobrecargo en jefe, Donna Adams, miró el paisaje blanco y dijo: «Me encanta, miren todas las huellas de llantas en la nieve».  Pettit estaba más preocupado por cosas prácticas: «Hombre, ésta es una batalla perdida, tratar de deshelar esas cosas’ murmuró observando a los hombres que trabajaban en las alas.  Te da una falsa sensación de seguridad, eso es todo».

A las 3:58 p.m. el Boeing por fin rodó para despegar sobre la pista 36 de 2,230 metros, la más larga del Nacional.  Los pasajeros sintieron alivio por que su larga espera terminaba.  El sol de Florida parecia aún más atractivo en este clima ártico.  Los dos pilotos vieron la pista lodosa a través de la nieve que todavía caía, y eligieron levantar la nariz antes que de costumbre para ayudar al despegue.  Justo después de las 3:59 p.m., el avión despegó.

En 30 segundos, la tripulación supo que algo estaba muy mal: «Dios, mira esa cosa… no parece bien», dijo Pettit.  «Tranquilos los dos, adelante, adelante, urgió Wheaton.  Vamos adelante… adelante… sólo levanta un poco…» continuó.  El avión temblaba y se movía mu cho.  Un tripulante gritó: «Caemos, estamos cayendo».  Pettit se volvió al capitán: «Larry, estamos bajando, Larry…» Wheaton respondió con frialdad: «Lo sé».  A las 4:01 el vuelo 90 se estrelló.

En el puente de la calle 14, a un kilómetro del Aero puerto Nacional, los conductores atrapados en el embotellamiento de tráfico oyeron al jet que caía antes de verlo.  «Oí un estruendo pero no pude ver nada por la nieve, dijo el empleado del Departamento de justi cia Lloyd Creger.  Los motores hacían un ruido tan fuerte que debían ir a toda máquina.  No podía oírme a mí mismo gritar.  Luego vi el avión salir del cielo.  Estaba cayendo, pero no parecía que le pasara nada malo.  La nariz estaba levantada y la cola abajo.  Luego pare ció que no había ningún ruido».  Otro conductor sollozó: «Oí el ruido del jet más y más fuerte.  Abrí la portezuela y corrí para salvar la vida.  No me detuve para voltear hacia atrás, sólo oí un golpe seco al chocar el avión contra el puente».

El avión golpeado apenas libró un puente de ferro carril al sur de los dos trechos de carretera atorados.  Al rugir a poca altura encima de los indefensos automovilistas, una rueda golpeó un camión que iba por la carretera del sur, y el avión cayó pesadamente en el Potomac entre los dos puentes de la carretera.  Arrancó los techos de cinco autos y arrastró a otros al agua he lada.

El hielo que había sobre el río se rompió como un parabrisas golpeado por una roca, y los pedazos volaron por el aire.  Testigos pasmados se dieron cuenta lentamente de la enormidad de lo que había ocurrido.  «Había metal retorcido de los carros chocados por todas partes, dijo el reportero Al Rossiter.  Algunos de los vehículos empezaron a incendiarse, y el camión golpeado colgaba de la orilla en un ángulo de 45 grados.  Vito Maggiolo dijo: «Había cadáveres esparcidos por todo el puente, y también sobre el hielo del río».  El sargento Jerome Lancaster de la Fuerza Aérea de Estados Unidos dijo: «Conté seis o siete personas vi vas en el agua, pero se hallaban aturdidas.  Lanzamos una cuerda a un pasajero».

El boeing se había roto en tres secciones por el impacto.  La nariz se hundió bajo la superficie, matan do a los que estaban adentro.  El fuselaje se desplomó de panza y se asentó brevemente, y los horrorizados espectadores pudieron ver a las personas adentro, atadas a sus asientos, mientras el destrozado avión se hundía lentamente.  Pero la cola flotó milagrosamente durante veinte minutos, y la mayoría de los sobrevivientes salieron de allí.  Cinco emergieron, golpeados y sacudidos, se escabulleron a través del hielo y se pusieron a salvo.  Otros fueron arrojados como muñecos al agua helada, y se asían desesperadamente a los restos del naufragio o a témpanos de hielo, gritando, pidiendo auxilio.  Las personas que estaban en el puente les arrojaron todos los cables disponibles, y les gritaban: «Sujétense, la ayuda estará pronto aquí».

Pero las condiciones de pesadilla (una ciudad atasca da por la nieve y el tráfico) hicieron imposible que los servicios de emergencia reaccionaran con velocidad.  Ambulancias, carros de bomberos y patrullas queda ron atrapados en los embotellamientos, teniendo que meterse en las anchas aceras frente a la Casa Blanca para pasar.

Increíblemente, en cuestión de minutos un segundo accidente aumentó el caos en la capital.  Un tren del metro con mil pasajeros se descarriló a menos de dos kilómetros del puente, dejando tres muertos y muchos heridos.  Los servicios de emergencia tuvieron que ser desviados para dirigirse allí también.

Los primeros vehículos de rescate llegaron al puente de la calle 14 del lado de Virginia al mismo tiempo que el primero de una docena de helicópteros de la policía y de las Fuerzas Armadas llegó por el aire, sobrevolando peligrosamente cerca de los puentes para tratar de izar a los sobrevivientes a un lugar seguro.  Entonces, el desastre tomó proporciones casi grotescas.  Los equipos de televisión, alertados por las llamadas a los servicios de emergencia, llegaron con sus cámaras y empezaron a enviar imágenes en vivo del drama a un público de muchos millones de costa a costa.

Los estadounidenses, endurecidos por las películas de desastre de Hollywood, ahora veían con culpable fascinación cómo la muerte y el heroísmo se desarrollaban ante sus ojos.

La gente moría ahogada o congelada a menos de 17 metros de la orilla, en un agua donde sólo po día sobrevivir diez minutos.  Chapoteaba débilmente hasta que el río entumecedor paralizaba sus músculos y les impedía nadar.  Trataban desesperadamente de alcanzar las cuerdas salvavidas que colgaban de los helicópteros, luego volvían a hundirse bajo la superficie, con las manos demasiado heladas para agarrarse a las cuerdas.  Un oficial de rescate dijo: «Partía el corazón verlos tan cerca y no poder ayu darlos.  Nadie viviría más de cinco minutos en esa agua».

La sobrecargo Kelly Duncan, de 23 años,  vestida sólo con una delgada blusa de manga corta y la fal da del uniforme, falló repetidamente en el intento de asirse a los aros de rescate.  Parecía estar definitivamente perdida.  Entonces el piloto del helicóptero Donald Usher arriesgó su propia vida y la del tripu lante Gene Windsor colocando su aparato casi en el agua, mientras Windsor se encaramaba en los patines de aterrizaje y sujetaba a la chica poniéndola a salvo.  Fue llevada rápidamente al hospital con una pierna rota e hipotermia (su temperatura había descendido a 32 grados); pero sobrevivió, la única del equipo de cinco.

Priscilla Tirado estaba también en el agua.  Trató de alcanzar un cable, pero no pudo. Su fuerza desvanecida la sumergió bajo la superficie, pero ella surgió de nuevo, y la tripulación del helicóptero le arrojó el cinturón de seguridad atado a una cuerda.  Cientos de personas en el puente y millones de televidentes obervaron su agonía con desesperación.  Pero un hombre reaccionó más positivamente.  Lennie Stutnik, un oficinista de 38 años que se dirigia a su casa de la Oficina del Presupuesto a el Congreso, se quitó la chaqueta y las botas y se lanzó al agua, sin tomar en cuenta su propia seguridad.  La señora Tirado, de 23 años, es taba casi inconsciente, pero Stutnik logró empujarla, jalarla y hasta patearla hasta el borde, donde manos dispuestas los jalaron a la orilla.  Compartieron la ambulancia hacia el hospital, él sufriendo hipotermia y ella gravemente enferma y sin saber que su esposo José y su hijo Jason de dos meses de edad se habían ahogado.

El héroe Stutnik, después encomiado por el presidente Ronald Reagan, fue modesto respecto a su parte en el rescate: «Ella se rindió -dijo a los reporteros-.  Sus ojos se cerraron y había empezado a hundirse cuando la agarré.  Con sólo verla podías decir que no le quedaba ni una onza de energía.  Parecía estar perdiendo la voluntad de vivir.  No noté para nada el frío mientras estaba en el agua.  Sólo lo sentí en la ambulancia en que iba después al hospital.  Noté que los dedos de mis pies estaban fríos, eso fue todo.  No creo ser ningún tipo de héroe.  Sólo fue una reacción automática».

Otro héroe no vivió para contar su relato.  Cinco veces agarró cuerdas salvavidas lanzadas por los helicópteros, pero en cada ocasión entregó la cuerda a otros que fueron remolcados o levantados a la orilla: «Pudo haber sido el primero -dijo el piloto Usher-.  Le arrojamos un aro, pero él se lo pasó a un hombre que sangraba mucho de una herida en la cabeza.  Volvimos cuatro veces, y cada vez pasó el aro a alguien más, incluyendo a tres damas que colgaban de la sección de cola.  La última vez que volvimos, había desaparecido.  El es el verdadero héroe de todo esto.  Si usted estuviera en su situación, a cien metros de la orilla y sabiendo que cada minuto está más cerca de morir congelado, ¿podría hacerlo?  Realmente no creo que yo pudiera».

El copiloto Gene Windsor dijo: «El tipo era asombroso, nunca había visto tanto valor.  Me pareció que decidió que las mujeres y el hombre herido necesitaban salir de allí antes que él y aun cuando estaba hundiéndose se aferró a esa decisión.  Después lo buscamos por todas partes, pero había desaparecido».  Sólo cuando todos los cadáveres fueron recuperados pudo establecerse la identificación del hombre calvo con bigote negro.  Arland Williams, de 46 años, empleado del Gobierno Federal, fue el único que murió sólo ahogado.  Todos los demás tenían miembros fracturados.

Misericordiosamente, la mayoría de los pasajeros del avión murieron instantáneamente con el impacto.  Pero algunas de las 78 víctimas murieron horriblemente despacio.  La historia de un hombre de edad fue relata da por el comandante del Ejército de Salvación Harold Anderson: «Estaba vivo cuando la policía lo vió bajo el hielo y observó a los rescatistas tratando de sacarlo del agua.  Trataba frenéticamente de salir, pero cuando pudieron romper el hielo había muerto.  No pudieron revivirlo».

Los primeros sobrevivientes fueron internados en el George Washington Medical Center 45 minutos después del choque.  Tres horas y media después del desastre se dijo oficialmente a los hospitales que no esperaran más pacientes.  Sólo cinco pasajeros del avión habían sobrevivido.  Cuatro automovilistas del puente habían muerto.  Dieciséis personas estaban en el hospital.

La espantosa búsqueda de cadáveres siguió mucho después de que oscureció.  Las luces de los proyectores y las luces intermitentes de vehículos de rescate iluminaron una escena pavorosa cuando hombres lanzaban ganchos de botes desde un remolque y botes de hule entre los témpanos de hielo flotantes cerca del jet azul y blanco de Air Florida.  Los helicópteros desviaron su atención del río a la orilla, levantando a los heridos menos graves y alejándolos de la escena trágica.  Los cadáveres fueron tendidos sobre la nieve, y se instaló una morgue improvisada en una tienda de campana.  Llegaron los rompehielos del ejército, y buzos con trajes especialmente gruesos trataron de abrirse camino entre el fuselaje, para llegar a los cuerpos todavía ata dos con el cinturón a los asientos.  Al amanecer, los equipos de rescate fueron recibidos con el espectáculo desgarrador de una mujer y un bebé flotando, congelados y tiesos sobre la superficie del hielo.

Las operaciones de buceo continuaron durante la se mana siguiente, pero fue un proceso lento.  La visibilidad bajo el agua se había reducido a 45 centímetros, y los restos mellados estaban rodeados por corrientes traicioneras y hielo sumergido.  El combustible derramado hizo que los restos se pusieran resbalosos, y el clima ártico nunca cesó.  Un buzo tuvo que ser res catado cuando su válvula de respiración se congeló, y una barcaza que llevaba una grúa fue perforada por el hielo.  Los buzos fueron restringidos a estar sólo 30 minutos en el agua a más de ocho metros de profundidad, a pesar de su ropa protectora.  Tardaron siete días en recuperar las grabaciones de la «caja negra» de vuelo, vitales para la subsecuente investigación respecto a la causa del choque.

Debido a la nieve, nadie, ni siquiera el personal de la torre de control del aeropuerto Nacional, había visto despegar al vuelo 90.  Los investigadores de la Autoridad Federal de Aviación tuvieron que depender de las cintas grabadas antes mencionadas y de la evidencia de los pocos sobrevivientes.

Tanto la sobrecargo Kelly Duncan como el pasajero Burt Hamilton, de 40 años, hablaron de que el avión se estremeció con fuerza poco después del despegue.  El señor Hamilton, cuyo asiento estaba junto a la cocina en la parte posterior del jet, dijo: «Supe que algo andaba mal cuando despegó.  El avión pareció tardar muchísimo en adquirir velocidad.  Realmente empezó a vibrar, dio una sacudida fuerte, tan fuerte que apreté mi cinturón y empecé a rezar mucho».

El hombre de negocios Joseph Stiley, de 42 años, piloto privado, también declaró que sabía que no todo iba bien.  Revisando sus papeles con su secretaria Patricia Felch, se volvió hacia ella cuando los motores rugieron y dijo: «No vamos a lograrlo, estamos bajando».  Después, en el hospital con dos piernas fracturadas, dijo: «Las cosas no iban bien cuando empezamos a rodar por la pista.  No teníamos la velocidad.  Pareció que el piloto trató de abortar, pero se le acabó la pista.  Tuvo que tomar la decisión de seguir, así es que despegamos.  Nos elevamos un poquito, pero no subió como un 737 normal.  Conseguimos un ángulo bastante decente, luego el avión se ahogó y bajamos.  Estuvimos en el aire sólo 20 o 30 segundos antes del impacto, cuando me desmayé».

El desastre fue el primer choque importante desde que el presidente Reagan había despedido a 11,500 controladores de tráfico aéreo en huelga el pasado agosto.  El sindicato de controladores había advertido entonces que a los pilotos que volaban a ciegas en invierno les faltaría la ayuda de tierra de la que usual mente dependían, pero los jefes de la Aviación Federal desecharon el error de control de tráfico aéreo como causa del accidente.

El choque también suscitó preguntas respecto a la seguridad del aeropuerto Nacional, considerado por los pilotos como uno de los aeropuertos más tramposos de Estados Unidos.  Aunque no había habido accidentes desde 1949, el aeropuerto (mantenido por el gobierno principalmente por conveniencia de los congresistas y servidores civiles) está situado en el corazón de un área urbana densamente poblada, y puede ser usado sólo por jets pequeños.  Las aeronaves gran des tienen que salir del Aeropuerto Dulles, 48 kilómetros al oeste de la capital.  Las cortas pistas del Nacional no dejan lugar a que los pilotos lo piensen dos veces, y las rutas de vuelo son difíciles de manejar, en parte porque se requiere que el ruido sea mínimo, y en parte porque los aviones que despegan tienen que hacer un viraje brusco a la izquierda para librar el monumento a Washington de 165 metros de altura.

Pero los investigadores no estaban preocupados por las deficiencias del aeropuerto Nacional, sino por la causa de que el vuelo 90 chocara con el puente de la calle 14 cuando debió haber estado por lo menos 165 metros arriba de él.  Se concentraron en tres posibilidades: contaminación del combustible que causó pérdida de potencia, error del piloto, y la causa más probable del choque, el hielo.

Desde que por primera vez el hombre se lanzó al aire, el hielo en las alas, que restringe la potencia para elevarse, o el hielo en el motor que distorsiona la entrada de aire y reduce la potencia, han sido siempre un peligro.  Y a unos días del desastre del Potomac, se reveló que sólo una semana antes del choque, la Autoridad Británica de Aviación Civil había advertido a sus contrapartes estadounidenses que el Boeing 737,normalmente una de las aeronaves más seguras del mundo, era especialmente vulnerable a las condiciones he ladas.  La Asociación de Pilotos de Aerolíneas Británicas había informado que los jets tendían a inclinarse hacia arriba o a rodar inexplicablemente cuando había hielo en las alas.  Y la secretaria técnica de BALPA, Terence Staples, dijo: «No tiene que ser un gran depósito. Aun una pequeña cantidad, que podría no ser fácil de ver, puede causar dificultades’.

La Boeing inmediatamente dio instrucciones a todas las aerolíneas para que se aseguraran de inspeccionar las alas de los jets 737 antes del despegue, y quitaran todo el hielo.  Y las autoridades británicas ordenaron a los pilotos de 737 que aumentaran sus velocidades de despegue hasta cinco nudos y bajaran el intervalo de tiempo al cual se permite subir a la nariz.

   Volver Arriba 

La Tragedia de los Dirigibles HINDENBURG R101 Accidente EE.UU.

La Tragedia de Dirigibles HINDENBURG R101

dirigible
1-Los Dirigibles -Evolución-    2-Los Zepellin     3-Incidentes en Dirigibles     4-Hindenburg R101

Historia del Globo Aerostático

El R 101 (1930) y el Hindenburg (1937) 

La industria del dirigible es probablemente la única que desaparecerá en los tiempos modernos a causa de los desastres, a pesar de que experimentó sólo dos: el R 101 y el Hindenburg, que cobraron un tributo total de menos de 100 vidas. 

Ha habido desastres mucho peores en tierra, mar y aire, pero ninguno ha llevado a una interrupción de producción tan abrupta de las industrias que los originaron.  Tal vez el origen del desastre no estuviera en los aparatos voladores, sino en la misma industria, con una vulnerable tecnología que se apoyaba en la política.

No era una industria joven: el dirigible rígido surgió del pequeño dirigible flexible, que a su vez procedía del globo ordinario. 

Los globos tripulados fueron utilizados por los franceses hace más de 200 años, y en tiempos de guerra desarrollaron funciones de reconocimiento; pero como estaban en gran parte a merced del viento, fue obvio que una cubierta alargada impulsada por un motor era esencial si esos dirigibles iban a tener una utilidad práctica.

El primer dirigible verdaderamente exitoso, diseñado por el francés H. Giffard, era impulsado por vapor y podía desarrollar una velocidad de 8 kilómetros en condiciones tranquilas. 

Un aparato más práctico impulsado eléctricamente, llamado La France, salió al aire en 1884.  De ahí en adelante los diseños mejoraron hasta que, en el periodo de 1910 a la Primera Guerra Mundial el zepelin alemán inició los viajes aéreos transportando decenas de miles de pasajeros a través de miles de kilómetros.

Aun cuando el progreso fue logrado principalmente en Alemania y Francia, Gran Bretaña había producido unos cuantos dirigibles flexibles (el primer aparato rígido, el Mayflower, se estrelló en el viaje inaugural). 

La primera guerra mundial demostró el éxito del zepelin en ataques aéreos inesperados, pero también mostró sus puntos vulnerables (en particular el uso de hidrógeno como gas para elevarse, pues Estados Unidos no exportaba helio que es un gas no inflamable); pero fue a raíz de un zepelin forzado a bajar en 1916 cuando Gran Bretaña, copiando el diseño básico, inició un trabajo serio sobre sus propios dirigibles rígidos. 

Mientras tanto, el dirigible flexible, mucho más pequeño, estaba de moda como puesto de observación.  Cuando terminó la guerra, la industria del dirigible parecía bastante sana.

En 1919, Gran Bretaña había construido dos dirigibles rígidos: el R33 y el R34.  Luego de su derrota se impidió a Alemania fabricar otros zepelines, hasta 1926, pero los alemanes habían estado estudiando algunos de los problemas más sofisticados que implica su construcción.

Entonces sucedieron dos desastres (con siete años de diferencia) que prácticamente detuvieron la fabricación de dirigibles en todo el mundo. 

En 1930 ocurrió la destrucción del R 101 (47 muertos) seguida, en 1937, por el desastre más dramáticamente narrado del Hindenburg (36 muertos). 

Alemania mantuvo su Graf Zeppelin para el servicio de pasajeros un año más, pero la segunda guerra mundial era inminente y ya resultaba obvio que el campo de batalla aérea sería dominado por los aparatos más pesados que el aire, mucho más rápidos y maniobrables, y que los bombarderos, más grandes y adaptados para el transporte de tropas, formarían el núcleo de la aviación civil por venir.

Aun cuando el uso de dirigibles como una forma de transportación a baja velocidad para carga pesada tiene hoy en día sus protagonistas, la mayoría de la gente considera la era de la «cámara de gas» como desaparecida. 

El proceso de extinción empezó con el R 101 y la subsecuente conversión en chatarra del R 100 que estaba mejor diseñado.

En 1924, el gobierno británico decidió dejar de jugar con dirigibles y entró seriamente en la industria con la construcción del R 100 y el R 101. 

El R 100 sería construido por la Airship Guarantee Company, una subsidiaria de Vickers at Howden en Yorkshire, mientras que el R 101 sería fabricado por el propio Ministerio de Aeronáutica, en Cardington, en Bedforshire. 

A los constructores del R 100 les faltaba dinero pero les sobraba pericia, además de que podían recurrir al doctor Barnes Wallis (de subsecuente fama como «reventador de presas») y a otros prominentes científicos e ingenieros, incluyendo a Nevüle Shute Norway (No Highway), cuyos dos primeros nombres se convirtieron en palabras de uso común.

El Ministerio de Aeronáutica sufría por falta de talento diseñador, ya que muchos de sus hombres experimentados habían muerto en la guerra. 

Por otro lado, padecía por la sobreexposición en la prensa, ya que alutilizar dinero de los contribuyentes, cada etapa del trabajo en Cardington era hecha pública.

Así, los errores que la Airshíp Guarantee Company pudo rectificar en silencio, tuvieron que ser mantenidos en reserva (por ejemplo, los motores diesel británicos demasiado pesados que la A.G.C., cambió calladamente por unidades más ligeras accionadas por petróleo).

Problemas y discusiones técnicas y políticas terminaron con el R 101, que se desplazaba 16 kilómetros más lento, a 113 kilómetros por hora, y tenía una capacidad de 25 toneladas, tan sólo la mitad de la carga levantada por su nave gemela. 

El dirigible fue llevado a la Hetidon Air Display (exhibición aérea de Hendon) en el verano de 1930 para que el público lo admirara, pero los expertos sabían que estaba perdiendo gas y que sólo podría regresar a Cardington botando enormes cantidades de lastre. 

Fue allí donde se ordenó una acción drástica y, en su momento, absurda: en vez de tomar medidas para reducir el peso se decidió aumentarlo cortando el dirigible en dos, insertando un nuevo compartimiento de metal (alargando así su longitud) y poniendo dentro más bolsas de hidrógeno para el ascenso.

Mientras todo esto ocurría, el R 100, construido en forma privada, realizó un vuelo exitoso a Canadá. 

El Ministro de Aeronáutica, lord Thompson, tal vez algo molesto, decretó bruscamente que el R 101 saldría hacia la India vía Egipto el 4 de octubre con él mismo a bordo. 

Para entonces, el dirigible sería «tan seguro como una casa, excepto por una probabilidad de accidente en un millón», y de todos modos, él tenía que regresar a tiempo para una junta.  Todo esto fue muy emocionante, aunque no se sabe hasta qué grado el entusiasmo de Thompson era compartido por quienes lo rodeaban.

El hasta ese momento no probado R 101 dejó su mástil de Cardington en la fecha ordenada con 54 personas a bordo, de las cuales sólo seis eran pasajeros. 

Actualmente, con los plásticos sintéticos, es difícil comprender cómo la estructura dura podía contener bolsas de gas llenas de hidrógeno, hechas de membranas de intestinos de bueyes mantenidas en posición por cientos de alambres. 

Se adaptaron nuevas válvulas para controlar el gas, pero éstas tendían a «sobrerreaccionar» causando que el gas escapara con una turbulencia inesperada, dejando salir el gas prematuramente.  Este fue uno de los muchos problemas técnicos fuera de control.

A pesar de los esfuerzos por ahorrar peso, no se puso límite al equipaje personal; los efectos personales de lord Thompson pesaban tanto como 24 personas.  Los avíos del dirigible incluían cuchillería de plata, palmas plantadas en macetas y 200 metros de pesada alfombra de Axminster. 

El aprovisionamiento de comida y bebida era abundante, ya que se daría un banquete aéreo de índole política para notables personajes egipcios y otras figuras distinguidas como huéspedes. 

Debido a la inconveniencia de cargar combustible durante un banquete (no fumar, etc), el dirigible llevaba nueve toneladas más de lo necesario de diesel para llegar a su destino.

No es de extrañar que aquella noche el R 101 se elevara hacia el cielo estremeciéndose penosamente.  Una residente de Hitchin dijo después al Daily Express que había salido corriendo de su casa y vio todo iluminado por una «espectral luz verde…

Allí estaba el R 101 dirigiéndose justo hacia su casa… libró los árboles de nuestro camino de entrada a la casa por un margen mínimo… Al elevarse las luces verdes sobre el camino de entrada, el horror descendió sobre nosotros».

Unas cuantas horas después el aeropuerto Le Bourget en Francia confirmó que el dirigible estaba un kilómetro al norte de Beauvais. 

Después de las 2:07 a.m., el R 101 dejó de responder a los mensajes radiofónicos, y a las 2:08 los horrorizados lugareños habían sido despertados por un estruendoso ruido y luego el infierno.  El operador de Le Bourget captó las palabras «G-FAA W a pris feu’.

El C-FAAW-R101 realmente se había incendiado, debido a que no había librado una pequeña colina de Beauvais.  Todo había terminado en minutos. 

A diferencia del Hindenburg, que tuvo mejor suerte, no hubo oportunidad para los pasajeros ni para la mayor parte de la tripulación, porque estaban durmiendo.  Siete miembros de la tripulación sobrevivieron.

Nadie sabe con seguridad por qué el R 101 chocó en Beauvais.  Tal vez se rompió bajo la tensión aerodinámica, tal vez una bolsa de gas se perforó, tal vez simplemente le faltó suficiente impulso. 

Cualquiera que sea la causa, terminó con la contribución británica al desarrollo del dirigible.  El R 100 fue puesto en tierra y convertido en chatarra.

Esto significó casi la muerte de la industria del dirigible, pero no completamente.  Los alemanes continuaron, y en 1936 habían terminado el Hindenburg que se unía a su nave gemela, el Graf Zeppelín.  Con una longitud de más de 270 metros, era el dirigible más grande que se hubiera construido. 

La energía provenía de cuatro poderosos motores diesel Daimler que impulsaban hélices en diferentes góndolas bajo el enorme casco elevado por gas.  Como en todos los dirigibles, el gas estaba contenido en cierto número de bolsas o células.  Hoy en día, esas bolsas serían hechas completamente herméticas, pero en 1937 una lenta filtración se esperaba y se permitía.

Esto traía consigo el peligro de incendio, pero los diseñadores habían perfeccionado el interior de los compartimientos de pasajeros, con los camarotes de dos camas, un espacioso comedor, un salón y biblioteca, de modo que casi no había riesgo de que entrara hidrógeno. 

El fumar estaba restringido a una sala absolutamente segura, con puertas dobles y un ingenioso método que mantenía la presión de aire más alta que en cualquier otra parte, para que ningún gas pudiera entrar. 

Los pasajeros podían fumar libremente, aunque los encendedores estaban encadenados a las mesas para evitar que los distraídos se los llevaran a sus dormitorios.

En otra área de esta ingeniosa y lujosa nave había un pequeño piano de aluminio, y a cada lado cubiertas de paseo desde donde los pasajeros podían mirar hacia afuera y hacia arriba a través de grandes ventanas inclinadas.

El Hindenburg hizo varios vuelos a Estados Unidos y Brasil durante 1936-37, y en mayo de 1937 tuvo todavía otra salida programada de Frankfort a la estación estadounidense de Lakehurst. 

Nada podía haber sido más rutinario; ningún dirigible de pasajeros o zepelin alemán se había estrellado todavía.  Desde aquellos primeros vuelos en 1910, miles de personas habían sido transportadas a sus destinos sin contratiempos.

El Hindenburg se elevó lentamente al cielo de Frankfort la noche del 3 de mayo.  Sus plazas de pasajeros estaban semivacías (aunque reservadas casi totalmente para el viaje de regreso) y los 36 pasajeros a bordo, con una tripulación normal, hacían un total de 97 personas. 

La hora estimada de llegada a Lakehurst era 8 a.m., del día 6, pero muy pronto el capitán Max Pruss se dio cuenta de que fuertes vientos de frente iban a trastornar el itinerario.

Eran las 15:30 horas del día 6 cuando el Hindenburg pasó sobre el Empire State Building de Nueva York (una práctica regular para publicitar a Alemania y su enorme dirigible a la gente que estaba abajo y dar a los pasajeros una vista impactante y poco conocida de la ciudad).  Sin embargo, cualquier interés que pudiera haber por la llegada de un vuelo de dirigible disminuyó más que aumentó, debido al retraso. 

Aparte de los amigos y parientes de los pasajeros, pocas personas se dirigían a Lakehurst. 

Apenas se habían presentado algunos periodistas; una compañía de radio envió a un comentarista, Herb Morrison, con una grabadora portátil.

El mal tiempo obligó a Pruss a retrasar aún más la llegada, y no fue sino hasta las 7 p.m., cuando el Hítidenburg empezó a aproximarse al mástil de anclaje de Lakehurst. 

Las primeras cuerdas fueron lanzadas a la tripulación de tierra a las 7:25 p.m. Un Herb Morrison ligeramente fastidiado inició su comentario, sin darse cuenta de que su narración se convertiría en una de las grabaciones más conmovedoras.

Hubo una flama y la voz de Morrison, abruptamente excitada por la histeria, sollozó: «Está en llamas, está llameando, llameando, llameando terriblemente, ¡está estallando en llamas!»

Quienes estaban dentro fueron los últimos en darse cuenta, y hasta la fecha nadie puede estar seguro de qué ocasionó la flama.  Milagrosamente, con 260,000 metros cúbicos de hidrógeno incandescente alrededor de ellos, sólo 36 personas murieron de las 97 que estaban a bordo del Híndenburg.

Mucho crédito por esto debe darse a los oficiales y hombres de apoyo en Lakehurst, quienes se arriesgaron a morir para guiar a los pasajeros asustados y heridos lejos de ese holocausto.

Así terminó la existencia del dirigible de pasajeros.  El resto del mundo, incluyendo a Gran Bretaña, que había estado observando a los alemanes con interés, perdió la esperanza de que estos «monstruos del cielo» fueran algún día seguros y prácticos para viajar. 

Hubo indudablemente otras consideraciones no expresadas, porque ninguna industria podía morir con una lista de víctimas tan relativamente corta. 

Los alemanes desecharon en 1938 al Graf Zeppelín, que era perfectamente seguro y, en retrospectiva, la razón es obvia.  Los zepelines no eran máquinas de guerra. 

Los globos y los dirigibles flexibles continuaron, sin embargo, mientras la tecnología de aviones de combate y bombarderos asumió la dirección.

Queda el posible retorno del dirigible para transportar carga.  Puede viajar, independientemente de la tierra y del mar «como el cuervo vuela», lo cual ofrece ciertas ventajas. 

A largo plazo, la cuestión puede ser decidida por mera economía, porque un dirigible de carga debe tener una ganancia para que sobreviva, o aun para convertirse en una realidad.

Ver: Biografia de Paul Von Hindenburg

Resumen de la Gloriosa Revolución En Inglaterra Caida de la Monarquia

Resumen de la Gloriosa Revolución En Inglaterra

Cambios económicos y conflictos de intereses: Hasta finales del siglo XVI, la monarquía de los Tudor tuvo muchos intereses en común con los burgueses urbanos y con los pequeños propietarios rurales de origen noble la gentry .

Sus intereses coincidían en la lucha contra España por el dominio de los mares atlánticos y por el empeño español en restablecer el catolicismo en Inglaterra; y también en la lucha contra las familias más poderosas de la nobleza inglesa —la aristocracia— que arruinaban el país con sus guerras privadas.

Pero esta alianza entre la monarquía, la gentry y los burgueses entró en crisis durante los reinados de los reyes Estuardo.

En las primeras décadas del siglo XVII, la riqueza de los burgueses dedicados al comercio y a la producción de mercaderías aumentaba, y también la de la gentry, cuyos miembros se diferenciaron del resto de la nobleza porque se dedicaron a una actividad típicamente burguesa como el comercio.

Mientras tanto, disminuían los ingresos de los nobles más poderosos que tenían como única fuente de riqueza la propiedad de sus tierras. Muchos nobles comenzaron a depender de la monarquía para sobrevivir, y los burgueses entraron en conflicto con el poder absoluto de la monarquía que intentó poner límites al desarrollo de sus actividades económicas.

La lucha por la nueva riqueza

burguesesEl problema era que los burgueses estaban generando y acumulando una riqueza a la que la monarquía no podía acceder.

Para obtener una parte de esa nueva riqueza la monarquía propuso crear nuevos impuestos y aumentar los que ya existían.

El Parlamento se opuso porque sus miembros no podían controlar el destino del dinero recaudado.

La corona también intentó participar directamente en algunas de las actividades industriales y comerciales, pero el resultado fue aumento de precios, desocupación y descontento general.

Para conseguir ingresos, la monarquía comenzó a exigir antiguos derechos feudales y reforzó su alianza con la jerarquía de la Iglesia Anglicana, integrada por grandes terratenientes.

Jacobo I Estuardo
Su tendencia a ejercer el poder en forma absoluta se confirmó en 1610 cuando disolvió el Parlamento y no lo volvió a convocar hasta 1621. Para los burgueses esto no hacia mas que frenar el libre comercio y el desarrollo de sus actividades económicas. 

La guerra civil y la abolición de la monarquía: 

El enfrentamiento por los impuestos continuó. La corona comenzó a exigirlos aunque no tuvieran la aprobación del Parlamento; y los burgueses comprendieron que los cambios económicos que necesitaban sólo se alcanzarían a través de la lucha política.

Las familias de comerciantes y terratenientes más poderosas, relacionadas entre sí por negocios comunes y que estaban representadas en las dos cámaras del Parlamento, fueron el núcleo de la oposición al rey Carlos I con el objetivo de lograr un gobierno que representara los intereses de los hombres de negocios.

Durante 1639 y 1640 los burgueses se negaron a pagar impuestos. Pero la crisis se agravó cuando, en 1640, Escocia pretendió separarse de Inglaterra y la Cámara de los Comunes se negó a aprobar los fondos necesarios para equipar y pagar un ejército a las órdenes de Carlos I.

La mayoría de los comerciantes, artesanos y aprendices apoyaron a los Comunes y en 1642 comenzó la guerra civil.

Ejecución del Rey Carlos I en 1649.El ejército ocupó la capital en 1648 y el Parlamento Depurado procesó al rey con el siguiente fundamento: «Los comunes de Inglaterra reunidos en el Parlamento, declaran que, por debajo de Dios, el pueblo es el origen de todo poder justo»…

En los dos bandos enfrentados, el parlamentario y el realista, había representantes de la nobleza y de los burgueses.

Lo que los diferenciaba era que los realistas tenían más fuerza en las regiones agrícolas del norte y el Oeste del país, mientras que el Parlamento encontraba el apoyo en el sur y en el este, regiones en las que predominaban la industria y el comercio.

También las ideas religiosas los diferenciaban: el puritanismo respaldaba, en general, al Parlamento, y el anglicanismo, como iglesia oficial, al rey.

En el conflicto armado, venció el ejército parlamentario que dirigía Oliverio Cromwell. En 1649, los nobles fueron expulsados del Parlamento, se proclamé la república y el rey Carlos I fue decapitado.

La Gloriosa Revolución: Después de la muerte de Cromwell, los burgueses más poderosos, que necesitaban paz y orden para sus negocios, llegaron a un acuerdo con la nobleza y, en 1660, la monarquía fue restaurada en la persona de Carlos II Estuardo. Por su parte, el rey aceptaba que correspondía al Parlamento la elaboración de leyes y la aprobación de impuestos.

Pero el acuerdo entre la monarquía y el Parlamento se rompió cuando llegó al trono Jacobo II, católico y con tendencias absolutistas.

El nuevo rey no encontró apoyo para restablecer la monarquía absoluta: la nobleza no era católica y, además, sabía que la mayor parte de la sociedad no aceptaba una vuelta al pasado.

Esto fue lo que llevó a un nuevo acuerdo entre los nobles y los burgueses, quienes coincidieron en la necesidad de destronar al rey y justificaron su propósito en las ideas del filósofo inglés John Locke.

Convencidos de que el destronamiento del rey en este caso era lícito, en 1688 nobles y burgueses ofrecieron la corona de Inglaterra al príncipe holandés Guillermo de Orange con dos condiciones: debía mantener el protestantismo y dejar gobernar al Parlamento. Jacobo II, abandonado por casi todos los grupos sociales, dejó el trono. Así, sin violencia, triunfó la Gloriosa Revolución (como la llamaron los hombres de la época), que abolió definitivamente la monarquía absoluta e inició en Inglaterra la época de la monarquía parlamentaría.

Sesión de la Cámara de los Comunes. El filósofo John Locke (1632-1704) sentó las bases del liberalismo político. En su Tratado de Gobierno Civil propuso un sistema político que aseguraba las libertades y los derechos de los individuos. Pensaba que los miembros de una sociedad establecían entre sí un contrato, por el cual delegaban e/poder en los gobernantes. Por eso, la acción de los gobernantes debía estar controlada por los representantes del pueblo, y si el gobierno era injusto el pueblo tenía el derecho a rebelarse. En su Carta sobre la Tolerancia de 1689, Locke afirmó: “Para m1 el Estado es una sociedad de hombres constituida únicamente con e/fin de adquirir conservar y mejorar sus propios intereses civiles. Intereses civiles llamo a la vida, la libertad, la salud y la prosperidad del cuerpo; y a la posesión de bienes externos, tales como el dinero, la tierra, la casa, el mobiliario y cosas semejantes.”

 El parlamentarismo y el desarrollo del capitalismo: Luego del triunfo de la Gloriosa Revolución, en Inglaterra comenzó a funcionar un sistema de gobierno llamado parlamentarismo. Este sistema aseguró la participación de los súbditos en el gobierno del Estado a través del Parlamento.

Durante el siglo XVII, los grupos comerciales y manufactureros más poderosos controlaron el gobierno parlamentario con el fin de promover sus intereses económicos.

Se eliminaron los privilegios reales, aristocráticos y de las corporaciones, los monopolios, las prohibiciones, los peajes y los controles de precios, que obstaculizaban la libertad de comercio y de industria. Se crearon y fortalecieron instrumentos que servían para el desarrollo de las nuevas actividades económicas: se creó el Banco de Inglaterra y se generalizaron las sociedades anónimas, se difundió la tolerancia religiosa y se protegió el progreso de la ciencia.

El Estado inglés promovió especialmente el desarrollo del comercio y de la industria de manufacturas.

El Acta de Navegación, que en 1651 estableció que el transporte de todas las mercaderías procedentes de o destinadas a Inglaterra debía hacerse únicamente en naves inglesas, fue el origen del desarrollo de una flota mercante que convirtió a Inglaterra en la dueña de los mares del mundo.

Desde el 1700, además, el Parlamento prohibió las exportaciones de lana en bruto y organizó el establecimiento de artesanos extranjeros, con lo que sentó las bases del desarrollo de la industria textil.

El Parlamento Inglés

El Parlamento Inglés: los parlamentarios se dividieron en dos partidos: los whigs y los tories. Los primeros liberales, defensores de las reformas antiabsolutista, los tories eran mas conservadores y querían mantener el antiguo régimen. El Parlamento siempre controló al Primer Ministro, nombrado por la Corona, el que debía formar un gabinete para gobernar. La pérdida de confianza en el Ministro era suficiente para presionar  a la Corona para que cambie el gabinete.

CRONOLOGÍA
Inglaterra

1603 Muerte de Isabel I. Comienza el reinado de los Estuardo y Jacobo I sube al trono. Unión de Inglaterra y Escocia.
1625 Muerte del rey Jacobo I. Su hijo Carlos I sube al trono.
1628 El Parlamento presenta la Petición de Derechos. El rey disolverá el Parlamento.
1641    El Parlamento Largo Intenta ampliar su poder.
1642   Comienza la guerra civil entre el rey y el Parlamento.
1645   Derrota del rey en Naseby.
1648   Triunfo de la primera revolución inglesa. Cromwell sube al poder.
1649   Ejecución de Carlos I. Proclamación de la república.
1651   Acta de Navegación.
1652   Guerra anglo-holandesa.
1653   Cromwell, lord protector.
1654   Guerra con España.
1658 Muerte de Cromwell. Su hijo Richard, al no poder contar con el apoyo del ejército, renuncia a ser lord protector.
1660   Restauración de los Estuardo. Car los II, nuevo rey.
1679   Ley de Habeas Corpus.
1685 Muere Carlos II. Le sucede su hermano Jacobo II.
1688   Segunda revolución inglesa. Huida de Jacobo II. Le suceden su hija, María II, y el marido de ésta, Guillermo III de Orange.
1689   Declaración de Derechos.
1702 Reinado de Ana, último miembro de la dinastía Estuardo (hasta 1714).

Otros países
1610 Asesinato de Enrique IV de Francia. Le sucede su hijo Luis XIII.
1 611   Gustavo Adolfo, rey de Suecia.
1613 Miguel III Romanov, nuevo zar de Rusia.
1618 Comienza la guerra de los Treinta Años.
1621 Reinado de Felipe ly de España (hasta 1665).
1643   Muere Luis XIII. Le sucede su hijo Luis XIV.
1644   Dinastía manchú en China. 1648   Los tratados de Westfalla ponen
fin a la guerra de los Treinta Años. Francia y España siguen en guerra. La Fronda en Francia (hasta 1654).
1656 Aprovechando el desorden del Imperio otomano, Venecia expulsa a los turcos de los Dardanelos.
1659 Paz de los Pirineos entre Francia y España.
1661 Comienza el reinado personal de Luis XIV.
1667 Guerra de Devolución entre Francia y España (hasta 1668).
1672 Guerra entre Francia y Holanda (hasta 1678).
1682   Pedro el Grande sube al trono de Rusia.
1683   Los turcos asedian Viena, aunque serán derrotados en Mohács (1687).
1685   Revocación del Edicto de Nantes; emigración  de   los  protestantes franceses. 1 700   Los Borbones suceden a los Austrias en España.
1701   Guerra  de  Sucesión  española (hasta 1714).

Dimensiones del Sistema Solar Tamaños Medidas Escala de los Planetas

Dimensiones del Sistema Solar
Distancias y Medidas Escala de los Planetas

EL SISTEMA SOLAR: EL SOL Y SU FAMILIA El Sol es la estrella más próxima a nosotros y está a una distancia de 150 millones de kilómetros. La Tierra da una vuelta alrededor del Sol en un año, en compañía de muchos otros cuerpos celestes.

Dimensiones del Sistema Solar Tamaños Medidas Escala de los Planetas

Algunos de estos astros pueden observarse a simple vista en el cielo nocturno errando entre las estrellas. Dichos astros, denominados planetas (de la palabra griega que significa «errante«), giran alrededor del Sol a diferentes velocidades y distancias. Algunos son bastante parecidos a la Tierra, y están constituidos fundamentalmente por rocas y metales, mientras que otros, por el contrario, contienen posiblemente una elevada proporción de hidrógeno y helio.

Ninguno de ellos puede producir calor y luz por medio de reacciones atómicas, como las estrellas, y sólo son visibles porque reflejan la luz solar.

Los planetas, por lo tanto, no brillan de la misma manera que las estrellas. En comparación con las estrellas, todos los planetas son cuerpos fríos y están situados en el espacio relativamente cerca de nosotros.

sol estrellaEl más próximo al Sol es el planeta Mercurio, que gira alrededor del primero a una distancia media de 5 8 millones de kilómetros. Con un diámetro de sólo dos quintas partes del de la Tierra, es un mundo muy seco que muestra constantemente la misma cara vuelta hacia el Sol, debido a que el período de rotación sobre su eje es igual al que tarda en describir su órbita. Por estar más cerca del Sol que la Tierra, sólo podemos observarlo al atardecer, poco después de ponerse el Sol, o al amanecer.

planeta del sistema solarDespués está el planeta Venus, el cual participa con Mercurio del honor de ser denominado estrella matutina o vespertina, pues sólo puede ser observado a la salida o a la puesta del Sol.

Girando alrededor del Sol a 108 millones de kilómetros de distancia, Venus recorre su órbita en siete meses, en comparación con los otros tres meses que tarda Mercurio.

planeta del sistema solarEsto es debido a que por la gravedad solar un planeta requiere más tiempo para recorrer su órbita a medida que aumenta la distancia que lo separa del Sol. Venus muestra muchas cosas en común con la Tierra. Tiene casi el mismo tamaño y, como ella, presenta estaciones regulares a medida que se traslada alrededor del Sol.

Como los demás planetas, gira también alrededor de su eje, pero no podemos medir la duración del día venusiano (o su velocidad de rotación) por estar siempre completamente envuelto por una espesa capa de nubes que impide ver su superficie, que puede ser tierra firme o, posiblemente, un enorme océano. Más lejos del Sol que la Tierra están los restantes planetas del sistema solar.

planeta del sistema solarA una distancia de 228 millones de kilómetros se encuentra Marte, que presenta un tamaño algo superior al de la mitad de la Tierra y necesita casi dos años para recorrer su órbita. Al contrario que Venus, Marte tiene sólo una tenue atmósfera, que nos permite observar la superficie del planeta, particularmente interesante porque muestra gran cantidad de detalles que algunos astrónomos atribuyen a la existencia de plantas vivientes.

Aún más lejos del Sol, a una distancia comprendida entre 320 y 480 millones de kilómetros, se encuentra un enjambre de minúsculos «pequeños planetas». Estos astros, de diámetros que oscilan entre 750 y sólo unos pocos kilómetros, son demasiados pequeños para poder observarlos a simple vista. Debido a que algunos tienen órbitas muy alargadas y pueden llegar a estar muy cerca de nosotros, los astrónomos los utilizan para obtener con mucha exactitud las distancias dentro del sistema solar.asteroide

Estos pequeños planetas se denominan también asteroides, es decir, «parecidos a estrellas». Vistos a través del telescopio parecen cabezas de alfiler, como las propias estrellas, y no discos luminosos como ocurre con los planetas.

El mayor de todos los planetas es Júpiter y su órbita se encuentra más alejada que las de los asteroides. Este planeta gigante tiene un diámetro once veces superior al de la Tierra. Si nos fuera posible poner a Júpiter en el platillo de una balanza su peso resultaría 300 veces mayor que el de la Tierra.

planeta del sistema solar jupiterA simple vista Júpiter se presenta como una estrella brillante, pero a través del telescopio aparece como un disco cruzado por varias bandas oscuras. Debido a que estas bandas cambian de posición cada mes, los astrónomos creen que lo que ellos realmente observan es una atmósfera densa y nubosa. Y esto se confirma por la rotación de algunos detalles apreciados en las bandas.

Tales detalles se mueven más rápidamente cerca del ecuador del planeta (con un período de 9 horas y 50 minutos) que cerca de los polos (con un período de 9 horas y 56 minutos). Estas distintas velocidades de rotación serían imposibles si la superficie del planeta fuese sólida. La distancia de Júpiter al Sol es de 778 millones de kilómetros, o sea más de cinco veces la distancia de la Tierra al Sol. saturno planeta del sistema solar

Saturno, el siguiente planeta que encontramos, está a 1.430 millones de kilómetros del Sol, casi dos veces más alejado que Júpiter. Aunque Saturno no es tan grande como Júpiter, tiene no obstante un diámetro 9 1/2 veces mayor que el de la Tierra. Al igual que Júpiter, posee una atmósfera que presenta bandas y nubes, y tarda 10 1/4 horas en girar sobre su eje. Saturno se distingue de los restantes planetas del sistema solar en que tiene un sistema de anillos que lo rodean ecuatorialmente.

Estos anillos están constituidos por miríadas de corpúsculos rocosos o de hielo, o quizá por una combinación de ambos, que giran a su alrededor. Debido a las diferentes dimensiones de las órbitas de estos corpúsculos, los anillos se extienden desde 15.000 hasta 60.000 kilómetros por encima de la atmósfera de nubes. Sin embargo, a causa de la acción gravitatoria de Saturno, dichas órbitas son tan coplanarias, que los anillos tienen un espesor de sólo unos 15 kilómetros.

Los anillos dan a Saturno un aspecto extraño y único. Los tres restantes planetas del sistema solar (excepto algunas veces Urano) sólo pueden ser observados mediante un telescopio. Urano, el más cercano de los tres, se encuentra a 2.870 millones de kilómetros del Sol; Neptuno, el siguiente, 1.500 millones de kilómetros más lejos, y Plutón, el más alejado, otros 1.500 millones más allá.

planeta del sistema solarA través del telescopio, Urano y Neptuno parecen presentar superficies nubosas; ambos tienen un diámetro superior al de la Tierra (Neptuno 3 1/2 veces mayor y Urano casi 3 3/4)- Plutón es mucho más pequeño que los otros dos, casi del mismo tamaño que Marte. Hasta aquí sólo hemos mencionado los nueve grandes planetas, incluyendo la Tierra, y los asteroides.

No todas las órbitas de los planetas están situadas en un mismo plano, sino que forman ciertos ángulos entre sí. Plutón tiene una órbita muy inclinada y algunas veces se acerca al Sol aún más que el propio Neptuno.

Pero la familia del Sol —la totalidad del sistema solar— es todavía mucho mayor. A través del espacio se desplazan muchos enjambres de corpúsculos metálicos y rocosos; y la acción gravitatoria del Sol ha capturado cierto número de ellos, que giran a su alrededor describiendo órbitas muy alargadas. A lo largo de la mayor parte de su trayectoria son invisibles y sólo pueden ser observados cuando la Tierra cruza su camino o cuando se acercan mucho al Sol.

Cuando un enjambre pasa muy cerca del Sol se calienta el gas helado transportado junto con los corpúsculos rocosos o metálicos. Dicho gas se escapa y se torna luminoso por efecto de la radiación solar, la cual al propio tiempo desprende partículas eléctricas que lo lanzan al espacio. A su vez, algunas de las partículas rocosas reflejan también la luz solar. El resultado de esta actividad es que el conjunto de corpúsculos puede observarse entonces como una mancha brillante en el cielo, con los gases que se liberan en el espacio formando una larga cola luminosa, que a veces se extiende hasta millones de kilómetros. A tales objetos se les da el nombre de cometas.

Pueden acercarse hasta pocos millones de kilómetros del Sol, mostrando entonces el otro extremo de su órbita mucho más allá de la del propio Plutón. Cuando un cometa describe su órbita alrededor del Sol, muchos de los corpúsculos que lo constituyen se reparten a lo largo de dicha órbita. Algunos de tales corpúsculos se agrupan gradualmente en enjambres mucho más dispersos.

Entonces ya no son visibles como un cometa, pero pueden observarse cuando la Tierra los encuentra a su paso y los corpúsculos penetran en la atmósfera terrestre. Debido a la gran velocidad de desplazamiento (muchos kilómetros por segundo) se calientan al entrar en contacto con el aire. En consecuencia, estos fragmentos brillan al propio tiempo que se van quemando, ionizándose el aire que los rodea y que también se ilumina a su vez. En cada punto de la trayectoria de uno de estos fragmentos la luz producida dura solamente una fracción de segundo. Pero a menudo toda la trayectoria puede ser observada durante un corto intervalo de tiempo, y se denomina ráfaga meteórica. El fragmento rocoso en sí se conoce con el nombre de meteorito.

Cuando la Tierra atraviesa un enjambre, advertimos en ciertos casos centenares de meteoritos, y tales «lluvias de estrellas» producen una visión espectacular. Sin embargo, son demasiado pequeñas para que puedan observarse, y deben ser registradas por otros métodos que describiremos más adelante.

Al girar alrededor del Sol, casi todos los grandes planetas son centro de pequeños sistemas de satélites naturales. Aunque parece ser que Mercurio, Venus y Plutón carecen de «lunas» -y la Tierra tiene sólo una-, los restantes planetas poseen un buen número de ellas.

Marte tiene dos pequeños satélites de unos 7,5 y 15 Km. de diámetro, que recorren sus órbitas en unas 30 y y1/2 horas, respectivamente. Júpiter posee 12, cuatro de los cuales son de tamaño parecido al de nuestra propia I ,una y los ocho restantes mucho menores. Tres de estos últimos muestran un diámetro de sólo 20 km. Saturno tiene 9 satélites, siendo todos ellos, excepto uno, de tamaño muy inferior al de la Luna.

trayectoria de un cometa

Comparación de la alargada órbita de un cometa con la casi circular de la Tierra. El calor solar dilata el luminoso gas de un cometa proyectándolo hacia delante de forma que la cola siempre apunta en sentido contrario al Sol.

Urano tiene 5 y Neptuno sólo 2, el mayor de ellos de i amaño parecido al de nuestro satélite. Aunque la Tierra es el único planeta que posee un solo satélite, éste parece tener un tamaño desproporcionado en revolución con el de la misma Tierra.

¡Algunos astrónomos llegan a considerar el sistema Tierra-Luna como un planeta doble! Pero no estamos seguros de ello. Muchos astrónomos piensan que la mayoría de los satélites del sistema solar eran asteroides que fueron capturados por los grandes planetas miles de millones de años atrás, cuando se estaba formando todo el sistema.

Fuente Consultada: Secretos del Cosmos Colin A. Roman Biblioteca Basica Salvat Nro. 2

Historia de la Televisión en Argentina Primeras Transmisiones de TV

Historia de la Televisión en Argentina
Primeras Transmisiones de TV

La televisión argentina llegó a los hogares durante los primeros años de la década del ’50. Algunos padres de los adolescentes actuales nacieron con ella, la mayoría nació después. La televisión fue un instrumento altamente codiciado por sus potencialidades: era un medio privilegiado para extender la cultura, la educación y la información; permitía unir a cada ser humano con el resto de los habitantes del mundo.

Se alcanzaba la universalización de la cultura pregonada siglos atrás, cuando se creó la imprenta. La aparición de la televisión auguraba la posibilidad de que ningún grupo humano quedara relegado y aislado: todos podrían acceder a la educación y al conocimiento de los avances científicos. Pero, tan halagüeñas posibilidades sólo se cumplieron muy parcialmente.

Las programaciones que instrumentaron los distintos países tuvieron muy poco en cuenta esa misión cultural y educativa. Los principales programas fueron series en las cuales la violencia y la delincuencia eran protagonistas. (Ver también: Historia de los Medios de Comunicacion en el Mundo)

LA EVOLUCIÓN DE LOS MEDIOS DE COMUNICACIÓN: A partir del incesante avance de la ciencia y de la tecnología, la comunicación dejó de ser exclusivamente oral para desarrollarse a través de otros medios, como la prensa, la radio, el cine y la televisión.

En la actualidad, las sociedades industrializadas dependen, en gran medida, de los medios de comunicación masivos. Su sistema económico —basado en la compraventa generalizada—, la compleja división del trabajo y las necesidades del Estado para cumplir con sus funciones requieren de estos medios para difundir la información del modo más rápido y a la mayor cantidad de personas posible. De allí que cada vez sea más estrecha la relación entre los grandes grupos económicos y las grandes cadenas de comunicación.

LA TELEVISIÓN

A manera de predicción, en un diario norteamericano, hacia 1892, apareció un articulo que informaba que con el tiempo, se transmitirían por el aire todo tipo de imágenes a través de un “telectroscopio” así lo denomino este medio. En el siglo XX, gracias a varios años de investigaciones y descubrimientos técnicos, esta profecía se cumplió. En 1928 ,se le otorgó a la General Electric la primera licencia para operar una estación experimental de TV.

En 1936, Gran Bretaña inauguro el primer ciclo de emisiones regulares de televisión a través de la BBC no obstante, desde comienzos de siglo, se venía probando con la transmisión de imágenes a distancia. Pero el estallido de la Segunda Guerra Mundial llevó a concentrar todo el esfuerzo tecnológico en el conflicto. Durante éste, la RCA impulsó investigaciones que lograron perfeccionar las imágenes televisivas en los Estados Unidos. Al finalizar el conflicto, los aparatos llegaban a los tres millones y las estaciones emisoras, a doscientas. El nuevo medio contaba con ventajas propias para su rápido éxito.

El televisor tuvo su época de mayor expansión en la década del 50, el mismo se extendió en gran parte de Occidente. En 1962, se realizó la primera transmisión directa vía satélite a través del Atlántico. Sin embargo, la primera transmisión vía satélite vista, simultáneamente, en casi todo el mundo fue la llegada del primer hombre a la Luna, el norteamericano Neil Armstrong, el 21 de julio de 1969.

En el contexto de la guerra fría, en 1988, con la puesta en órbita del satélite franco-alemán TDF-1, se inició en Europa la era de la teledifusión directa, cuyos programas podían ser captados por una antena satelital parabólica individual.

Historia del Invento

Así comenzó la Televisión Argentina…

En 1926, en Londres, John Baird consiguió emitir y recibir imágenes a distancia; solo un cuarto de siglo más tarde, concretamente el 17 de octubre de 1951, a las dos de la tarde, Eva y Juan Perón aparecieron en las pantallas de los primeros y escasos aparatos Rayhteon, Capheart y Dumont que había en la Argentina.

Culminó así el esfuerzo de años de Jaime Yankelevich, un pionero de la radio que también lo fue de la televisión. La emisión inicial, por supuesto que en blanco y negro, y con Imágenes que se deformaban o eran invadidas por caprichosas líneas geométricas, mostró a la pareja mandataria que presidía el Día de la Lealtad desde la Plaza de Mayo.

Frente a los escaparates de los comercios de aparatos electrónicos, o en muy pocos hogares, los porteños se maravillaron con el nuevo medio de comunicación, y vieron cómo los locutores Isabel Marconi y Adolfo Salinas leían, en cadena con Radio del Estado, los partes oficiales. Con todo, y en principio, solamente la Capital Federal y el Gran Buenos Aires recibieron las emisiones. A medida que los receptores se alejaban del lugar de transmisión (la antena estaba en el edificio del ministerio de Obras Públicas, en la 9 de Julio y Moreno), se requería de antenas cada vez más elevadas para capturar alguna imagen.

El primer programa emitido desde el Canal 7, el único durante años, fue transmitido desde los salones del hotel Alvear, actuaron el ballet y el coro del Teatro Colón, y a continuación se realizó un programa de entrevistas. Los presentadores eran locutores radiales, como los ya mencionados Marconi y Salinas, además de Hebe Gerbolés, Juan Piñeiro y Jaime Más. En directo (los tapes y las grabaciones vinieron mucho después), sin maquillaje, lo cual los hacía ver afantasmados, hablaban como si estuvieran frente al micrófono radial. Pero la tevé criolla había nacido.

LA TELEVISIÓN EN LA ARGENTINA EN LOS 60 Y EN LOS 70

Historia Primeras Transmisiones de TVEn la Argentina, la televisión se inauguró en 1951, pero se tomó accesible y popular a principios de los 60. Hasta mediados de la década, predominaron las series de origen norteamericano: las historias del Lejano Oeste, con sus clásicos muchachitos: los vaqueros.

Sin embargo, paulatinamente, retornaron a EE.UU. aquellos libretistas y autores perseguidos por el macartismo (termino que se refiere a la persecución comunista presidida por el Senador Mac Carthy) quienes les dieron un toque inteligente y crítico a las series de humor.

Surgieron así Los Locos Adams y El Superagente 86, sátiras de géneros clásicos como el terror y el espionaje. Estas series deben ubicarse en el contexto de la guerra fría donde el espionaje y las fuerzas de seguridad como la CIA no eran construcciones televisivas.

Este auge del humor televisivo tuvo un correlato en nuestro país, sobre todo a partir de las producciones de Canal 13. Así, surgieron comedias como “La Nena” y “Dr. Cándido Pérez Señoras”, recreaban con un nítido toque local, modelos importados.

Uno de los éxitos más notables fue el de Pepe Biondi en Viendo a Biondi, quien introdujo lo que se transformó en un clásico de nuestra TV: la creación de eslóganes, frases y palabras que se incorporaron al habla cotidiana.

Ésta fue la época de Sábados Circulares de Mancera, el primer programa con una gran producción periodística y técnica que hizo conocer al público argentino a figuras como Joan Manuel Serrat e introdujo la “cámara sorpresa”.

También se destacaban, La Feria de la Alegría, un programa de entretenimientos, regalaba departamentos y autos, y Carlitos Balá entraba a la pantalla chica con la pregunta: ¿Qué gusto tiene La sal?.

Frente a estos programas de mero entretenimiento, Tato Bores ponía en aprietos a los gobiernos de turno con sus incisivos monólogos.

A comienzos de los 70, proliferaban los programas cómicos, como Operación Ja Ja, La Tuerca y Telecómicos.  A la hora de la merienda, llegaba el Capitán Pituso con Alberto Olmedo. Los domingos a la noche la cita obligada era Titanes en el Ring con Martín Karadagián, creador de decenas de personajes como La Momia.

Los adolescentes aprendían el paso de baile de moda mirando Alta Tensión y Música en Libertad, y los adultos se informaban viendo El reporter ESSO.

La mayor parte de la televisión argentina en estas décadas se caracterizó por un predominio de programas destinados al ocio y al entretenimiento, salvo Tato Bores la mayoría no producía ninguna critica a la sociedad y al gobierno de turno. Fue una época caracterizada por largas dictaduras.

AMPLIACIÓN DEL TEMA:

En Argentina se hicieron envíos experimentales, pero recién en 1951 se concretó la la transmisión pública inaugural, por Canal 7, estatal , (EE.UU. llevada 15 años de adelanto). No habiendo video-tape, se salía en directo con medios precarios y esfuerzos casi heroicos de técnicos y protagonistas en cámara.

Los primeros famosos fueron locutores, derivados de la radio, como Adolfo Salinas, Guillermo Brizuela Méndez, Nelly Trenti y Nelly Prince, a quienes: tiempo después se sumaron Pinky, Jorge «Cacho» Fontana, Colomba y Antonio Carrizo, entre los pioneros.

En 1956, con los primeros televisores nacionales, se inició la serie de telenovelas, con el «Teleteatro a la Hora del Té» que interpretaban Fernando Heredia y María Aurelia Bisutti. Más de 50.000 hogares veían nuestra TV, pero los entendidos decían que debía doblarse esa cifra. Por eso vinieron mejores programaciones, desfilando figuras como Chas de Cruz (Diario del Cine), Analía Gadé, Iris Marga, Julia Sandoval, Juan Carlos Thorry, Gloria Guzmán, Augusto Bonardo, el diseñador de modas Jean Cartier, Alberto Olmedo —alternando su tarea de técnico con la de incipiente cómico—, Mendy y el fútbol!, acaparador de audiencias y alto «cachet».

También proliferaron los programas de preguntas y respuestas, los animadores como Héctor Coire y Antonio Carrizo, las comedias ligeras con Jorge Salcedo, Mirtha Legrand, Ángel Magaña, Osvaldo Miranda, María Concepción César y Mariano Mores; los cantantes con Antonio Prieto, Luis Aguilé, Edmundo Rivero; los envíos periodisticos; Blackie, Silvia Legrand, Andy Russell, los cómicos Bala, Locatti y Marquesini, el ballet de Eber Lobato con su esposa, la bailarina Mary Lobato, conocida como Nélida; Tito Martínez del Box inaugurando «Canal 7 informa», los Martín Fierro de APTRA, entidad de los periodistas especializados.

Mientras tanto, ya en 1959 había 823.000 televisores, asignándose las bandas para los canales 9, 11 y 13, así como para otros del interior. Se agregan figuras como Norma Aleandro, Alberto Olmedo consagrado ya, un joven llamado Ramón Ortega, que no era otro que el famoso Palito; María Antinea, Nat King Colé, Doménieo Modugno, Paul Anka y José Iturbe, mientras Pinky es proclamada «la mujer del año», por su éxito televisivo.

En 1960 se inauguran los canales 9 y 13, con figuras como Narciso Ibañez Menta, Alberto de Mendoza, Tita Merello, Luisa Vehil, Pedro López Lagar, Luis Sandrini, Ángel Magaña, Osear Casco, José Marrone, Ariel Ramírez, Jorge Salcedo, Ramona Galarza, Teddy Reno, María Antinea, Bobby Capó y Tony Bennet. A fin de esa año se inicia la medición de audiencia o fiebre del «rating».

En el 13 se ven «Los Trabajos de Marrone», «Casino», «Buenas tardes, mucho gusto», y en 1961 inaugura el Canal 11, realizando además la primera transmisión internacional, desde Punta del Este. Lo demás es historia conocida: la puja por la audiencia, las series norteamericanas, los largóme-trajes antiguos, Porcel, Pepe Biondi, «Tato siempre en domingo», el cable coaxil, Fidel Pintos, Troilo y Grela, D’Arienzo, Canaro, Andrés Segovia, Hugo del Carril, Alfredo Alcen, el primer «programa ómnibus» de Pipo Mancera y los que se le opusieron («Sábados continuados» y otros), el Club del Clan, Titanes en el Ring, Telecataplum, la Revista Dislocada, Yo quiero a Lucy; «Yerma», de García Lorca, Trini López, Ana María Campoy y José Cibrián, Sarita Montiel, Charles Aznavour, las hermanas Legrand, juntas; La Tuerca, Teatro como en el Teatro, Josefina Baker, la despedida de Azucena Maizani, Tita Merello, Edmundo Sanders, Julio Marbiz, Obras de Terror (Narciso Ibáñez Menta), Tatín, Julio Jorge Nelson, Rita Pavone, Juan Verdaguer, Nelly Beltrán, Fernanda Mistral, Lautaro Murúa, Ruta 66, Doménico Modugno, Niní Marshall, Pepe Iglesias «El Zorro», Sergio Renán, Lucho Gatica, Almorzando con Mirtha Legrand (se lanza en 1968), el Topo Gigio, Nati Mistral, Xavier Cugat y las mismas series televisivas norteamericanas. Otros nombres importantes se suman a nuestra TV, incluso el 20 de julio de 1969 se cubre el primer viaje lunar y en setiembre se inaugura la primera antena parabólica o estación terrestre «vía satélite» de Balcarce con un mensaje de salutación del Papa Paulo VI, desde Roma.

Se modernizaron los programas, cundieron los periodísticos, la telenovelas de la tarde, grandes coberturas deportivas, se transmite el Mundial ’74 de fútbol desde Alemania, se pasan al Estado todos los canales y decae su eficacia y, finalmente, se crea el Ente Argentina ’78 TV, construyéndose las monumentales instalaciones de Figueroa Alcorta y Tagle que tras el éxito sensacional del Mundial ’78, pasaron a ser sede de ATC (Canal 7). (Fuente Aniversario 75° Años de LA RAZÓN 1905-1980- Historia Viva)

PARA SABER ALGO MAS…
Comunicación visual instantánea: la televisión

Durante los años 20, la gente aceptaba con naturalidad complejos medios de comunicación que pocas décadas atrás se habían considerado milagros de la ciencia aplicada. Los sistemas de telégrafo y teléfono disponían de redes mundiales, basadas en decenas de miles de kilómetros de cable conductor. Por otra parte, la posibilidad de la transmisión inalámbrica del sonido se había convertido en una realidad; las empresas de radiodifusión acababan de nacer, pero estaban creciendo rápidamente.

El cine cautivaba a millones de espectadores registrando imágenes sobre una película para reproducirlas posteriormente sobre una pantalla. En el complejo mundo de las comunicaciones quedaba sin embargo un vacío: faltaba un sistema que permitiera ver los acontecimientos en el mismo momento de estarse produciendo del mismo modo que la radio permitía oír la voz en el momento mismo en que se emitía.

En un sector pletórico de adelantos técnicos, resulta difícil atribuir la invención de la televisión a un solo individuo; pero sin duda alguna, la persona que ocupaba el centro de la escena en los años 20 era John Logie Baird, inventor de un sistema fotomecánico en el que la imagen era barrida por un disco en rápida rotación, dotado de una serie de orificios dispuestos en espiral. De esta forma, toda la imagen era barrida en el curso de una revolución. La señal luminosa de cada orificio se transformaba en señal eléctrica mediante una célula fotoeléctrica y se generaba la correspondiente señal de radio. El receptor consistía en un disco similar.

A medida que las diferentes señales luminosas pasaban sucesivamente a través de los orificios, se formaba sobre una pantalla una imagen correspondiente a la original. El sistema no destacaba por su originalidad porque Paul Nipkow, en Alemania, había patentado un disco rotatorio similar en 1884, aunque con la idea de que funcionase conectando el emisor y el receptor por medio de un cable.

Nipkow no desarrolló su idea, pero lo hizo el ruso Boris Rosing en 1906, combinando el disco con el oscilógrafo de rayos catódicos inventado por el físico alemán F. Braun diez años antes.

El nuevo dispositivo permitía sustituir el segundo disco y modular la mancha de luz que se movía a gran velocidad sobre líneas paralelas en el tubo, provocando así (por el fenómeno de persistencia visual) la ilusión de una imagen continua.

Sin embargo, los amplificadores de la señal que existían en aquella época no eran suficientes para producir imágenes claras. Mientras tanto, en Gran Bretaña, A.C. Swinton propuso, pero no llegó a desarrollar, otro sistema en el que tanto el emisor como el receptor se basaban en el oscilógrafo de rayos catódicos.

Baird perserveró en el intento y el 27 de enero de 1926 ofreció la primera demostración pública de televisión, en la Royal Institutionde Londres. En septiembre de 1929, la BBC comenzó a emitir señales de televisión con el sistema de Baird y, durante el mismo año, la institución alemana de correos hizo lo propio. Baird sabía hacer publicidad; entre sus más espectaculares logros figuran una transmisión transatlántica en 1928 y la proyección en un cine de Londres de la llegada de la carrera de Derby de 1931. Sin embargo, su éxito no fue duradero, pues su sistema fotomecánico no se encontraba en la línea principal de desarrollo del nuevo medio.

Otros investigadores estaban estudiando el sistema electrónico de Rosing. Entre ellos figuraba Vladimir Zworykin, un antiguo alumno de Rosing en San Petersburgo. Tras la revolución de 1917, Zworykin huyó a Estados Unidos y consiguió un empleo en la RCA, donde en 1929 llegó a ser director del departamento de investigación. Desde este puesto contribuyó grandemente al desarrollo de un sistema electrónico de transmisión y recepción, semejante al propuesto por Swinton.

En noviembre de 1936, la BBC de Londres inició las emisiones regulares de televisión con el nuevo sistema.

LA TELEVISIÓN Y LA POLÍTICA: La influencia de la televisión modificó profundamente las estrategias electorales. El célebre debate entre John F. Kennedy y su rival Richard Nixon hizo evidente la importancia de la imagen televisiva en los resultados electorales. Según los análisis posteriores, en esa ocasión, tuvieron gran peso sobre la opinión del público diversos aspectos de la imagen televisiva: la palidez de Nixon frente al aspecto fuerte y saludable de Kennedy, los colores de sus ropas, la escenografía.

Con el desarrollo de la televisión, los equipos de campaña, han comenzado a incluir especialistas en imagen -para asesorar a los candidatos en sus presentaciones televisivas- y especialistas en marketing que, por medio de encuestas, investigan las opiniones de la población. Así, se fue abandonando el estilo retórico y efectista de los mitines electorales, para dar cada vez más espacio a rápidas series de pequeños avisos de fuerte impacto emocional. Las prolongadas conferencias radiales que Ricardo Balbín o Arturo Frondizi pronunciaban en la campaña de 1958 han sido sustituidas por el video-clip, la participación de los candidatos en mesas redondas televisadas, e incluso en programas de entretenimiento.

En 1988, en Chile, por ejemplo, se realizó una consulta popular que debía decidir, por sí o por no, la continuidad de la dictadura de Pinochet. La campaña por el NO utilizó un video-clip con imágenes típicamente publicitarias, combinadas con un fondo musical alegre, «La alegría ya viene». Esta campaña logró presentar eficazmente la propuesta de encarar con optimismo un camino democrático.

Aunque en toda campaña se mantienen los actos partidarios y la tarea callejera de los militantes, estas actividades tratan de organizarse de modo que la televisión pueda multiplicar su alcance. Si al comienzo (a televisión mostraba lo que sucedía fuera de ella, en la actualidad cada vez es mayor la tendencia a producir hechos para que sean mostrados por TV.

Ver: Breve Historia de la Comunicación Humana

Ver:Avances Cientificos Despues de la Guerra Television Color TV Color