Mc Douglas DC-10

Records de la Aviación Civil Altura, Velocidad y Distancia

Primeros Records de Altura, Velocidad y Distancia de la Aviación Civil

Records de Distancia y Velocidad:

Al compás de la emulación deportiva y las ansias de superación, y mientras las máquinas se perfeccionaban, se fueron registrando marcas de las que mencionaremos las más notables de la primera época.

1921. Adriana Bolland atravesó la cordillera de los Andes, de Mendoza a Santiago de Chile.

1926. Pelletier-Doisy voló de París a Pekín en 6 días y 18 horas.

1926. Arrachart marcó el record de distancia sin escalas (París-Basora, 4.305 kilómetros) en 26 horas y 25 minutos.

1927. Pinedo voló 40.540 kilómetros en 44 etapas alrededor del Atlántico.

1930. Mariza Hilsz. Record cubriendo el circuito París-Saigón-París.

1930. Costes y Bellonte. Cruzaron por primera vez el Atlántico de París a Nueva York.

1930. Mermoz cruzó el Atlántico Sur.

1931. Balbo (al frente de una escuadrilla de aviones) atravesó el Atlántico Norte.

1931. Marisa Bastie. Batió el record para avionetas, con un vuelo de 2 889 kilómetros.

1931. Herndon y Pangborn cruzaron por primera vez el océano Pacífico de Tokio a California (7.700 kilómetros).

1932. Amelia Earhart fue la primera aviadora que atravesó sola el Atlántico.

1933. Willy Post. Gira alrededor del mundo (25.000 kilómetros) en 7 días y 18 horas.

1934. Agello señaló el record de velocidad en hidroavión con 209 kilómetros por hora.

1934. Marisa Hilsz. Vuelo París-Tokio-París.

1934. Scott y Campell Black ganaron la carrera Londres-Melbourne (18.160 kilómetros) en 2 días y 23 horas.

1934. Agello, con un avión italiano, alcanzó una velocidad de 709 kilómetros.

1935. Batten. Record sensacional, Londres Australia, en 5 días.

1938. Huguez dio la vuelta al mundo trazando un casquete boreal en menos de 80 horas, que comprendió las ciudades de Nueva York, París, Moscú, Omsk, Yakutsk, Fairbanks, Minneápolis y retorno a Nueva York.

1939. Udet (general alemán) cubrió 100 kilómetros a un promedio de 634,32 kilómetros por hora.

https://historiaybiografias.com/linea_divisoria6.jpg

PIONEROS DEL VUELO CIVIL

grandes aviadores de la historia

https://historiaybiografias.com/linea_divisoria6.jpg

lindergh, Espíritu de San Luis

Carlos Lindbergh, un muchacho norteamericano aficionado a la aviación, se propuso allá por 1927 intentar la travesía del Atlántico en su avioncito de turismo denominado Espíritu de San Luis. Con sobrecarga de nafta que hacía peligrar el vuelo despegó del campo de Roosevelt, en Nueva York, la noche del 20 de mayo del año citado. A propósito de su aventura se hicieron los más pesimistas comentarios. Se le tildó de loco, de inconsciente… eAntes y durante su hazaña se le llamó “el tonto volador”. Lo cierto fue que a la mañana siguiente, a las 22 y 24 (hora francesa), aterrizaba en el aeródromo de Le Bourget, en París. Había cubierto la distancia entre las dos ciudades en 33 horas y 39 minutos. Asombro del mundo. Aquel aviador con cara de chiquillo pasó a ser una de las más legítimas glorias de los Estados Unidos.

RECORDS DE ALTURA: Recordaremos también aquí las primeras marcas famosas hasta las vísperas de la guerra de 1939, pues de allí en adelante fueron vertiginosas, como veremos. Las registradas por la Federación Aeronáutica Internacional fueron:

1909. (Agosto) Latharn, 155 metros.

1909. (Octubre) Lambert, 300 metros.

1909. (Diciembre) Latharn, 453 metros.

1910. (Enero) Latharn, 1.000 metros.

1910. Paulham, 1.209 metros, en Los Angeles.

1910. Brookins, en Atlantic City, 1.900 metros.

1910. León Morand, en Francia, 2.587 metros.

Hubo cuatro records más ese año y fueron:
Henry Wijnmalen, 2.780 metros.
Drexel, 2.882 metros.
Johnston, 2.960 metros.
Legagneux, 3.100 metros.

Legagneux era francés, y Francia retuvo el record logrado ese año de las marcas de altura hasta 1913, superándolas constantemente. En efecto: Roland Garros llegó a los 5.610 metros y Edmond Perreyron a 6.000. En 1913 Legagneux batió todos los records con 6.120 metros.

Al iniciarse el año 1914, nuestro compatriota, el célebre aviador Jorge Newbery, con un aparato Morane Saulnier, logró la altura de 6.100 metros.

Desde allí hasta 1920 dejaron de registrarse las pruebas, pero la guerra obligó a los pilotos a una frenética lucha de superación, como se comprobó al reanudarse las competencias.

Veamos:
1920. Schroeder (norteamericano), 10.093 metros.

1920. MacReady (norteamericano), 10.518 metros.

1923. Sadi Lecointe (francés), 10.727 metros.

Francia retuvo el record hasta 1927, y las marcas fueron superadas como sigue:

1927. Champio (norteamericano), 11.710 metros.

1929. Souceck (norteamericano), 11.930 metros.

1929. Willi Newenhofen (alemán), 12.739 metros.

1930. Apollo Soneck (norteamericano), 13.157 metros.

1932. Cyril Uwins (inglés), 13.404 metros.

1933. Lemoine (francés), 13.661 metros.

1933. Renato Donati (italiano), 14.433 metros.

Italia retuvo el record dos años.

1936. Georges Detré (francés), 14.843 metros.

1936. Swain (inglés), 15.223 metros.

1937. Mario Pezzi (italiano), 15.655 metros.

Este record fue considerado imbatible, pero poco tardó el piloto inglés Adam en superarlo.

1937. Adam (inglés), con un Brístol 138, llegó a 16.440 metros.

Italia había perdido el record, pero lo recuperó, como se verá.

1938. Pezzi llegó a los 17.083 metros de altura.

 aviadores franceses Costes y Bellonte

Los aviadores franceses Costes y Bellonte, que el 1º de septiembre de 1930 unieron en un vuelo las ciudades de París y Nueva York.

EL VUELO POR LA ESTRATOSFERA

La resistencia del aire (y su mayor densidad en ciertos casos) conspira contra la posible velocidad de los aviones. Por el contrario, a menor densidad es mayor la rapidez del deslizamiento.

Basado en estas observaciones, el ilustre sabio y aeronauta Augusto Piccard afirmó, en cierta ocasión, que la estratosfera, por razón de su escasa densidad, sería en el futuro la ruta del cielo donde los aviones alcanzarían velocidades fantásticas.

Claro estaba —y lo reconocía— que para ello habría que vencer primero algunos graves inconvenientes, que fueron puntualizados en “La Gazzeta dello Sport“, de Milán, por el técnico italiano S. Trevisán, “El problema del vuelo de altura —decía— es muy complicado.  Como se sabe, en el motor de explosión, la mezcla ideal requiere cierta relación entre el volumen del aire y el del carburante que la componen.

Es también sabido que no cambia en forma apreciable el aporte del carburante cuando el motor funciona a régimen normal, en tanto que se reduce notablemente el volumen del aire debido a la disminución de la densidad atmosférica. Y así, a medida que la mezcla se vuelve más rica en carburante, el motor rinde cada vez menos.

La hélice, cuyo buen desempeño ha sido calculado para funcionar en aire denso, al hacerlo casi en el vacío, en vuelos de gran altura, la acción de sus paletas resulta de muy escaso rendimiento. La menor resistencia del aire para la marcha del avión es una ventaja que no compensa, ni con mucho, el resultado por demás deficiente del grupo motopropulsor.

También constituye la bajísima temperatura un gran inconveniente para el avión que vuela a muy elevada altura: el lubricante se torna demasiado viscoso, las barras y los cables metálicos del comando se vuelven demasido tensos, las substancias de engrasamiento se congelan, se forma hielo sobre las partes del avión expuestas al aire, etc.”

Todos estos inconvenientes fueron superados por la técnica moderna. Los aparatos para los vuelos por la estratosfera son herméticamente cerrados y tienen dispositivos para provisión de oxígeno, además de calefacción. En cuanto al aviador, lleva un traje que constituye una coraza neumática que lo preserva del frío.

Lo cierto es que se cumplieron las predicciones de Piccard, y que los vuelos de gran distancia se efectúan por la estratosfera a velocidades vertiginosas.

hermanos piccard

Los profesores Augusto y Juan Félix Piccard, belga el primero y suizo el segundo, hermanos y compañeros de aventuras en arriesgadísimas pruebas de exploración científica. El objetivo de sus vuelos a la estratosfera no fue otro que el de estudiar los rayos cósmicos y otros fenómenos del espacio, cuyas conclusiones fueron de enorme utilidad para la aviación. Juan Félix insistió por largos años en esta clase de ascensiones, incluso acompañado por su esposa, en tanto que Augusto se dedicó a la exploración de las grandes profundidades del mar en una esfera de su invención.

traje para el vuelo en la estratofera

Arriba uno de los trajes usados por los aviadores para los vuelos por las altas regiones del espacio. Adviértense en este equipo el casco protector con anteojos, la máscara inhaladora, las riendas del paracaidas y las guarniciones de la silla eyectable

turbina de un avion

 Una turbina que accionada por el gas proveniente de las cámaras de combustión proporciona una energía con infinitamente mayor regularidad  que los pistones del motor de explosión, sacudidos por un movimiento alternativo generador de molestas vibraciones.

https://historiaybiografias.com/archivos_varios5/globo-piccard1.jpg

El globo estratosférico del profesor Augusto Piccard, con el que alcanzó en 1932 una altura de más de 17.000 metros.

Historia de la Conquista del Aire Breve Descripción de su Evolución

HISTORIA DE LA CONQUISTA DEL AIRE

Durante mucho tiempo el hombre estuvo “atado” a la superficie terrestre. Apenas tenía algún conocimiento de lo que había unos pocos centímetros bajo el suelo o unas pocas brazas bajo las olas, y nunca se había remontado por el aire.

Sabemos que en épocas remotas miraba las aves y deseaba haber tenido la posibilidad de seguirlas. Un salmo de David dice: “¡Oh, si tuviera alas como la paloma!” Los griegos tenían también una leyenda referente a Dédalo e ícaro, padre e hijo, quienes se fabricaron alas y volaron sobre el Mediterráneo. Dédalo llegó a salvo, pero Ícaro voló muy cerca del Sol y como las plumas de las alas estaban unidas con cera, ésta se derritió e ícaro cayó.

Dédalo cae al mar al derretirse sus alas de cera

No es posible recordar aquí más que a unos pocos de esos hombres temerarios que surcaron por primera vez el espacio. Hacia fines del siglo xv, Leonardo de Vinci, el gran pintor, arquitecto y científico, planeó una máquina para volar, pero no había entonces los medios para fabricarla.

maquina voladora de Leonardo Da Vinci

Desde esta época no hubo sino teorizadores extravagantes hasta que el cerrajero Besnier efectuó, en 1678, la primera experiencia de vuelo humano con ciertas alas que se construyó al efecto. Sólo en 1783 dos hermanos franceses, Joseph y Jacques Montgolfier, fabricaron un globo grande, lo llenaron de aire caliente para darle la posibilidad de elevarse y realizaron en él el primer vuelo. No había instrumento alguno que permitiera dirigir el globo, de manera que una vez en el aire éste quedaba a merced de los vientos. En el mismo año, el profesor Charles inventó el globo de hidrógeno.

globo aerostatico de los hermanos Montgolfier

Fue más de un siglo después, en 1906, cuando el inventor alemán, Conde de Zeppelin, logró hacer una enorme nave aérea en forma de cigarro, la que inflada con hidrógeno era más liviana que el aire y podía ser dirigida.

dirigible zepellin

Desde 1842 se sucedieron durante unos 60 años ensayos de planeadores, entre los cuales los más importantes fueron los del infortunado alemán Otto Lilienthal.

Éste, en numerosos viajes realizados en planeadores con alas de madera, vela y cuerda, resolvió importantes problemas de estabilidad, hasta que en 1896 perdió la vida, a los 48 años, a raíz de un accidente.

Otto Lilienthal

En este siglo, dos hermanos estadounidenses, Wilbur y Orville Wright, comenzaron los experimentos en planeador en Carolina del Norte. Inventaron un medio para dirigir el artefacto y más tarde agregaron un motor de nafta en él. El 17 de diciembre de 1903 realizaron el primer vuelo en aeroplano de motor.

primeras experiencia de los hermanos Wright

Desde entonces, la aviación avanzó a grandes pasos. El 25 de julio de 1909, Louis Bleriot cruzó el Canal de la Mancha, desde Calais a Dover, en un monoplano y dio la primera prueba de que la aeronáutica motorizada tenía un gran porvenir.

Bleirot cruza el canal de la mancha

Durante la Primera Guerra Mundial, lamentablemente, el aeroplano se convirtió en un formidable instrumento para la guerra; pero, por lo menos, esto demostró que la aviación no era una simple fantasía.

Cuando el conflicto terminó, muchos de los pilotos que habían participado en él se convirtieron en pioneros de la aviación civil.

En 1919, Alcock y Brown realizaron el primer cruce aéreo del Atlántico, en 16 horas, y, en 1927, Charles Lindbergh hizo el primer vuelo desde Nueva York a París, en menos de 34 horas.

Charles Lim

Charles Lindbergh

Desde 1920, la conquista del aire se centró casi enteramente en los aviones de motor. Antes de los comienzos de la Segunda Guerra Mundial, se habían ya establecido servicios para pasajeros en poderosos aviones cuatrimotores e hidroplanos en todos los continentes.

En 1939 volaron los primeros aviones de retropropulsión —invención de sir Frank Whittle— y hoy las líneas aéreas de aviones supersónicos realizan vuelos regulares llevando a cientos de pasajeros a través de los océanos y uniendo los continentes en pocas horas.

Un tipo de avión muy utilizado por su facilidad de despegue y descenso en lugares pequeños es el helicóptero, ya usado para tareas de rescate en el mar y para salvar pequeñas distancias como correo aéreo.

Pioneros de la Aviación

Historia de la Aeronáutica Comercial

Argentina: Primeros Aviones de Guerra

Fuente Consultada:
Cielo y Tierra Nuestro Mundo en el Tiempo y el Espacio Globerama Edit. CODEX
Enciclopedia Electrónica ENCARTA Microsoft

Explotación Agricola en Europa del Siglo XIX Economía

EL PREDOMINIO DE LA ECONOMÍA AGRÍCOLA
EN EUROPA EN EL SIGLO XIX

La Europa de principios del siglo XIX era aún una Europa campesina cuya vida económica dependía estrechamente de las fluctuaciones de sus principales producciones agrícolas. La ausencia de excedentes mantenidos limitaba el desarrollo de las ciudades, que permanecían muy ligadas al campo. Las frecuentes malas cosechas de cereales, patatas, legumbres, ocasionaban grandes subidas de precio. Las crisis estacionales o anuales, engendradas por las malas cosechas o por la deficiencia de las relaciones comerciales y de los medios de transporte, se conjugaron a partir de 1817 con una larga etapa de depresión y de hundimiento de los precios, que sucedió al favorable período precedente.

LA POBLACIÓN: A partir de 1801, la población mundial ha crecido con más rapidez que nunca. Sólo en el siglo XIX se duplicó con creces; la anterior duplicación tardó cuatro veces más. Desde el siglo XVII la curva de crecimiento se ha ido haciendo cada vez más empinada. Sin embargo, las cosas no son tan sencillas como parece deducirse de esta imagen general. Algunos países han crecido con más rapidez que otros, y lo mismo puede decirse de los continentes.

El resultado ha sido un cambio en el orden de las naciones, atendiendo a su número de habitantes. Empecemos por Europa: en 1801, Francia reunía bajo su bandera más habitantes que ningún otro país al oeste de Rusia; en 1914 ocupaba la cuarta posición, por detrás de Alemania, Austria-Hungría y Gran Bretaña. El crecimiento de los Estados Unidos fue aún más rápido: en 1900 sus habitantes habían ocupado ya todo el continente (que en 1801 aún seguía inexplorado en gran parte) y su número había ascendido de 6 a 76 millones, lo que representa un aumento del 1.150 por 100.

Se dispone  de   información   mucho   más completa y exacta acerca de los países de Europa y América que de los de Asia y África; no obstante, parece comprobado que la población creció en todas las partes del mundo durante el siglo XIX: en China, por ejemplo, el aumento superó el 40 por 100, llegándose a los 475 millones; Japón pasó de unos 28 millones a unos 45, y la India de 175 a 290 millones. Se trata, en todos los casos, de incrementos muy grandes.

LA AGRICULTURA CONTINUA PREDOMINANDO
Salvo algunas excepciones, los métodos de explotación agrícola permanecían anticuados, ya que la mayoría de los grandes propietarios se desinteresaron de ello y no trataron de aumentar sus rentas por medio de la comercialización de sus productos. En cuanto a los pequeños cultivadores, sin instrucción, apartados de la escena política por los regímenes censatarios, no disponían de capital suficiente para introducir innovaciones.

agricultura en europa

Falta de abono, la tierra se convertía en  barbecho  cada   tres   años;   falta   también de maquinaria (se sembraba a mano, se trillaba con el mayal, se segaba con la hoz), una gran parte del suelo se desperdiciaba y los rendimientos obtenidos eran muy escasos. El desconocimiento de los métodos de conservación de la carne, el estado de los animales, desnutridos y sujetos a epidemias, impedía toda explotación ganadera racional, utilizándose el ganado, sobre todo, para los trabajos agrícolas.

Las crisis de subsistencias probaba trágicamente que el destino de millones de  hombres  dependía aún de las cosechas  de   trigo;   por  eso la agricultura estaba orientada hacia los productos de más corriente consumo, y, en pri mer lugar, hacia los cereales, como el trigo el centeno, la cebada, la avena y el alforjón.

La ausencia  de  excedentes  obligaba  a  la: diferentes naciones e incluso a las regione: a  vivir  replegadas  sobre  sí  mismas.   Uni camente  los   productos   exóticos   (especias café) daban lugar a un tráfico importante Sin embargo, este medio siglo conoció cier tos progresos agrícolas, de los que Inglate rra fue la principal beneficiaria. Más  adelantada que sus vecinos, había experimentado, desde el siglo XVIII , nuevos métodos; 2.000 lores, propietarios del tercio de la superficie cultivable, transformaron hectáreas de tierra de labor en fértiles praderas, en las que practicaron una ganadería moderna con selección de razas (la raza Durham llegó a ser la primera de Europa).

Los decretos para la formación de «acotados» (reunión de tierras rodeadas por vallas), concluidos en 1840, los «cornlaws», leyes que prohibían la entrada de trigos extranjeros, habían enriquecido   a   estos   grandes   propietarios que llevaron a cabo una verdadera revolución sustituyendo el barbecho por el cultivo de plantas herbáceas, de trébol, de alfalfa y otras análogas, alternando con los cereales; la utilización de los abonos (cal, guano, fertilizantes industriales descubiertos por Liebig), la mejora de los arados, la desecación de los pantanos, reforzaron esta revolución agraria.

Las Corn Laws fueron aranceles a la importación para apoyar los precios del grano británico doméstico contra la competencia de importaciones, vigentes entre 1815 y 1846.

PEQUEÑAS PROPIEDADES Y GRANDES DOMINIOS: Además  del  tipo inglés (que acabamos de ver mas arriba),  se podían  distinguir otras dos modalidades  de  agricultura en Europa.  Una de ellas predominaba en Francia, Países Bajos, Suiza y norte de Italia; la supresión de las servidumbres señoriales   había   emancipado   jurídicamente   al campesinado, pero éste, dueño en su inmensa mayoría, de pequeñas o medias propiedades, vegetaba y se mantenía gracias a la supervivencia de las prácticas comunales y a la ayuda de trabajos artesanos.

Sin embargo, en estos países fueron realizados importantes   trabajos   de  desecación   (particularmente en Holanda, donde los «polders» alcanzaron una gran extensión) que permitieron acrecentar la superficie cultivable. El rercer tipo de agricultura, el de los grandes dominios   señoriales,  reinaba  en  la  mayor parte de Europa; en el sur de Italia y en Toscana, la aristocracia terrateniente practicaba el absentismo, dejando a los administradores el cuidado de ocuparse de sus inmensas propiedades, y éstos las hacían explotar por los jornaleros a los que apenas les quedaba para vivir. Los grandes propietarios españoles practicaban también la aparcería; pero tenían que hacer frente a la Mesta, poderosa asociación de ganaderos que monopolizaba inmensas extensiones de tierras, oponiéndose al desarrollo de la agricultura.

En Prusia y en Europa Oriental, las reformas napoleónicas fueron abandonadas después de Waterloo y los campesinos tuvieron que devolver a los nobles el tercio de sus tierras, cayendo nuevamente en un estado de semi-servidumbre. Sin embargo, algunos pequeños hidalgos prusianos intentaron modernizar sus posesiones siguiendo el ejemplo de los lores ingleses.

Por último, en Rusia, la tierra estaba en manos de la corona y de los nobles; una parte de sus inmensos dominios era explotada directamente, y la otra repartida en parcelas entregadas a las familias de los siervos a cambio de los servicios que prestaban trabajando las tierras de su señor. Rusia era entonces la mayor exportadora de trigo de Europa, pero las exportaciones se hacían en detrimento de la población, que vivía en condiciones miserables. Esta oposición entre la Europa Occidental y los países orientales, próximos todavía a las estructuras feudales, había de durar hasta nuestros días.

Los Satélites Artificiales Argentinos Historia Plan Espacial

SATELITE ARTIFICIAL ARGENTINO
HISTORIA PLAN ESPACIAL

Los vehículos espaciales, como por ejemplos los satélites artificiales,  resultan instrumentos impresindibles para el avance científico y tecnológico de la imanidad. Son numerosos los fines con que se utilizan; ellos, cabe destacar los fines científicos, medioambienles, de comunicaciones, de navegación y militares. Mientras ue los satélites giran en órbita alrededor de nuestro planeta, las sondas se han liberado de la atracción gravitatoria de la Tierra y se desplazan en trayectorias variadas.

Los satélites recorren distintos tipos de órbitas, a diferentes alturas con respecto a la superficie terrestre. Tienen tamaños muy variables; algunos pueden llevar tripulantes a bordo.

Los de mayor envergadura se ubican en órbitas bajas entre 250 y 450 km, como por ejemplo, el transbordador espacial norteamericano y la estaciónespacial Mir, que permiten transportar astronautas, satélites y equipos de mantenimiento y reparación.  También se encuentra el telescopio espacial Hubble, que estudia la luz procedente de los objetos más alejados del Universo.

https://historiaybiografias.com/linea_divisoria4.jpg

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio. Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos. En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

Mono Juan Enviado al Espacio Por Argentina, Murió en el zoologico de Córdoba.

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio. El tripulante, de la especie caí, había nacido en Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja. Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal. En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD
A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas. En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos. Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones. La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas. El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social. El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información. La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos. La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES: La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida. En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre. Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó.

En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador. Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite. Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento.

Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta.

En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete. El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

Los satélites geoestacionarios se mantienen a una distancia de 38.500 km girando a la misma velocidad que la Tierra, por ello siempre se observan en el mismo punto sobre el ecuador terrestre. Se utilizan para establecer comunicaciones telefónicas y televisivas.

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:
Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro. Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica. Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se creala Sociedad Argentina Interplanetaria, la primera en América latina, en 1949. Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II. Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro “La Ciencia Argentina”, explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II. Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario. La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B. Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita. En febrero 1994, el New York Times se refería a la empresa argentina como “una pequeña versión argentina de una compañía de Silicon Valley” y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial “Argentina en el Espacio 1995-2006”. Varotto cuenta que este programa “fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo”. Y agrega: “Se decidió concentrar los recursos en ir arriba para mirar para abajo”. El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, “contribuya a la optimización de actividades de determinadas áreas socio-económicas”. Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

SATÉLITES SAC-A Y SAC-B
La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita. Mejor suerte tuvo la misión SAC-A, que se concretó en 1998. El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C
Argentina en su Plan Espacial Nacional – “Argentina en el Espacio 1995-2006” , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae). Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de “proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes”.

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7. Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales. Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la Conae llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino. Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites. El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la Conae- y varias empresas del país, que son las que construyeron el satélite. El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP. Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane
Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas. El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la “sugerencia” de EE.UU.
Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.
Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990. Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat). Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio. El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales. Fabricó el “bus”, o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE. Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina. A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche. De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica. Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre d 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia. La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales. El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
“La Ciencia Argentina” de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario “La Nación”

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del “empleado bancario” ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos “bigotes” de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla Disputa

Historia del Uso de la Corriente Alterna
Disputa de Edison Vs. Tesla

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el “príncipe de los experimentadores”. Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar.

Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: “Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética“. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad. En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las “resplande cientes herraduras que brillaban dentro de los globo en forma de peras”.

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno y consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

iluminador electrico de gran potencia

PROYECTOR ELÉCTRICO DE 1,50 METROS, QUE ILUMINA LOS OBTETOS SITUADOS A 16 KILÓMETROS DE DISTANCIA

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

generadores de corriente electrica

Con su sala de turbinas de vapor construida a orillas del rio, completo aislamiento de todo el equipo eléctrico, disposiciones hidráulicas para eliminar las cenizas, instalación de calderas con recalentadores de vapor formados de seis tubos colocados sobre la cámara de combustión, extenso empleo de motores para llevar a efecto las operaciones precisas con las válvulas y perfecta maquinaria para facilitar el transporte del carbón, esta estación central de «Hell Gate», Nueva York, de la Compañía United Electric Light y Power, no tiene rival.

La Corriente Alternada

Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  “impulsar” a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

https://historiaybiografias.com/linea_divisoria3.jpg

LECTURA COMPLEMENTARIA:
La importancia de la electricidad como medio de transportar energía: Es difícil encontrar aplicación de la electricidad que demuestre más claramente su completa sumisión al hombre como la que se relaciona con el transporte de la energía o fuerza motriz. Desde tiempo inmemorial el hombre ha utilizado recursos que reemplazasen al esfuerzo que puede producir su brazo; el empleo de la fuerza de los animales es muy antiguo, y hay muestras evidentes de que también aprovechó la energía producida al caer el agua.

de todas maneras, en cada caso, siempre coincidían el lugar de producción y el de aplicación de la energía. La rueda hidráulica y el molino de nuestros antepasados estaban instalados al lado mismo del salto de agua. De este modo, muy pocos de nuestros grandes recursos hidráulicos podían ser aprovechados, pues la mayoría de los grandes saltos de agua están situados en lugares inaccesibles de las regiones montañosas, a los cuales sería imposible, o por lo menos muy costoso, transportar las primeras materias.

La fuerza motriz, invisible, va desde la escarpada montaña a la populosa ciudad Los progresos y desarrollo de la máquina de vapor y su creciente importancia han hecho se piense en buscar un medio de transmitir la energía al lugar del consumo desde el punto donde pueda producirse económicamente, ya por estar próximo el combustible o ser más fácil el acarreo desde la mina.

generador de energia electrica

UN GRAN GENERADOR ELÉCTRICO DE TURBINA: Uno de los generadores, de 55.000 caballos de fuerza, en la instalación hidroeléctrica de Queenston-Chippawa. Las turbinas de esta clase reposan sobre una especie de cojinetes o almohadillado de agua, tan delicadamente dispuesto, que si no se frena, tarda doce horas en pararse por completo, a contar desde el momento en que se corta la marcha.

Cuando la instalación de una máquina de vapor puede hacerse a la orilla de un estuario o un puerto, el carbón se transporta por mar a un coste relativamente bajo; pero dentro de las ciudades la conducción es carísima. El mismo agente que permite al hombre hablar a gran distancia con sus semejantes, puede ahora emplearse para transmitir la energía desde los saltos de agua en las montañas o las minas de carbón a la distante ciudad o centro consumidor. Las empresas industriales pueden así establecer las fábricas en aquellos lugares donde los jornales son menos elevados y la primera materia más abundante, puesto que es factible producir la energía necesaria a cientos de kilómetros.

De esta manera también pueden elegirse locales propios y convenientes para las fábricas y las centrales eléctricas donde se genera la energía, ligándose los dos centros por una línea de transmisión que abastece de fuerza eléctrica de un extremo a otro. Pero todavía la ingeniería moderna no es capaz de suministrar por este medio la fuerza motriz a las distancias que envía la voz humana.

La longitud a que puede transmitirse la energía económicamente en la actualidad es de 440 kilómetros en números redondos, y el alcanzar mayor distancia es uno de los grandes problemas que estudian los técnicos en nuestro siglo.

La transmisión eléctrica ha hecho posible la centralización de las grandes instalaciones productoras de fuerza motriz, y de este modo se ha conseguido convertir mucho más económicamente la energía química del carbón en eléctrica a bajo coste. La posibilidad de transportar la energía a grandes distancias permitió la instalación de enormes centrales conteniendo máquinas generatrices y convertidores de tal tamaño, que el coste de la producción por unidad de energía es tan bajo que permite sea consumido por las personas de recursos más modestos.

Debido precisamente a la con solidación y seguridad de estas grandes centrales, transmitiendo la energía a cualquier punto de la zona que las rodea por medios económicos y eficaces, ha sido posible la utilización de la electricidad en las fábricas, talleres y las viviendas.

En las instalaciones industriales más modernas se han suprimido los antiguos ejes, poleas y correas, acoplando motores eléctricos a los diversos mecanismos. La gran cantidad de energía economizada por esta disposición, sin duda mucho más apropiada y flexible para transmitir el movimiento, se emplea en aumentar el número de máquinas trabajando.

El coste de los edificios es así menor, y pueden construirse agrupados o separadamente, segrtn se quiera o convenga, sin tener que ajustarse a la posición del eje transmisor, lo que permite instalar las máquinas en la mejor posición, para disminuir acarreos innecesarios con el producto manufacturado, La eliminación de las correas deja mayor espacio libre, facilita el trabajo de los puentes-grúas o transbordadores, evita el polvo que se removía durante la marcha y, finalmente, también permite un alumbrado mejor.

La ausencia de cojinetes y aparatos para la lubricación de los mismos libra del goteo continuo de aceite, y todo esto trae consigo una mayor limpieza en las operaciones, mejorando, por consiguiente, las condiciones de salubridad durante el tiempo de estancia de los obreros en el trabajo y disminuyendo además múltiples daños al producto acabado.

La electricidad, aplicada al movimiento de la maquinaria, da mayor rendimiento, produce la fuerza con más flexibilidad que con el antiguo sistema de ejes transmisores, de tal suerte que pueden ponerse en marcha o hacer parar individualmente los aparatos sin que se note el menor cambio en la velocidad de los otros.

Pueden llevarse a efecto muchas operaciones delicadas que necesitan una velocidad igual. La sencillez con que puede regularse ésta, así como ampliar la fuerza motriz, facilita el aumento de producción y hace disminuir el coste de la materia elaborada. Son mucho menos frecuentes los accidentes donde se ha adoptado este sistema. Este hecho, unido a la disminución de ruido, mejor iluminación y mayor espacio, son de gran importancia para patronos y obreros, pues éstos tienen que encontrarse así en mejor disposición para el trabajo.

Las fábricas ya no se ven obligadas a esparcir el humo que lanzan sus chimeneas o el polvillo de sus ventiladores sobre las casas que las rodean, desde que aparatos eléctricos pueden evitarlo, o recoger, como por ejemplo, el polvo, de tanto valor en las fábricas de cemento.

El ozonizador eléctrico instalado en los tubos de salida de vapores que producen mal olor los evita, y permite ejecutar estas operaciones, molestas y desagradables, en locales situados dentro de la población, sin temer a que se opongan sus habitantes. En las fábricas donde es preciso mover hierros de varias formas, grandes y potentes electroimanes, instalados dentro o fuera de los talleres, transportan los materiales de un lado a otro en todo tiempo, ya llueva o nieve, aumentando así su capacidad productora.

Una de las aplicaciones más importantes de la fuerza eléctrica es la que se relaciona con la tracción. Al presente hay dos medios para poder hacer marchar los trenes en nuestros ferrocarriles: la máquina de vapor y la locomotora eléctrica. Necesariamente, la locomotora de vapor se irÁ abandonando poco a poco, debido a su limitado espacio para generar la fuerza precisa con la amplitud y rendimiento conveniente, mientras que
en el tractor eléctrico la energía llega de una estación central capaz de producirla en la cantidad que se requiera.

Una instalación móvil de vapor está sujeta a rápida y elevada depreciación, necesitando un coste de conservación mayor que la sencilla locomotora eléctrica. El molesto humo y el vapor desaparecen con el tractor eléctrico, y esto, que es de la mayor importancia en el caso de las líneas subterráneas de las grandes ciudades, fué frecuentemente la principal razón del cambio de la tracción de vapor por la eléctrica.

El empleo de la tracción eléctrica por todas partes en las líneas de tranvías y metropolitanos subterráneos se debe, como hemos dicho, principalmente a esta propiedad especial de no producir humo, y  también a la de poder establecer motores encada coche y así mover uno o varios, formando trenes según las necesidades del tráfico.

Las aplicaciones eléctricas han hecho incalculables beneficios mejorando las condiciones de la vida, pues por ellas, en muchas ciudades industriales, los s obreros pueden habitat en la parte más sana de los alrededores, sin perder demasiado tiempo en trasladarse desde su casa al almacén, tienda o taller donde prestan sus servicios.

Aquellos que viven en poblaciones extremadamente densas, por otro lado, pueden salir económicamente al campo para deseansar del torbellino de la ciudad. Las relaciones sociales, el cambio comercial, el mismo paisaje, todos ellos perderían extraordinariamente sin el motor sin humo. Las rápidas líneas de tranvías interurbanas, en regiones menos pobladas, transportan pasajeros y mercancías a las granjas situadas en su ruta. De este modo se tienen medios económicos y convenientes para efectuar las diversas transacciones entre los productores y los que consumen en las ciudades.

El transporte de pasajeros y mercaderías por medio de las líneas eléctricas, el teléfono y el telégrafo, acortan las distancias de tal suerte, que los habitantes del campo están en íntima comunicación entre sí, pudiendo aprovecharse de estas grandes mejoras.

Fuente Consultada:
Colección Moderna de Conocimientos Universales – La Era de la Eléctricidad – Tomo II – Editores W.M. Jackson, Inc.

 

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer “la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en “V”, puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en “V”, grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en “V”, el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en “V” próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación “vuela” sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en “V”, la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Procesos Para Obtener Metales desde Minerales

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos. El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros. La cantidad de metales que existen en la corteza terrestre es relativamente pequeña. Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos. Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral. Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas. La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %. Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—. Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado. Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero. El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.   El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

METALURGIA: El campo de acción que abarca la metalurgia es verdaderamente amplio. Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características. En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales). El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre. Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

Minerales de Hierro

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado. En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado. Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente. Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición. Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente. Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente. Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos. En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables. Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza. El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación. Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada. Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación. También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.
El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia. Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable. Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción. También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta. Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos. Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales. La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia. La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año. En el- futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Grandes aviones comerciales Historia de los aviones Tupolev 144

Grandes aviones comerciales
Historia de los aviones Tupolev 144

Tupolev Tu-144: La fascinante carrera para la construcción del supersónico civil tuvo en el Tupolev Tu-144, soviético, uno de los principales protagonistas, vencedor, a partes iguales, con el Concorde. El prestigio en juego era inmenso y la URSS no escatimó esfuerzos después de recoger el reto de la industria aeronáutica occidental: su Tu-144 fue el primero en volar, el 31 de diciembre de 1968, pero fue también el primero en abandonar el servicio de línea, diez años después, sin que se aprovechasen plenamente sus potencialidades.


El supersónico soviético fue presentado, en forma de modelo, en el Salón de París, de 1965, y, tras el histórico bautismo del aire del primer prototipo, inició una larga fase de evolución, que duró, por lo menos, cinco años, antes de la aparición de las unidades de producción inicial.

En el curso del ciclo de las evaluaciones, no obstante, el Tu-144 marcó otras importantes etapas en la historia de la aviación. Tras superar la velocidad del sonido, por primera vez, el 5 de junio de 1969 (a una altitud de 11.000 metros, después de media hora del despegue), el 26 de mayo de 1970 el avión llegó a ser el primer aparato comercial del mundo que superó Mach 2.

Esta velocidad (2.150 km./h., exactamente) fue mantenida durante varios minutos a una altitud de 16.300 metros. Posteriormente, se registró una velocidad máxima de Mach 2,4.

De todos modos, fue en 1973, también en el Salón Aeronáutico de París, cuando el supersónico de Tupolev fue exhibido en la configuración de producción inicial. Bastante semejante al anglofranees Concorde (respecto al cual, no obstante, tenía mayor capacidad), el avión apareció completamente modificado respecto a los prototipos, sobre todo en el ala, en la posición de los motores y en el tren de aterrizaje; por primera vez, en aquella ocasión, aparecieron, además, las dos aletas retráctiles en el morro, necesarias para mejorar las características de vuelo a baja velocidad.

La unidad presentada (la segunda de serie) se destruyó en un accidente de vuelo, pero, al menos oficialmente, no se reconocieron fallos del avión. El progreso de la producción (el Tu-144 fue construido en 13 unidades por lo menos) evidenció otras modificaciones, estructurales y de equipamiento.

El servicio con la compañía Aeroflot, aunque en forma experimental, comenzó el 26 de diciembre de 1975, entre Moscú y Alma-Ata (Kazajstán) en una distancia de 3.520 km.; por otro lado, se activó una conexión, el 22 de febrero de 1977, entre la capital soviética Jabarovsk y, en total, se efectuaron entre las tres ciudades unos cincuenta vuelos, antes de que, el 1 de noviembre de 1977, comenzase el servicio regular de pasajeros entre Moscú y Alma-Ata. En aquella ocasión, extrañamente, el Tu-144 voló semivacío, con tan sólo 80, de los 140 asientos, ocupados. Paulatinamente, no obstante, la actividad siguió adelante y, hasta el 1 de junio de 1978.Aeroflot efectuó 102 conexiones, antes de que llegase la orden de suspender la iniciativa.

Sobre las causas de esta decisión, han sido muchas las hipótesis y las ilaciones: aparentemente, el final de la actividad comercial del Tu-144 tuvo lugar después de un accidente acaecido a una do las unidades en vuelo experimental. Según muchos expertos y técnicos, el supersónico soviético no alcanzó nunca una fase satisfactoria de puesta a punto; según otros fue la baja rentabilidad del avión, medida en términos económicos, la quo indujo u las autoridades soviéticas a ponerlo aparte.

Probablemente, se trató de un conjunto de todos estos factores, sobre todo considerando que también la actividad del Concorde resultó un fracaso desde el principio, en términos de gestión operativa, y que aquél, por el contrario, se mantuvo por puro prestigio de Francia y de Gran Bretaña.

De todos modos, el 23 de junio de 1979, la URSS anunció el primer vuelo de una versión mejorada del Tu-144, designada con el sufijo D y dotada de nuevos motores más económicos y «limpios» y de mejores características de autonomía. Según las fuentes soviéticas, este avión estaba preparado para entrar en producción de serie.

Características Avión: Tupolev Tu-144
Constructor: Industrias del Estado
Tipo: Transporte civil
Año: 1968
Motor: 4 turborreactores Kuznetsov IMK-144, de 20.000 kg. de empuje cada uno
Envergadura: 28,80 m. Longitud: 65,70 m.
Altura: 12,85 m.
Peso al despegar: 180.000 kg.
Velocidad de crucero: 2.500 km./h. a 18.000 m. de altitud
Techo máximo operativo: 18.000 m.
Autonomía: 6.500 km.
Tripulación: 8 personas
Carga útil: 140 pasajeros

   Volver Arriba 

Tupolev 134 Medidas de Aviones de Linea Rusos Historia Fabricacion

Tupolev 134 Medidas de Aviones de Linea Rusos
Historia y Fabricación

Tupolev Tu-134: Después del Tu-104 de 1956 y del Tu-124 de 1960, el tercer proyecto de transporte comercial de reacción del grupo de trabajo de Tupolev fue el Tu-134, empezado a construir a principios de 1968 en base a determinadas peticiones de Aeroflot, que quería un avión para el corto y medio radio de acción, que fuese competitivo con los occidentales de igual clase.

Desde este punto de vista, aunque derivado evidentemente de sus directos predecesores, el Tu-134 acabó por parecerse a los que eran sus más próximos competidores construidos en Gran Bretaña y en los EE.UU.: el BAC One-Eleven y el DC-9.

Las semejanzas más evidentes entre los tres aviones estaban, en efecto, en la cola estructurada en forma de T y en la instalación de los dos propulsores en la parte posterior, a los lados del fuselaje. Esta configuración —introducida, por primera vez, por el birreactor francés Caravelle, a principios de los años cincuenta— permitía una considerable reducción del ruido en la cabina (al menos en las partes anterior y central) y una mayor «limpieza» de las superficies del ala, con mejor rendimiento general. Sin embargo, pese a estas diferencias, el nuevo proyecto de Tupolev calcaba de nuevo el anterior.

Efectivamente, prescindiendo del fuselaje, el Tu-134 adoptaba, fundamentalmente, la misma ala que el Tu-124, modificada en su parte central (no sólo para eliminar los dos motores de aquél, sino también para aumentar su longitud) y en las extremidades: en esencia, la envergadura había sido aumentada en casi tres metros y medio.

Los primeros detalles y las primeras informaciones referentes al Tu-134 llegaron a Occidente en septiembre de 1964, después de que el prototipo y otras cinco unidades de pre-serie hubieran llevado a cabo una fase consistente de pruebas, con más de 100 vuelos efectuados, y más o menos simultáneamente con el comienzo de la producción de serie. Debieron pasar otros tres años, antes de que Aeroflot completase el ciclo de evaluaciones operativas mediante una serie de conexiones interiores: el 12 de septiembre de 1967, el Tu-134 inauguró el servicio internacional en la ruta Moscú-Estocolmo.

Estos aviones —con capacidad de 64 a 72 pasajeros— conocieron un gran éxito de exportación, ya que fueron solicitados y adoptados por las compañías aéreas de Bulgaria, Alemania Oriental, Polonia, Hungría y Yugoslavia. De todos modos, en otoño de 1970, Aeroflot puso en servicio una nueva versión del birreactor, designada Tu-134A. Éstos tenían el fuselaje alargado en 2,10 metros, nuevos motores Soloviev D-30 de 6.800 kg. de empuje cada uno y dotados de inversores, tren de aterrizaje nuevo y más robusto, turbina de potencia auxiliar, y equipo electrónico de navegación y comunicación modernizado. Por otro lado, se había reforzado toda la estructura y se había aumentado la capacidad a 76-80 pasajeros.

Con el avance de la producción, desapareció también la que había sido una do las características estéticas de los aviones iniciales: la extremidad del morro acristalada (que, como en muchos aviones comerciales soviéticos, estaba destinada a alojar al navegante), por debajo do la cual un vistoso carenado contenía oí radar meteorológico.

En efecto, los Tu-134A de serie avanzada fueron dotados do un morro convencional, y de esta modificación pudo disponerse también, a petición, en los aviones que estaban ya en servicio.

En conjunto, la producción del Tu-134, en ambas versiones, se estimaba en cerca de 300 unidades a finales de 1980. De éstas, más de 200 estaban en servicio con los emblemas de la compañía Aeroflot, y los restantes con los colores de compañías pertenecientes a países del bloque oriental.

En particular, los Tu-134A fueron solicitados por la compañía checoslovaca CSA, por laInterflug germano-oriental, por la húngara Malev, por la polaca LOT, por la yugoslavaAviogenex y por la búlgara Balkan Bulgarian Airlines. El rendimiento operativo de estos aviones fue juzgado muy positivamente, sobre todo en términos de prestaciones y de economía de explotación.

Características  Avión: Tupolev Tu-134A
Constructor: Industrias del Estado
Tipo: Transporte civil
Año: 1970
Motor: 2 turborreactores Soloviev D-30, de 6.800 kg. de empuje cada uno
Envergadura: 29,00 m. Longitud: 37,10 m.
Altura: 9,02 m.
Peso al despegar: 47.000 kg.
Velocidad máxima: 870 km./h. a 11.000 m de altitud
Techo máximo operativo: 12.000 m.
Autonomía: 2.400 km.
Tripulación: 5 personas
Carga útil: 76-80 pasajeros

   Volver Arriba

Mensaje y Sonidos En El Disco de Oro de la Sonda Voyager

Mensaje y Sonidos En El Disco de Oro de la Sonda Voyager

La era espacial nos ha mostrado fenómenos asombrosos, tanto dentro del Sistema Solar como más allá. Las sondas espaciales han viajado a la Luna, a los planetas principales y a varios mundos menores, y los telescopios orbitales nos han ofrecido imágenes deslumbrantes del universo profundo. Las dos naves espaciales interestelares Voyager, las máquinas más rápidas que se hayan lanzado nunca desde la Tierra, se están desplazando ahora a una diez milésima parte de la velocidad de la luz. 

Necesitarían 40.000 años para situarse a la distancia de la estrella más próxima. ¿Tenemos alguna esperanza de abandonar la Tierra y de atravesar distancias inmensas para llegar aunque sólo sea a Próxima Centauri al cabo de períodos convenientes de tiempo? ¿Podemos hacer algo para aproximarnos a la velocidad de la luz? ¿Estaremos algún día en disposición de ir a velocidad superior a ella?

La sonda espacial Voyager 2 fue lanzada el 20 de agosto de 1977 desde Cabo Cañaveral, en un cohete Titán-Centauro. Es idéntica a su sonda hermana, la Voyager 1. Ambas sondas habían sido concebidas inicialmente como parte del programa Mariner con los nombres de Mariner 11 y Mariner 12, respectivamente.  A diferencia de su predecesora, la Voyager 2 adoptó una trayectoria diferente en su encuentro con Saturno, sacrificando la cercanía a Titán, pero adoptando un mayor impulso gravitacional en su viaje hacia Urano y Neptuno. La sonda alcanzó su mayor cercanía con estos planetas en los años 1986 y 1989, respectivamente.

Explorar el Sistema Solar en un tiempo razonable plantea alguno retos difíciles. Desde la década de 1970, los ingenieros de la  NASA han usado una ingeniosa técnica para reducir el tiempo del viaje sin recurrir a combustible adicional. Una «honda gravitatoria” supone dirigir la nave espacial  directamente hacia un planeta, girar en torno a él y partir en la misma dirección de su desplazamiento obteniendo así una aceleración significativa.

Esta técnica se utilizó por primera vez para ajustar la órbita de la sonda Mariner 10, que sobrepasó Venus en su viaje hacia Mercurio en 1973, pero su aplicación más famosa fue en las sondas Voyager 1 (abajo), que aprovecharon un raro alineamiento planetario para recorrer todo; los gigantes gaseosos entre las décadas de 1970 y 1980.

exploracion del universo

En enero de 2015, las dos sondas Voyager, las naves espaciales que más lejos han llegado, sobrepasaron los 14.000 días de operación. Su historia es la de un gran éxito, que comenzó siendo un viaje a los planetas gigantes más alejados y se ha convertido en la primera misión interestelar humana.

Las dos sondas Voyager fueron lanzadas en 1977, El 20 de agosto partió la Voyager 2, y el 5 de septiembre, la Voyager 1. Esta sonda fue la primera en enviar una fotografía de la Tierra y la Luna vistas desde el espacio.

Durante el viaje, la Voyager I tomó la delantera, y fue la primera en aproximarse a Júpiter (5 de marzo de 1979). Continuó su viaje hacia Saturno, planeta al que llegó en noviembre de 1980, Después, abandonó el Sistema Solar.

La Voyager 2 llegó a Júpiter en julio de 1979 y a Saturno en agosto de 1982, En aquel momento se consideró necesario mejorar las antenas que recibían los datos de las sondas, con el objetivo de poder seguirlas en su viaje a tan larga distancia, Cuatro años después, la Voyager 2 se convirtió en el primer vehículo espacial que visitó Urano.

El 24 de junio de 1986 llegó al tercer planeta gaseoso y comenzó a enviar imágenes. Tres años después, el 25 agosto de 1989, alcanzó Neptuno y salió del Sistema Solar bajo el plano de la eclíptica.

En 1990, la misión Voyager de exploración planetaria se convirtió oficialmente en la primera misión interestelar. El 14 de febrero se recibió la última imagen de una sonda Voyager, el retrato del Sistema Solar en su conjunto.

Entre la información enviada, se grabaron en un disco laminado en oro,  fotografías de hombres de todas las partes del mundo que cuidan de sus semejantes, que aprenden, que fabrican herramientas y arte, y que se enfrentan con problemas.

Hay una hora y media de música exquisita procedente de muchas culturas, música que expresa nuestra sensación de soledad cósmica, nuestro deseo de acabar con nuestro aislamiento, nuestras ansias de entrar en contacto con otros seres del Cosmos. Y hemos enviado grabaciones de los sonidos que se habrían oído en nuestro planeta desde los primeros días, antes del origen de la vida, hasta la evolución de la especie humana y de nuestra más reciente tecnología, en pleno crecimiento. Es, como los sonidos de cualquier ballena yubarta, una especie de canción de amor lanzada a la vastitud de las profundidades. Muchas partes de nuestro mensaje, quizás la mayoría, serán indescifrables. Pero lo hemos enviado porque era importante intentarlo.

De acuerdo con este espíritu incluimos en la nave espacial Voyager los pensamientos y sensaciones de una persona, la actividad eléctrica de su cerebro, corazón, ojos y músculos, que se grabaron durante una hora, se transcribieron en sonido, se comprimieron en el tiempo y se incorporaron al disco. En cierto sentido hemos lanzado al Cosmos una transcripción directa de los pensamientos y sensaciones de un ser humano en el mes de junio del año 1977 en el planeta Tierra.

Explica Carl Sagan, en su famoso libro “COSMOS”,

El mensaje Voyager se desplaza a una lentitud desesperante. Es el objeto más rápido lanzado nunca por la especie humana, pero tardará decenas de miles de años en recorrer la distancia que nos separa de la estrella más próxima. Cualquier programa de televisión atraviesa en horas la distancia que el Voyager ha cubierto en años. Una transmisión de televisión que acaba de estar ahora mismo en el aire, en unas cuantas horas dará alcance a la nave espacial Voyager en la región de Saturno, y más allá, y continuará su carrera hacia las estrellas. Si va en la correspondiente dirección alcanzará Alpha Centauri en algo más de cuatro años.

Si dentro de unas décadas o de unos siglos alguien en el espacio exterior oye nuestras emisiones de televisión, espero que piense bien de nosotros, porque somos el producto de quince mil millones de años de evolución cósmica, la metamorfosis local de la materia en consciencia. Nuestra inteligencia nos ha dotado recientemente de poderes terribles. No está todavía claro que tengamos la sabiduría necesaria para evitar nuestra propia destrucción. Pero muchos, de nosotros están luchando duro por conseguirlo.

Confiamos que muy pronto, en la perspectiva del tiempo cósmico, habremos unificado pacíficamente nuestro planeta con una organización que respete la vida de todo ser vivo que lo habita, y que esté dispuesta a dar el siguiente gran paso, convertirse en parte de una sociedad galáctica de civilizaciones en comunicación.”…

LOS SONIDOS DEL PLANETA TIERRA:

¿CÓMO HACER comprender a un habitante de un planeta lejano lo que son y cómo viven los seres humanos en la Tierra? Ésta fue la pregunta que se  planteó a un comité de expertos en 1977, cuando las naves espaciales de EUA Voyager 1 y 2 iban a ser lanzadas en un viaje al espacio con un saludo para cualquier forma de vida inteligente con que se toparan.

Para sorpresa de muchos, los expertos coincidieron en que uno de los mejores modos de comunicarse con extraterrestres sería no con palabras o imágenes, sino con música. Dedicaron los 87 minutos del videodisco de los Voyager a una selección de los “grandes éxitos musicales de la Tierra”. ¿Por qué la música?.

Disco de oro The Sounds of Earth (arriba), protegido por un estuche de aluminio con chapa de oro, es instalado en el Voyager 2. Con éste se envió al espacio exterior, donde los científicos esperan que lo reciba alguna forma de vida inteligente no humana.

En primer lugar,  porque su estructura —desde un blues de ocho compases hasta una compleja fuga de Bach— se basa en números, y la armonía es de fácil análisis matemático. Las matemáticas son el lenguaje más universal, por lo que era más probable que los extraterrestres comprendieran la estructura matemática de nuestra música más que cualquier otra cosa sobre nosotros.

Además, expresa los sentimientos humanos mejor que otros medios y podría representar la variedad de culturas. No ha habido sociedades sin su música típica para expresar tristeza y dolor, alegría y tranquilidad. Al seleccionar la música que representaría a la humanidad en el universo, la clave fue la variedad. 

Se eligieron canciones aborígenes de Australia, el Night Chant de los navajos y una canción de boda peruana; música de gamelán de Java, de zampoñas de las islas Salomón y de Perú, un raga de la India y música ch’in de China; piezas para gaitas de Azerbaiyán, flautas de bambú de Japón y percusiones del Senegal.

También se incluyeron canciones de Georgia, Zaire, México, Nueva Guinea y Bulgaria; el blues Dark Was the Night con Blind Willie Johnson, Melancholy Blues con el trompetista de jazz Louis Armstrong y Johnny B. Goode con el cantante de rock Chuck Berry. De la tradición culta occidental se seleccionó música para flauta renacentista, tres obras de Bach y dos de Beethoven, un aria de La flauta mágica de Mozart y La consagración de la primavera de Stravinsky.

¿Son éstos los éxitos musicales de la Tierra? Al menos son hoy los que más podrían persistir. El videodisco, de cobre con chapa de oro, fue fabricado para que dure 1.000 millones de años.

INSTRUMENTOS DE GUERRA:

EL SONIDO estridente de las gaitas ha acompañado a los escoceses de laS Tierras Altas en las batallas cuando menos durante los últimos 400 años, dando nuevos ánimos a los ardientes guerreros de las montañas y provocando miedo en el corazón de sus enemigos. Según registros, en la Batalla de Pinkie (1549), “los violentos escoceses se incitaban a la guerra con el sonido de las gaitas”. Y éstas se escucharon también en 1942, cuando tropas de las Tierras Altas escocesas avanzaron por campos minados del desierto contra el Afrika Korps de Rommel, en la batalla de El Alamein.

Desde Suecia hasta Túnez

Las gaitas simbolizan a Escocia tanto como el haggis y el whisky. Pero los escoceses no pretenden ser los inventores de la gaita. Es casi seguro que haya surgido en el Imperio Romano durante el siglo 1. Se cree que el emperador Nerón la tocaba, y es más probable que estuviera practicando este instrumento, no el violín, mientras Roma ardía.

Hacia 1300, gaitas de un tipo u otro zumbaban y chillaban desde Inglaterra hasta la India, y de Suecia a Túnez casi en cualquier parte, menos en Escocia. Fue un siglo después, cuando ya el resto del mundo había empezado a cansarse del instrumento, que los escoceses lo adoptaron.

Llamado a la gloria En 1915, el gaitero Laídlaw (foto izquierda) incitó a las tropas británicas para que continuaran el avance a través de una nube de gas mostaza en el frente occidental. Su valentía lo hizo merecedor de la Cruz de Victoria.

Las gaitas fueron populares en parte porque podían fabricarse con materiales que se conseguían en la sociedad rural. Sólo se requería la piel de una oveja o el estómago de una vaca para hacer el odre, y unas pocas cañas perforadas para los canutos. El principio del instrumento es ingenioso, pero sencillo. El gaitero sopla en el odre, que actúa como depósito para mantener la circulación constante de aire a los canutos. Estos son de dos tipos, caramillo y roncón. En una versión sencilla de dos canutos, el gaitero ejecuta la melodía en el caramillo, mientras el roncón produce el bajo continuo característico del sonido de la gaita. En algunas variantes, el aire para el odre proviene de un fuelle.

Las gaitas aún se emplean en la música folklórica de muchos países. Por ejemplo, acompañan las danzas tradicionales de los bretones, en el noroeste de Francia. Muchas personas relacionan con regimientos escoceses el sonido de las gaitas entremezclado con el estruendo de una batalla. Pero los escoceses no tienen exclusividad al respecto: durante siglos los irlandeses también las han usado para llamar a las armas.

EL VIOLIN STRADIVARIUS:

Los violines Stradivarius son los más preciados instrumentos musicales del mundo. Entre los cerca de 600 ejemplares que aun se conservan hay algunos valorados en más de un millón y medio de euros, es decir, más de cien veces de lo que costaría el más perfecto ejemplar artesano moderno y más de diez mil veces que los procedentes de fabricaciones industrializadas.

Un violín hecho en el siglo XVIII por Antonio Stradivarius, de Cremona, Italia, puede costar hasta un millón de dólares. Los stradivarius se cotizan a tan altos precios porque todavía se los cataloga como los violines más finos que se hayan producido.

Stradivarius fue un genio tranquilo, un artesano asentado en Cremona, donde residió toda su vida en una modesta casa taller del barrio antiguo. A crear esta aureola de misterio ha contribuido el hecho de no conocer apenas datos biográficos de su vida, a lo que hay que sumar las extrañas circunstancias en las que se perdió su cadáver.

No se sabe con certeza en que año nació ni en que ciudad exactamente, pues no queda registro del hecho. Se piensa por otras fechas posteriores que pudo nacer en torno a los años 1640-1645. Se conoce mejor su estancia en la ciudad Italiana de Cremona donde desarrolló toda su carrera como constructor de violines. En total construyó más de mil violines, de los que se conservan cerca de la mitad.

Stradivarius enseñó a sus dos hijos el arte de hacer instrumentos de cuerda y, aunque ellos no lograron alcanzar la misma calidad mágica del padre, su trabajo fue notable. Ha sido un misterio qué confiere a un stradivarius su calidad única; las conjeturas se han centrado en el barniz empleado en estos instrumentos. Stradivarius escribió su fórmula del barniz en la guarda de la Biblia familiar; mas, por desgracia, uno de sus descendientes la destruyó.

El italiano Antonius Stradivarius (1644-1737) introdujo una geometría y un diseño que se convirtieron en los modelos a seguir por todos los fabricantes de violines. De los 1.100 instrumentos que construyó, aún sobreviven unos 650. El extremadamente alto valor de estos instrumentos quedó demostrado en una subasta realizada en el mes de abril en Londres. El violín Stradivarius ‘Lady Tennant’ vendido en esa oportunidad, batió un récord en el mundo de las subastas de instrumentos musicales, con un precio astronómico de un millón y medio de euros.

Madera veneciana:

Pese a lo anterior, Joseph Nagyvary, profesor de bioquímica y biofísica en la Universidad de Agricultura y Mecánica de Texas, cree haber descubierto el secreto de Stradivarius: la madera de abeto que éste usó procedía de Venecia, donde se guardaba junto al mar. Esto producía diminutos agujeros en la madera, sólo visibles con un microscopio electrónico de 2 000 amplificaciones. La madera curada en seco de los violines modernos no tiene estos orificios. Según Nagyvary, esto confiere riqueza y resonancia especiales al sonido.

Nagyvary también descubrió, al examinar el barniz, que incluía diminutos cristales de mineral. Infirió que procedían de piedras preciosas molidas, que añadían los alquimistas al preparar el barniz en la creencia de que las piedras tenían propiedades mágicas. En un violín, estos cristales filtran los armónicos agudos y producen un sonido más puro y terso.

Nagyvary puso a prueba su teoría al fabricar un violín con madera curada en la humedad y recubierta de un barniz que contenía polvo de piedras preciosas. Un experto calificó el resultado como “el mejor violín nuevo que jamás he escuchado”. La famosa violinista Zina Schiff quedó tan impresionada que tocó el instrumento en conciertos públicos.

¿Se percataban Stradivarius u otros famosos violeros de Cremona —como los Amati y los Guarnen— de la singular calidad de los materiales que utilizaban? Al respecto, Nagyvary dice: “Sinceramente pienso que los antiguos violeros no sabían, acerca de la fabricación de violines, más de lo que saben los actuales artesanos… Solamente fueron los afortunados beneficiarios de una feliz coincidencia histórica.”

Silos violeros actuales usaran los descubrimientos de Nagyvary, ¿disminuiría el valor de un stradivarius? Es casi indudable que no, pues no parece haber nadie capaz de revivir su ingrediente mágico: su genialidad.

Fuente Consultada: Sabia ud. que….? Editorial Reader Digest

Yeager rompio la barrera del sonido Bell X1 Velocidad del sonido

Yeager rompió la barrera del sonido, el Bell X1

Dos días antes de que intentara romper la barrera del sonido, el capitán Charles “Chuck’ Yeager, (foto izquierda) de la Fuerza Aérea de Estados Unidos, casi perdió el conocimiento en un accidente ecuestre y se rompió dos costillas.

A la mañana siguiente un médico de la localidad le vendó el cuerpo, pero ni siquiera así pudo mover el brazo derecho debido al dolor. No obstante, sabía que si sus superiores se enteraban de su estado, pospondrían el proyecto secreto programado para el 14 de octubre de 1947.

El avión cohete Bell X-1 se dejaría caer del compartimiento de bombas de un Superfortaleza B-29, y después de planear brevemente comenzaría a ascender cuando Yeager encendiera los cuatro cohetes en rápida sucesión.

Para salir del vientre del B-29 y entrar en la pequeña cabina del X-1 (conocido también como XS- 1), Yeager tenía que deslizarse hacia abajo por una pequeña escalera. Después había que bajar la puerta de la cabina por medio de una extensión desprendible del compartimiento de bombas.

Una vez que la puerta estuviera colocada en la forma debida, Yeager debía cerrarla desde el lado derecho. Era ésta una operación que resultaba muy simple, mas no para quien tenía dos costillas fracturadas y el brazo derecho sin poder moverlo. Entonces, su ingeniero de vuelo, Jack Ridley, tuvo una idea genial: el piloto podía quizá usar una especie de bastón con la mano izquierda, y utilizarlo para elevar la manija de la puerta y asegurarla.

La velocidad del sonido es la velocidad de propagación de las ondas sonoras, un tipo de ondas mecánicas longitudinales producido por variaciones de presión del medio. Estas variaciones de presión (captadas por el oído humano) producen en el cerebro la percepción del sonido. El sonido no se transporta por el vacío porque no hay moléculas a través de las cuales transmitirse.

En general, la velocidad del sonido es mayor en los sólidos que en los líquidos y en los líquidos es mayor que en los gases.

La velocidad del sonido en el aire (a una temperatura de 20 ºC) es de 340 m/s (1.224 km/h)

En el aire, a 0 ºC, el sonido viaja a una velocidad de 331 m/s y si sube en 1 ºC la temperatura,
la velocidad del sonido aumenta en 0,6 m/s.

En el agua es de 1.600 m/s, En la madera es de 3.900 m/s, En el acero es de 5.100 m/s

“Echamos un vistazo alrededor del hangar y descubrimos una escoba, rememoró en cierta ocasión Yeager. “Jack cortó un palo de escoba de unos 25 cm., que se ajustó a la manija de la puerta. Luego me escurrí dentro del X-1 e intentamos probar el remedio. Él sostuvo la puerta contra el fuselaje y, usando el palo de escoba para elevar la manija, me di cuenta de que podía yo maniobrar para asegurarla como se requería”, añadió.

Hacia las 8:00 a.m. del 14 de octubre, el B-29 despegó de la Base Aérea Muroc (ahora Base Edwards) en el desierto de Mojave, al sur de California. A pesar del dolor que sentía, Yeager, de 24 años de edad, tenía un tranquilo optimismo.

Ya había hecho vatios vuelos de prueba en el avión cohete y quería ser el primer hombre en volar a una velocidad supersónica, a unos 1.126 km/h y alrededor de 12.200 m sobre el nivel del mar.

La velocidad de un gavión comparada con la del sonido se conoce como número mach, por el, físico austriaco Ernst Mach (1838-1916). Cuando un avión vuela a la velocidad del sonido se dice que viaja a 1 mach.

A menos que un avión esté diseñado para el vuelo supersónico, las fuertes ráfagas de viento lo golpean al acercarse a 1 mach y lo vuelven inestable; el X-1, con su nariz y sus líneas aerodinámicas, en teoría no sería afectado por ese fenómeno. Sin embargo, la inercia del avión lanzaba al piloto por la cabina con tanta fuerza, que éste corría el riesgo de golpearse y quedar inconsciente. Para protegerse, Yeager llevaba una gorra de cuero encima de su casco de aviador.

Cuando el B-29 se acercaba a 2100 m de altura, Yeager se dirigió al compartimiento de bombas, donde había unas barandillas que descendían junto al X- 1; empujó la escalera de aluminio y se deslizó con los pies por delante en la cabina del X-1.

Allí tuvo que soportar un. frío intenso. 1’Aás tarde relataría: “Tiritando, uno se frota las manos con todo y guantes y se pone la mascarilla de oxígeno. El frío de los centenares de litros de oxígeno líquido que lleve la nave hace que uno se paralice. No hay calefactor ni descongelador; no se puede hacer nada más que apretar las mandíbulas y dejar correr los minutos… es como tratar de trabajar y concentrarse dentro de un congelador.”

Durante los vuelos de prueba la transpiración de Yeager avía formado una capa de escarcha en el parabrisa. Para evitarla el jefe de mecánicos había puesto un revestimiento de champú sobre el vidrio. “Por alguna razón desconocida”, dijo Yeager, “funciono como anticongelante y continuamos usándolo incluso después de que el gobierno compro un producto químico especial que costaba 18 dólares la botella.”

Barrera rota De sólo 9.5 m de largo y con una envergadura de 8.5 m, el Bell X-1 piloteado
por el capitán “Chuck Yeager rompió la barrera del sonido a 1126 km/h.

Los dos aviones, todavía uno dentro y del otro, volaban a unos 4.570 m y seguían ascendiendo. A los 6.100 m, el piloto del B-29, el mayor Bob Cárdenas, comenzó la cuenta regresiva; al terminar apretó el botón de apertura y el X-1 quedo libre con una sacudida, cayendo con la nariz hacia arriba.

Cayó aproximadamente 150 metros, mientras Yeager luchaba desesperadamente con los controles. Por fin logró poner la nariz del aparato hacia abajo y entonces encendió los cuatro cohetes; sabia que el combustible podía estallar al. conectar el encendido, pero todo funcionó conforme a lo planeado y el avión comenzó a traquetear y a tragarse una tonelada de combustible por minuto”, según relató.

El X-1 ascendía a una velocidad de 0.88 mach y comenzó a balancearse. Yeager accionó de inmediato el interruptor del estabilizador y el avión se niveló a los 11.000 m de altura. Apagó dos de los cohetes y a los 12.200 m subía a 0.92 mach; de nuevo niveló el aparato, esta vez a 12.800 m. Encendió el cohete número tres e instantáneamente llegó a 0.96 mach… y la velocidad seguía en aumento.

“¡Volamos a velocidad supersónica!”, exclamó. “Y todo estaba tan suave como la piel de un bebé; mi abuela podría sentarse aquí a beber limonada. Yo elevé entonces la nariz del avión para reducir la velocidad. Estaba atónito. Después de toda la ansiedad, romper la barrera del sonido resultó como correr en una pista perfectamente pavimentada.”

Para conservar intacta su carga de 2 00 metros de oxígeno liquido y alcohol, el X-1 iba sujeto en el compartimiento de bombas de un Superfortaleza B-29. Para iniciar su vuelo, el X-l se dejó caer del avión nodriza como si fuera una bomba.

Para eliminar el riesgo de una explosión en el momento de aterrizar el X-1, Yeager dejó escapar el resto del combustible y siete minutos después el avión descendía sin peligro. Yeager había allanado el camino para la exploración espacial.

“Me convertí en héroe ese día”, dijo con orgullo. “Como siempre, los carros de bomberos se abalanzaron hacia el lugar donde la nave se detuvo. Y como de costumbre. el jefe de bomberos me llevó de regreso al hangar. Ese cálido sol del desierto era en verdad maravilloso, pero aún me dolían las costillas.”

Explicación Física Sobre Romper La Barrera del Sonido

Fuente Consultada:
Como Funcionan Las Mayoría de las Cosas de Reader`s Digest – Wikipedia – Enciclopedia Encarta – Enciclopedia Consultora

Historia del Globo Aerostático Viaje al Polo en Globo y Dirigible

Historia del Globo Aerostático
Viaje al Polo en Globo

HISTORIA DE LA ÉPOCA: En 1782, a los hermanos Joseph-Michel (1740-1810) y Jackes-Etienne Montgolfier (1745-1799) se les ocurrió pensar que si se calentaba el aire, se expandía y se hacía más liviano que el aire frío. Para demostrarlo, introdujeron aire caliente en una bolsa de papel y comprobaron que se elevaba.

Aprovecharon, entonces, este mismo principio para construir el primer globo aerostático. Después de numerosos ensayos elevaron en Annonay, su ciudad natal en Francia, un globo fabricado con papel y tela de embalaje.

El 19 de septiembre de ese mismo año, en Versalles, ante los reyes de Francia, repitieron la experiencia, pero en esta ocasión del globo pendía una barquilla en la que ubicaron un cordero, un gallo y un pato. El aeróstato recorrió 3 kilómetros y aterrizó sin novedad. Dos meses después, el 21 de noviembre, tuvo lugar el primer vuelo tripulado por el hombre, el físico francés Jean Francois Pilatre de Rozier (1756-1783) y un compañero; los tripulantes recorrieron alrededor de 9 kilómetros en 25 minutos.

Primer Globo Aerostatico

Primer Globo Aerostático

Rápidamente se fueron perfeccionando los aeróstatos, y en los primeros años del siglo XIX se efectuaron ascensiones hasta cerca de 10.000 metros. En algunas de ellas, los navegantes murieron por asfixia. Los dirigibles aparecieron a fines del siglo pasado (Santos Dumont), y en esos mismos años se alcanza la altura de 18.500 metros con un globo portador de aparatos registradores, que anotaron una temperatura de 60 grados bajo cero. Todos esos aparatos se basan en el principio de Arquímedes, y, por lo tanto, se los infla con gases menos densos que el aire (si se los inflase con aire, ninguno subiría un solo metro).

Otro francés, el físico Jacques Alexander César Charles (1746-1823) alargó la duración de los vuelos al colocar una hoguera en la barquilla que mantenía el airecaliente por más tiempo. También construyó, el 27 de agosto de 1783, el primer globo de hidrógeno. El reemplazo del aire por este gas, mucho más liviano, mejoró la capacidad de ascensión de los globos.

Restaba, ahora, encontrar la manera de dirigir el rumbo de los globos. El ingeniero francés Henry Giffard construyó en 1852 el primer aeróstato fusiforme. Impulsado por una máquina de vapor y alimentado con hidrógeno como gas sustentador, el aeróstato se elevó sobre el hipódromo de París y alcanzó una velocidad de 10 km/h.

En este sentido trabajó el inventor alemán Ferdinand Adolf August Heinrich von Zeppelin (1838-1917), quien confirió a los globos una forma aerodinámica. Para lograrlo, utilizó aluminio, que es un material resistente y liviano. Su primer dirigible parecía un gran cigarro del cual pendía la barquilla con el motor y una hélice, hoy recordado como Zeppelin. Los dirigibles dejaron de usarse sobre todo por los grandes desastres que ocasionaron.

El más impactante fue la célebre explosión del Hindenburg en Nueva Jersey, el 6 de mayo de 1937. Actualmente se utilizar, para publicidad, transporte de carga pesada y para investigación. En este sentido, los globos meteorológicos funcionan de un modo curioso: un globo de hidrógeno se eleva transportando una radiosonda.

En la ascensión, la sonda emite señales a la estación terrestre donde éstas son decodificadas y convertidas en valores de presión temperatura y humedad. Al cabo de 90 minutos, el globo ha alcanzado una altitud de 27 a 30 km. Allí, la presión atmosférica es muy baja, e globo estalla, y la sonda desciende a tierra suspendida de un paracaídas.

Los observatorios meteorológicos sueltan diariamente varios globos, para sondear la atmósfera y determinar la dirección y velocidad de los vientos a distintas alturas. Una de las finalidades de esta operación es informar a los aviones sobre las condiciones del tiempo que deben afrontar.

También se envían los llamados radiosondas, que son globos-portadores de instrumental para explorar las altas capas de la atmósfera. Como a medida que el globo asciende, la presión exterior es cada vez menor, el volumen del globo se hace cada vez mayor, al dilatarse el gas interior. Llega un momento en que la dilatación es mayor que la que puede soportar el material, y el globo estalla. Los aparatos caen con paracaídas, y así es posible recuperar el instrumental (aunque a veces cae en lugares despoblados).

Últimamente se ha desarrollado una nueva técnica en la exploración de las más altas capas de la atmósfera, a las que hasta hace unos pocos años ni se soñaba en llegar. Se hace mediante cohetes y satélites artificiales. El instrumental, que se acondiciona cuidadosamente en su interior, recoge datos valiosísimos sobre las condiciones del aire en tan altas regiones.

BREVE HISTORIA DE LA AEROSTACIÓN.
Después de los experimentos de Montgolfier, los ensayos se sucedieron con rapidez. El día 21 de noviembre de 1783 tuvo lugar la primera ascensión de un globo tripulado por el hombre. Pilatre de Rozier y el marqués de Arlandes mostraron gran valor al subir a «La Montgolfiera», construido por su inventor. La envoltura era de algodón y tenía unos 15 m de diámetro.

En su parte inferior el globo estaba dotado de una pequeña galería circular desde donde los aeronautas alimentaban y cuidaban un pequeño hornillo destinado a mantener caliente el aire que proporciona la fuerza ascensional. En nuestros días causa asombro considerar el hecho de que dos hombres se atreviesen a tripular un globo que si se mantenía en el aire era gracias al auxilio de un simple brasero.

Pocos días después, de diciembre de 1783, Charles y Robert efectuaron una magnífica ascensión en un globo muy perfeccionado pues constaba de una envoltura impermeabilizada hinchada con hidrógeno, red y barquilla. Además, y en previsión de cualquier posible contingencia, instalaron válvula de seguridad y se proveyeron de lastre, cuerda-freno y áncora. A partir de entonces fueron numerosísimas las ascensiones que*se llevaron a cabo con fines deportivos o científicos. El célebre físico Gay-Lussac llegó hasta 6.500 m de altura y llevó a cabo mediciones y observaciones relativas a la composición del aire, humedad, variaciones de la aguja magnética, “etcétera.

El día 13 de junio de 1784, Pilatre de Rozier y Romain perecieron al intentar cruzar el Canal de la Mancha. El globo que tripulaban estaba lleno de hidrógeno y en su interior se hallaba un lóbulo con aire caliente. El hornillo destinado a mantener constante la temperatura provocó la explosión del globo y ocasionó la primera catástrofe aérea de la Historia.

Mejor suerte cupo a Blanchard y a su compañero Jefries, quienes lograron efectuar la travesía del Canal de la Mancha desde Dover a Calais. El propio Blanchard llevó a cabo la primera ascensión sobre suelo americano, cubriendo en forma admirable el trayecto de Filadelfia a Nueva Jersey, donde entregó un mensaje para Jorge Washington. Otro récord memorable fue el conseguido por Carlos Green, quien en 1836 logró recorrer a través del aire los 700 km. que separan Londres de Nieder-hausen (Alemania). El día 2 de septiembre de 1894, un globo tripulado por Francisco Arban sobrevoló por vez primera el macizo de los Alpes.

El inglés Tomás Harris fue el protagonista de una historia de amor desarrollada en las alturas. Durante una ascensión efectuada en compañía de su novia, se produjo un pequeño desgarrón en la envoltura del globo, el cual comenzó a descender. Cuendo Tomás Harris tras arrojar todo el lastre vio que la caída era inevitable, se lanzó al vacío en un desesperado intento de aligerar así el peso del globo y salvar la vida de su amada.

La ascensión que con carácter científico efectuó Tissandier en 1875 terminó también trágicamente puesto que si bien logró alcanzar la altura de 9.000 m, la falta de oxígeno ocasionó la muerte por asfixia a dos amigos que le acompañaban.

Ante los frecuentes accidentes que se producían surgió la necesidad de contar con un medio eficaz que amparase al aeronauta y le permitiera saltar del globo.

La invención del paracaídas se debe a J. Garnerín, quien lo ensayó por primera vez el día 22 de octubre de 1797. El acontecimiento tuvo lugar ante el público de París que contempló lleno de asombro el lento descenso del audaz inventor sujeto a una gigantesca sombrilla.

Viaje en Globo aerostatico

Henri Giffard (1825-1882) exhibe su diseño de globo, cuya canasta tiene capacidad para albergar a 50 personas, en el Jardín des Tuileries, durante la Exposición Universal de París 1878. El ingeniero francés realizó, además, el primer vuelo controlado de un dirigible, el 24 de septiembre de 1852: un recorrido de 24 kilómetros desde Paris de donde partió su nave, llena con hidrógeno, a 8 kilómetros por hora, e impulsada por un pequeño motor a vapor.

LA EXPEDICIÓN ANDRÉE AL POLO NORTE. De entre los numerosos vuelos realizados mediante globos, destaca el llevado a cabo por el ingeniero sueco Andrée, quien en compañía de sus amigos Frankel y Strindberg planeó una arriesga-dísima expedición al Polo Norte en la que los tres iban a perecer de frío e inanición.

En el año 1896 iniciaron los preparativos trasladándose a la Isla de los Daneses, en Spitzberg, donde colocaron el globo Oernen, de 4.500 metros cúbicos, los instrumentos y los víveres. Sin embargo, no pudieron emprender la ascensión hasta junio del año siguiente, con bastante mala suerte pues al ascender se rompieron la mitad de las cuerdas-freno dispuestas para ahorrar lastre y facilitar la dirección del globo. En las primeras horas, los exploradores enviaron noticias mediante palomas mensajeras; unos días más tarde, fueron halladas un par de boyas. Después, el silencio más absoluto corroboró la suposición de que habían sufrido un grave accidente.

El mundo ignoró los detalles de la tragedia por espacio de 34 años, hasta que en 1930 los tripulantes de un buque cazafocas hallaron en la Isla Blanca restos de la expedición. En aquellas inmensas soledades y bajo la lona de-una tienda abatida se hallaban los cadáveres de los héroes junto a los cuales estaban el libro de notas de Andrée, la carta de navegar de Strindberg y unas películas. Un poco más allá y cubiertos por la nieve, aparecían los trineos y la canoa. Las fotografías y los escritos han permitido conocer con detalle el desarrollo de la tragedia.

Consiguieron llegar a los 82° 55′ y 7″ de latitud (800 Km. del Polo), después de un accidentadísimo vuelo de 65 horas que acabó al abatirse el aeróstato debido al peso de la capa de hielo que se formó sobre la envoltura. Desembarcaron el día 14 de julio, y el 21 emprendieron la retirada hacia el Sur. La marcha, como muy bien puede suponerse fue difícil y penosa. A pesar del intenso frío y de la carencia de alimentos consiguieron llegar a la Isla Blanca el día 5 de octubre. Su capacidad de resistencia fue verdaderamente extraordinaria ya que la última nota escrita lleva fecha del 17 de octubre.

DESCRIPCIÓN DE LA TRAGEDIA EN EL POLO NORTE: A fines del siglo XIX la exploración polar creaba fascinación y curiosidad a toda la comunidad científica de la época. Los buques expedicionarios habían partido uno tras otro hacia el helado silencio del Ártico, y no se había vuelto a saber mas de ellos durante meses o años. Cuando al final regresaban derrotados y maltrechos, los exploradores contaban sus aventuras en la impenetrable inmensidad de hielo, hablaban de los témpanos, traidores y movedizos, que imposibilitaban la navegación.

“De vez en cuando se aireaba la idea de que tal vez una expedición aérea tuviera éxito donde previamente habían fracasado las marinas, pero la cosa no pasaba del comentario porque, después de todo, no había globo que hubiera permanecido en el aire el tiempo que un viaje polar requeriría, y mucho menos en latitudes en que la capa de hielo que se formaría en la superficie del aeróstato, podía provocar un aterrizaje forzoso y, con mucha probabilidad, catastrófico. Pero existía también el problema de los vientos dominantes.

Salomón August Andrée.Las expediciones aerostáticas que se dirigieran al Polo tendrían que confiar con optimismo en que una de las corrientes del sur llevaría el globo hasta aquella región, para luego proseguir la marcha hasta los poblados más septentrionales. Los obstáculos parecían insuperables para cualquiera que no tuviera el entusiasmo del sueco Salomón August Andrée.

Andrée había visitado a Estados Unidos durante su mocedad y se había hecho amigo del aeronauta norteamericano John Wise. Posteriormente había formado parte de la expedición que estudió los fenómenos polares en Spitsbergen, junto a la costa norte de Noruega. Más tarde había trabajado como ingeniero jefe en la oficina sueca de patentes. Era enérgico, valiente y con voluntad de hierro. Tanto por sus estudios como por su temperamento, Andrée estaba formidablemente dotado para la aventura que se había propuesto.

En 1895 Andrée dio a conocer el plan de su expedición polar, en globo, en una serie de conferencias, bien recibidas, en las que mezclaba la ciencia con el patriotismo. Los suecos, decía en ellas, se han «caracterizado durante siglos por el más intrépido valor», estaban acostumbrados a los caprichos del clima polar «y la propia naturaleza les había enseñado a soportarlos». Esta llamada al orgullo nacional y la excelente reputación de Andrée, contribuyeron a que se recaudaran las ayudas necesarias para financiar la expedición entre ellas la del Rey Osear de Suecia y del filántropo Alfred Nobel.

El globo que iba a transportar a Andrée y a dos compañeros cuidadosamente seleccionados, estaba hecho ex profeso para el viaje. La meticulosa especificación que Andrée había preparado para el aeróstato -al que puso el nombre de Ornen (Águila)- preveía una envoltura de 4.814 m3, hecha de seda china doble, para proporcionarle resistencia y durabilidad. El globo no tenía válvula en la parte superior, al objeto de que la nieve no la atascara, pero llevaba dos en la zona inferior de la envoltura. Por encima de la red había otra capa de seda para proteger más al aeróstato contra la nieve y el hielo.

Andrée pensaba regular la altitud con tres cuerdas de arrastre, unidas por secciones, cada una de las cuales tendría 335 m de longitud. Llevaría también otras sogas más cortas. De la barquilla sobresalían tres palos horizontales, a los que iban sujetas tres velas cuadradas, con las cuales se esperaba poder modificar hasta 30° la derrota.

La góndola de mimbre era cerrada, cilíndrica, de 1,60 m de profundidad. En ella irían tres trineos, un barco de lona, tres literas, herramientas, armas, otros artículos y comida suficiente para cuatro meses. La partida sería en el verano de 1896, desde un lugar situado en el extremo noroeste de Spitsbergen, a unos 1.297 km del Polo. Andrée calculaba con optimismo que el viento constante del sur los llevaría al Polo en tres días.

El aterrizaje, como dependía de la dirección del viento, podría realizarse en cualquier lugar de Siberia, Canadá o Alaska. El Ornen fue inflado con hidrógeno y quedó alojado en «un hangar para globos», de 30 m de alto, esperando a que soplara la brisa deseada. Pero no sopló ni en todo el mes de julio ni en todo el mes de agosto, con lo que terminó el efímero verano ártico y se hizo tarde para comenzar la expedición.

En 1897, Andrée, que entonces tenía 43 años, y sus tripulantes Nils Strindberg y Knut Fraenkel volvieron a Spitsbergen para volver a probar fortuna. El entusiasta Strindberg, de 24 años, era profesor de educación física en la universidad de Estocolmo y un consumado fotógrafo. Fraenkel, de 27 años, era musculoso, de profesión ingeniero y aficionado al alpinismo. Para prepararse para la expedición ambos hombres habían ido a París, a aprender aerostación. El 11 de julio, después de seis semanas de espera, empezó a soplar el tan largamente esperado viento del sur. El momento había llegado y, en consecuencia, se procedió a sacar el globo de su cobertizo. Los tres exploradores subieron a bordo, mientras la tripulación de tierra esperaba órdenes sosteniendo las maromas de amarre.

A la 1:46 de la tarde, Andrée dio la señal para soltar al Ornen y éste comenzó a subir perezosamente por encima del puerto y fue flotando hacia el nordeste. De repente, la nave bajó de modo imprevisto y tocó el agua para luego rebotar y volver a subir ayudada por la tripulación que arrojó más de 200 kilos de lastre. Los ayudantes de tierra estuvieron mirando con emoción al globo hasta que éste no fue más que un punto en el horizonte del Norte.

Todo parecía ir bien, pero Andrée ya sabía que no era así. Las secciones de la parte inferior de las tres largas maromas de arrastre -que en el plan de Andrée eran vitales para regular la altitud y la dirección -se habían desprendido, no se sabía por qué, y yacían en la costa como grandes serpientes enroscadas. El Ornen continuó su vuelo libre hacia lo desconocido.

Los millones de personas que, en todas las partes del mundo, habían seguido ávidamente a través de los periódicos los preparativos de la expedición, quedaban ahora a la espera de noticias de los exploradores. Estas no podrían llegar más que, o con palomas mensajeras o metidas en las boyas que arrojara el globo. La expedición no disponía de otros medios de comunicación.

Cuatro días después de la salida del Ornen, el capitán de un buque noruego mató a una paloma que se había posado en las jarcias de su velero. En un pequeño cilindro atado a la pata del animal había un mensaje de Andrée. Había sido escrito el 13 de julio, al mediodía, en un punto situado a unos 370 Km. al norte del lugar de despegue. «Buena velocidad hacia el E. 10° S.

A bordo todos bien. Este es el tercer mensaje por paloma mensajera», decía la nota.

Las otras dos no llegaron, y el verano transcurrió sin que se supiera más de los expedicionarios. Después llegó el otoño y, tras él, la larga noche del invierno ártico. Siguió sin saberse nada de Andrée y su tripulación.

Si continuaban vivos tendrían que estar matando osos para alimentarse, y metidos en algún improvisado refugio para poder soportar el frío.

Por supuesto, era posible sobrevivir en aquellas condiciones, porque otros ya habían sobrevivido. El padre de Strindberg se mostraba optimista: «Habrá que esperar un año, por lo menos», escribió, «para empezar a preocuparse, e incluso entonces no habglobo aerostaticorá que ponerse demasiado pesimista».

Pasó más de un año. Salieron barcos en busca de los exploradores y volvieron sin encontrar ni rastro de ellos. En febrero de 1899 llegaron noticias trágicas: los miembros de una tribu nórdica habían encontrado los cadáveres de tres suecos al norte de Siberia.

La noticia era falsa. Tres meses después salió a la costa de Islandia una boya con un mensaje de Andrée, pero había sido escrito 12 horas después de la partida de los desaparecidos. Al año siguiente  apareció un mensaje parecido en una playa noruega. Para entonces ya habían transcurrido tres años y la creencia de que los exploradores habían perecido era cada vez más firme.

Durante 33 años no se supo nada del Ornen, pero en el verano de 1930, un par de cazadores de morsas, de un buque noruego tropezaron con los esqueletos de los tres exploradores en el sombrío corazón ártico de la isla de White, a unos 450 Km. de donde había despegado el globo.

Los diarios, los cuadernos de notas y las cartas que los tres hombres habían escrito eran aun legibles y según constaba, el Ornen, que al perder accidentalmente las cuerdas de arrastre se había visto aligerado en 540 kg, había subido la primera tarde del vuelo a 700 m, mucho más de lo que Andrée tenía previsto.

El viento había impulsado al globo hacia el noroeste el primer día, luego hacia el oeste y después hacia el este de nuevo. Había permanecido 13 horas inmovilizado, al quedar trabada una de las cuerdas que colgaban de él de un gran trozo de hielo.

La densa niebla impedía la visibilidad y el agua nieve había recubierto la superficie del globo de una carga tal de hielo, que había hecho descender varias veces a la nave y a la atestada góndola chocar contra los salientes helados del terreno. Y esto había ocurrido 8 veces en 30 minutos.

En la ropa interior llevaba cosida una A, y en el bolsillo, un diario. En él aparecían las últimas palabras escritas por Salomón August Andrée, el aeronauta sueco, que junto con Knut Frankel y Nils Strindberg, había desaparecido en 1897, cuando trataban de llegar al Polo Norte. Se aclaraba así el misterioso final de la expedición salida 33 años antes de Spitsbergen.

Junto a los restos de Andrée se encontraban los de sus acompañantes y varios cilindros metálicos que contenían negativos fotográficos impresionados. Un experto fotógrafo de Estocolmo consiguió revelar 20 negativos. Algunas de las fantasmales fotografías, deterioradas por los años de permanencia en la humedad y el frío árticos.”

OTRA HISTORIA, PERO CON DIRIGIBLES
AL POLO EN DIRIGIBLE. Durante el año 1926 el explorador noruego Amundsen efectuó una expedición polar que tuvo gran resonancia. Gracias a la munificencia del norteamericano Ellswort que financió la empresa, pudo adquirirse el dirigible N-i construido por Nobile. Tenía 19.000 m3 y 106 m de longitud e iba provisto de tres motores de 240 HP, dispuestos en barquillas independientes y desarrollaba la velocidad de 100 km/h.

El N-i, adquirido por Noruega y bautizado con el nombre de Norge, partió de Roma, llegó felizmente a Oslo y siguió luego hasta Spitzberg. El día n de mayo la aeronave emprendió el vuelo desde Kingsbay hacia el Polo Norte, que fue alcanzado al cabo de 15 horas de navegación, sobre deslumbrantes blancuras. Aunque el viaje de regreso se vio dificultado grandemente por la sobrecarga debida a la costra helada que se formó en la parte superior de la envoltura, el Norge consiguió aterrizar en Teller (Alaska) después de 71 horas de lento vuelo.

El general italiano Nobile, que había participado en la expedición dirigida por Amundsen, quiso organiza* por su cuenta un vuelo al Polo. El día 15 de abril de 1928, el dirigible Italia salía de Milán, ciudad que patrocinaba la empresa, para dirigirse a Spitzberg. Una vez allí y tras unos vuelos de exploración sobre las tierras de Francisco José, Nicolás II y Nueva Zembla, el 23 de mayo el Italia se dispuso a cubrir la última etapa hasta el Polo, del que no iba a regresar jamás.

En efecto, después de 16 horas de vuelo, la aeronave alcanzó el Norte geográfico de la Tierra, en cuyo lugar lanzó la cruz ofrecida por el Papa y la bandera de Italia. Durante el regreso se desataron fuertes borrascas de viento y nieve. Sobre el Italia se formó una espesa capa de nieve helada que le hizo perder altura, hasta que una ráfaga de viento huracanado le estrelló contra un banco de hielo. A consecuencia del golpe el dirigible se partió en dos, y mientras el sector donde se hallaban Nobile y ocho tripulantes más quedaba sobre los hielos, la otra sección con el resto de la dotación, se remontó de nuevo y desapareció para siempre.

El sobrecogedor silencio que siguió a los desesperados «SOS» lanzados por el radiotelegrafista de la aeronave tuvo la virtud de movilizar a numerosos equipos de salvamento que partieron en busca de los accidentados. Amundsen voló inmediatamente en auxilio de Nobile y pereció.

El día 20 de junio, ante la expectación del mundo entero, el comandante italiano Maddalena, que participaba en la búsqueda, consiguió localizar con su hidroavión a los supervivientes del dirigible que fueron auxiliados con víveres y medicamentos, lanzados en paracaldas. Tres días después, el aviador escandinavo Lundborg logró aterrizar con su avioneta provista de skis, sobre el banco de hielo donde se hallaba el grupo. Nobile, en forma todavía incomprensible y ante el estupor unánime del mundo civilizado, abandonó a sus compañeros y se salvó con el avión de Lundborg.

Para colmo de desgracias, y con ocasión de efectuar un segundo viaje sobre el improvisado campo, el avión de Lundborg capotó al aterrizar, quedando a su vez prisionero de los hielos hasta el 6 de julio en que fue salvado por otro aviador que también tuvo la audacia de aterrizar sobre el banco de hielo.

A consecuencia de diferencias surgidas entre los náufragos, éstos se dividieron en dos grupos. El encabezado por Malmgren, inició una marcha dantesca entre aquellas frías soledades, hasta alcanzar el rompehielos ruso Krasin (13 de julio). El drama no había terminado, ya que Malmgren rendido por el frío y la fatiga, había pedido a sus compañeros que le abandonasen y prosiguieran el camino hacia la salvación. Nobile, caído en desgracia y abrumado por el peso de tanta responsabilidad, se trasladó a vivir a Rusia.

Fuente Consultada:
Grandes Épocas de la Aviación Tomo 40 Los Aeronautas II
Química I Polimodal  de Alegría-Bosack-Dal Fávero-Franco-Jaul-Rossi

Programas de Exploracion Espacial Cronología Las Misiones al espacio

Programas de Exploración Espacial
Cronología Las Misiones al Espacio

Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el Año Geofísico  Internacional , pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958.

Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960.

A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Tabla siguiente es un resumen de los principales programas de exploración del espacio:

NombrePaísFechasLogrosMiembros
SputnikURSS1957-1958Primer
Satélite
Valery Byskovsky.Yuri Gagarin, Adrián
Nikolayaev, Pavel Popovitch, Valentina
Tereshkova, GhermanTitov
Malcolm Scott Carpenter, L. Gordon
Cooper
.John Glenn,Virgil Grissom,
Walter Schirra, Alan Shepard
ExplorerEE.UU.1958-1984Experimentos
Científicos
PionnerEE.UU.1958Investigación
de la Luna
LunikURSS1959Aterrizaje
en la Luna
VostokURSS1961-1963Primer Vuelo
Tripulado
MercuryEE.UU.1961-1963Americanos en el Espacio
VeneraURSS1961-1983Investigaciones
de Venus
RangerEE.UU.1961-1965Alunizajes
MarinerEE.UU.1962-1974Mercurio, Venus
y Marte
OSOEE.UU.1962Estudio Solar
MarsURSS1962-1971Investigación
de Marte
Pavel Belyayev, Konstantin Feoktistov,Vladimir
Komarov, Alexei Leonov, BorisYegorov
Edwin Aldrin, Neil Armstrong, Frank
Borman, Eugene Cernan, Michael Collins,
Charles Conrad, L Gordon Cooper.Virgil
Grissom, James Lovell, James McDivitt,
Walter Schirra, David Scott, Thomas
Stafford, Edward White, John Young
VokshodURSS1964-1965Vuelos espacial con tres tripulantes
GéminisEE.UU.1964-1966Prueba de Vuelos Lunares
LunaURSS1966Fotografía
Lunar
Luna OrbiterEE.UU.1966-1967Cámara en
órbita lunar
Adwin Aldrin, William Anders, Neil Armstrong,
Alan Bean, Frank Borman, Eugene Cernan,
Michael Collins, Charles Conrad, Walter
Cunningham, Charles Duke, Don Eisle,
Richard Gordon, Fred Haise, James Irwin,
James Lovell, Edgar Mitchell, Stuart Roosa,
Walter Schirra, Harrison Schmitt, Rusell
Schweickart, David Scott, Thomas Stafford,
Jack Swigert,Alfred Worden, John Young
SurveyorEE.UU.1966-1968Robot Lunar
ApoloEE.UU.1966-1975El hombre llega
a la Luna
SoyuzURSS1967-1986Estación
Espacial
Vladimir Dzanibekov, Georgi Grechko, Alexei Gubarev, Pyotr Klimuk, Vladimir Remek,Yuri Romanenko, Víctor Savinykh, Svetlana Savitskaya.Vladimir Shatalov, Vitaly Stevastyanov, Vladimir Vasyutin, Vladimir Volkhov Alan Bean, Gerald Carr, Charles Conrad, Owen Garriott, Edward Gibsonjoseph Kerwinjack Lousma, William Pogue, Paul Weitz
SalyutURSS1971-1986Estación espacial tripulada
SkylabEE.UU.1973-1974Primera estación espacial americana
ATMEE.UU.1973-1974Estudio Solar
Apolo-SoyuzEE.UU./URSS1975Emprendimiento InternacionalVanee Brand, Valery Kubasov, Alexei Leonov, Donald Slayton,Thomas Stafford
VoyagerEE.UU.1977-1986Estudio de Gigantes
de Gas
Valery Byskovsky.Yuri Gagarin, Adrián Nikolayaev, Pavel Popovitch,Valentina Tereshkova, GhermanTitov Malcolm Scott Carpenter, L. Gordon Cooper.John Glenn,Virgil Grissom, Walter Schirra,Alan Shepard
SMMEE.UU.1980-1989Estudio
Solar
TransbordadorEE.UU.1981-?Naves tripuladas de uso reiterado
SpacelabEE.UU./AEE1983Laboratorio espacial de uso reiterado
VegaURSS1985Estudio atmosférico de Venus y fotos del cometa Halley
MirURSS1986-?Estación
Espacial
Pavel Belyayev, Konstantin Feoktistov,Vladimir Komarov, Alexei Leonov, BorisYegorov Edwin Aldrin, Neil Armstrong, Frank Borman, Eugene Cernan, Michael Collins, Charles Conrad, L. Gordon Cooper.Virgil Grissom, James Lovell, James McDivitt, Walter Schirra, David Scott,Thomas Stafford, Edward White, John Young
GiottoAEE1986
SuseiJapón1986
BuranURSS1988
FobosURSS1988
GalileoEE.UU.1992-?
CassiniEE.UU./AEE1996

 

Historia de la Televisión en Argentina Primeras Transmisiones de TV

Historia de la Televisión en Argentina
Primeras Transmisiones de TV

La televisión argentina llegó a los hogares durante los primeros años de la década del ’50. Algunos padres de los adolescentes actuales nacieron con ella, la mayoría nació después. La televisión fue un instrumento altamente codiciado por sus potencialidades: era un medio privilegiado para extender la cultura, la educación y la información; permitía unir a cada ser humano con el resto de los habitantes del mundo.

Se alcanzaba la universalización de la cultura pregonada siglos atrás, cuando se creó la imprenta. La aparición de la televisión auguraba la posibilidad de que ningún grupo humano quedara relegado y aislado: todos podrían acceder a la educación y al conocimiento de los avances científicos. Pero, tan halagüeñas posibilidades sólo se cumplieron muy parcialmente.

Las programaciones que instrumentaron los distintos países tuvieron muy poco en cuenta esa misión cultural y educativa. Los principales programas fueron series en las cuales la violencia y la delincuencia eran protagonistas. (Ver también: Historia de los Medios de Comunicacion en el Mundo)

LA EVOLUCIÓN DE LOS MEDIOS DE COMUNICACIÓN: A partir del incesante avance de la ciencia y de la tecnología, la comunicación dejó de ser exclusivamente oral para desarrollarse a través de otros medios, como la prensa, la radio, el cine y la televisión.

En la actualidad, las sociedades industrializadas dependen, en gran medida, de los medios de comunicación masivos. Su sistema económico —basado en la compraventa generalizada—, la compleja división del trabajo y las necesidades del Estado para cumplir con sus funciones requieren de estos medios para difundir la información del modo más rápido y a la mayor cantidad de personas posible. De allí que cada vez sea más estrecha la relación entre los grandes grupos económicos y las grandes cadenas de comunicación.

LA TELEVISIÓN

A manera de predicción, en un diario norteamericano, hacia 1892, apareció un articulo que informaba que con el tiempo, se transmitirían por el aire todo tipo de imágenes a través de un “telectroscopio” así lo denomino este medio. En el siglo XX, gracias a varios años de investigaciones y descubrimientos técnicos, esta profecía se cumplió. En 1928 ,se le otorgó a la General Electric la primera licencia para operar una estación experimental de TV.

En 1936, Gran Bretaña inauguro el primer ciclo de emisiones regulares de televisión a través de la BBC no obstante, desde comienzos de siglo, se venía probando con la transmisión de imágenes a distancia. Pero el estallido de la Segunda Guerra Mundial llevó a concentrar todo el esfuerzo tecnológico en el conflicto. Durante éste, la RCA impulsó investigaciones que lograron perfeccionar las imágenes televisivas en los Estados Unidos. Al finalizar el conflicto, los aparatos llegaban a los tres millones y las estaciones emisoras, a doscientas. El nuevo medio contaba con ventajas propias para su rápido éxito.

El televisor tuvo su época de mayor expansión en la década del 50, el mismo se extendió en gran parte de Occidente. En 1962, se realizó la primera transmisión directa vía satélite a través del Atlántico. Sin embargo, la primera transmisión vía satélite vista, simultáneamente, en casi todo el mundo fue la llegada del primer hombre a la Luna, el norteamericano Neil Armstrong, el 21 de julio de 1969.

En el contexto de la guerra fría, en 1988, con la puesta en órbita del satélite franco-alemán TDF-1, se inició en Europa la era de la teledifusión directa, cuyos programas podían ser captados por una antena satelital parabólica individual.

Historia del Invento

Así comenzó la Televisión Argentina…

En 1926, en Londres, John Baird consiguió emitir y recibir imágenes a distancia; solo un cuarto de siglo más tarde, concretamente el 17 de octubre de 1951, a las dos de la tarde, Eva y Juan Perón aparecieron en las pantallas de los primeros y escasos aparatos Rayhteon, Capheart y Dumont que había en la Argentina.

Culminó así el esfuerzo de años de Jaime Yankelevich, un pionero de la radio que también lo fue de la televisión. La emisión inicial, por supuesto que en blanco y negro, y con Imágenes que se deformaban o eran invadidas por caprichosas líneas geométricas, mostró a la pareja mandataria que presidía el Día de la Lealtad desde la Plaza de Mayo.

Frente a los escaparates de los comercios de aparatos electrónicos, o en muy pocos hogares, los porteños se maravillaron con el nuevo medio de comunicación, y vieron cómo los locutores Isabel Marconi y Adolfo Salinas leían, en cadena con Radio del Estado, los partes oficiales. Con todo, y en principio, solamente la Capital Federal y el Gran Buenos Aires recibieron las emisiones. A medida que los receptores se alejaban del lugar de transmisión (la antena estaba en el edificio del ministerio de Obras Públicas, en la 9 de Julio y Moreno), se requería de antenas cada vez más elevadas para capturar alguna imagen.

El primer programa emitido desde el Canal 7, el único durante años, fue transmitido desde los salones del hotel Alvear, actuaron el ballet y el coro del Teatro Colón, y a continuación se realizó un programa de entrevistas. Los presentadores eran locutores radiales, como los ya mencionados Marconi y Salinas, además de Hebe Gerbolés, Juan Piñeiro y Jaime Más. En directo (los tapes y las grabaciones vinieron mucho después), sin maquillaje, lo cual los hacía ver afantasmados, hablaban como si estuvieran frente al micrófono radial. Pero la tevé criolla había nacido.

LA TELEVISIÓN EN LA ARGENTINA EN LOS 60 Y EN LOS 70

Historia Primeras Transmisiones de TVEn la Argentina, la televisión se inauguró en 1951, pero se tomó accesible y popular a principios de los 60. Hasta mediados de la década, predominaron las series de origen norteamericano: las historias del Lejano Oeste, con sus clásicos muchachitos: los vaqueros.

Sin embargo, paulatinamente, retornaron a EE.UU. aquellos libretistas y autores perseguidos por el macartismo (termino que se refiere a la persecución comunista presidida por el Senador Mac Carthy) quienes les dieron un toque inteligente y crítico a las series de humor.

Surgieron así Los Locos Adams y El Superagente 86, sátiras de géneros clásicos como el terror y el espionaje. Estas series deben ubicarse en el contexto de la guerra fría donde el espionaje y las fuerzas de seguridad como la CIA no eran construcciones televisivas.

Este auge del humor televisivo tuvo un correlato en nuestro país, sobre todo a partir de las producciones de Canal 13. Así, surgieron comedias como “La Nena” y “Dr. Cándido Pérez Señoras”, recreaban con un nítido toque local, modelos importados.

Uno de los éxitos más notables fue el de Pepe Biondi en Viendo a Biondi, quien introdujo lo que se transformó en un clásico de nuestra TV: la creación de eslóganes, frases y palabras que se incorporaron al habla cotidiana.

Ésta fue la época de Sábados Circulares de Mancera, el primer programa con una gran producción periodística y técnica que hizo conocer al público argentino a figuras como Joan Manuel Serrat e introdujo la “cámara sorpresa”.

También se destacaban, La Feria de la Alegría, un programa de entretenimientos, regalaba departamentos y autos, y Carlitos Balá entraba a la pantalla chica con la pregunta: ¿Qué gusto tiene La sal?.

Frente a estos programas de mero entretenimiento, Tato Bores ponía en aprietos a los gobiernos de turno con sus incisivos monólogos.

A comienzos de los 70, proliferaban los programas cómicos, como Operación Ja Ja, La Tuerca y Telecómicos.  A la hora de la merienda, llegaba el Capitán Pituso con Alberto Olmedo. Los domingos a la noche la cita obligada era Titanes en el Ring con Martín Karadagián, creador de decenas de personajes como La Momia.

Los adolescentes aprendían el paso de baile de moda mirando Alta Tensión y Música en Libertad, y los adultos se informaban viendo El reporter ESSO.

La mayor parte de la televisión argentina en estas décadas se caracterizó por un predominio de programas destinados al ocio y al entretenimiento, salvo Tato Bores la mayoría no producía ninguna critica a la sociedad y al gobierno de turno. Fue una época caracterizada por largas dictaduras.

AMPLIACIÓN DEL TEMA:

En Argentina se hicieron envíos experimentales, pero recién en 1951 se concretó la la transmisión pública inaugural, por Canal 7, estatal , (EE.UU. llevada 15 años de adelanto). No habiendo video-tape, se salía en directo con medios precarios y esfuerzos casi heroicos de técnicos y protagonistas en cámara.

Los primeros famosos fueron locutores, derivados de la radio, como Adolfo Salinas, Guillermo Brizuela Méndez, Nelly Trenti y Nelly Prince, a quienes: tiempo después se sumaron Pinky, Jorge “Cacho” Fontana, Colomba y Antonio Carrizo, entre los pioneros.

En 1956, con los primeros televisores nacionales, se inició la serie de telenovelas, con el “Teleteatro a la Hora del Té” que interpretaban Fernando Heredia y María Aurelia Bisutti. Más de 50.000 hogares veían nuestra TV, pero los entendidos decían que debía doblarse esa cifra. Por eso vinieron mejores programaciones, desfilando figuras como Chas de Cruz (Diario del Cine), Analía Gadé, Iris Marga, Julia Sandoval, Juan Carlos Thorry, Gloria Guzmán, Augusto Bonardo, el diseñador de modas Jean Cartier, Alberto Olmedo —alternando su tarea de técnico con la de incipiente cómico—, Mendy y el fútbol!, acaparador de audiencias y alto “cachet”.

También proliferaron los programas de preguntas y respuestas, los animadores como Héctor Coire y Antonio Carrizo, las comedias ligeras con Jorge Salcedo, Mirtha Legrand, Ángel Magaña, Osvaldo Miranda, María Concepción César y Mariano Mores; los cantantes con Antonio Prieto, Luis Aguilé, Edmundo Rivero; los envíos periodisticos; Blackie, Silvia Legrand, Andy Russell, los cómicos Bala, Locatti y Marquesini, el ballet de Eber Lobato con su esposa, la bailarina Mary Lobato, conocida como Nélida; Tito Martínez del Box inaugurando “Canal 7 informa”, los Martín Fierro de APTRA, entidad de los periodistas especializados.

Mientras tanto, ya en 1959 había 823.000 televisores, asignándose las bandas para los canales 9, 11 y 13, así como para otros del interior. Se agregan figuras como Norma Aleandro, Alberto Olmedo consagrado ya, un joven llamado Ramón Ortega, que no era otro que el famoso Palito; María Antinea, Nat King Colé, Doménieo Modugno, Paul Anka y José Iturbe, mientras Pinky es proclamada “la mujer del año”, por su éxito televisivo.

En 1960 se inauguran los canales 9 y 13, con figuras como Narciso Ibañez Menta, Alberto de Mendoza, Tita Merello, Luisa Vehil, Pedro López Lagar, Luis Sandrini, Ángel Magaña, Osear Casco, José Marrone, Ariel Ramírez, Jorge Salcedo, Ramona Galarza, Teddy Reno, María Antinea, Bobby Capó y Tony Bennet. A fin de esa año se inicia la medición de audiencia o fiebre del “rating”.

En el 13 se ven “Los Trabajos de Marrone”, “Casino”, “Buenas tardes, mucho gusto”, y en 1961 inaugura el Canal 11, realizando además la primera transmisión internacional, desde Punta del Este. Lo demás es historia conocida: la puja por la audiencia, las series norteamericanas, los largóme-trajes antiguos, Porcel, Pepe Biondi, “Tato siempre en domingo”, el cable coaxil, Fidel Pintos, Troilo y Grela, D’Arienzo, Canaro, Andrés Segovia, Hugo del Carril, Alfredo Alcen, el primer “programa ómnibus” de Pipo Mancera y los que se le opusieron (“Sábados continuados” y otros), el Club del Clan, Titanes en el Ring, Telecataplum, la Revista Dislocada, Yo quiero a Lucy; “Yerma”, de García Lorca, Trini López, Ana María Campoy y José Cibrián, Sarita Montiel, Charles Aznavour, las hermanas Legrand, juntas; La Tuerca, Teatro como en el Teatro, Josefina Baker, la despedida de Azucena Maizani, Tita Merello, Edmundo Sanders, Julio Marbiz, Obras de Terror (Narciso Ibáñez Menta), Tatín, Julio Jorge Nelson, Rita Pavone, Juan Verdaguer, Nelly Beltrán, Fernanda Mistral, Lautaro Murúa, Ruta 66, Doménico Modugno, Niní Marshall, Pepe Iglesias “El Zorro”, Sergio Renán, Lucho Gatica, Almorzando con Mirtha Legrand (se lanza en 1968), el Topo Gigio, Nati Mistral, Xavier Cugat y las mismas series televisivas norteamericanas. Otros nombres importantes se suman a nuestra TV, incluso el 20 de julio de 1969 se cubre el primer viaje lunar y en setiembre se inaugura la primera antena parabólica o estación terrestre “vía satélite” de Balcarce con un mensaje de salutación del Papa Paulo VI, desde Roma.

Se modernizaron los programas, cundieron los periodísticos, la telenovelas de la tarde, grandes coberturas deportivas, se transmite el Mundial ’74 de fútbol desde Alemania, se pasan al Estado todos los canales y decae su eficacia y, finalmente, se crea el Ente Argentina ’78 TV, construyéndose las monumentales instalaciones de Figueroa Alcorta y Tagle que tras el éxito sensacional del Mundial ’78, pasaron a ser sede de ATC (Canal 7). (Fuente Aniversario 75° Años de LA RAZÓN 1905-1980- Historia Viva)

PARA SABER ALGO MAS…
Comunicación visual instantánea: la televisión

Durante los años 20, la gente aceptaba con naturalidad complejos medios de comunicación que pocas décadas atrás se habían considerado milagros de la ciencia aplicada. Los sistemas de telégrafo y teléfono disponían de redes mundiales, basadas en decenas de miles de kilómetros de cable conductor. Por otra parte, la posibilidad de la transmisión inalámbrica del sonido se había convertido en una realidad; las empresas de radiodifusión acababan de nacer, pero estaban creciendo rápidamente.

El cine cautivaba a millones de espectadores registrando imágenes sobre una película para reproducirlas posteriormente sobre una pantalla. En el complejo mundo de las comunicaciones quedaba sin embargo un vacío: faltaba un sistema que permitiera ver los acontecimientos en el mismo momento de estarse produciendo del mismo modo que la radio permitía oír la voz en el momento mismo en que se emitía.

En un sector pletórico de adelantos técnicos, resulta difícil atribuir la invención de la televisión a un solo individuo; pero sin duda alguna, la persona que ocupaba el centro de la escena en los años 20 era John Logie Baird, inventor de un sistema fotomecánico en el que la imagen era barrida por un disco en rápida rotación, dotado de una serie de orificios dispuestos en espiral. De esta forma, toda la imagen era barrida en el curso de una revolución. La señal luminosa de cada orificio se transformaba en señal eléctrica mediante una célula fotoeléctrica y se generaba la correspondiente señal de radio. El receptor consistía en un disco similar.

A medida que las diferentes señales luminosas pasaban sucesivamente a través de los orificios, se formaba sobre una pantalla una imagen correspondiente a la original. El sistema no destacaba por su originalidad porque Paul Nipkow, en Alemania, había patentado un disco rotatorio similar en 1884, aunque con la idea de que funcionase conectando el emisor y el receptor por medio de un cable.

Nipkow no desarrolló su idea, pero lo hizo el ruso Boris Rosing en 1906, combinando el disco con el oscilógrafo de rayos catódicos inventado por el físico alemán F. Braun diez años antes.

El nuevo dispositivo permitía sustituir el segundo disco y modular la mancha de luz que se movía a gran velocidad sobre líneas paralelas en el tubo, provocando así (por el fenómeno de persistencia visual) la ilusión de una imagen continua.

Sin embargo, los amplificadores de la señal que existían en aquella época no eran suficientes para producir imágenes claras. Mientras tanto, en Gran Bretaña, A.C. Swinton propuso, pero no llegó a desarrollar, otro sistema en el que tanto el emisor como el receptor se basaban en el oscilógrafo de rayos catódicos.

Baird perserveró en el intento y el 27 de enero de 1926 ofreció la primera demostración pública de televisión, en la Royal Institutionde Londres. En septiembre de 1929, la BBC comenzó a emitir señales de televisión con el sistema de Baird y, durante el mismo año, la institución alemana de correos hizo lo propio. Baird sabía hacer publicidad; entre sus más espectaculares logros figuran una transmisión transatlántica en 1928 y la proyección en un cine de Londres de la llegada de la carrera de Derby de 1931. Sin embargo, su éxito no fue duradero, pues su sistema fotomecánico no se encontraba en la línea principal de desarrollo del nuevo medio.

Otros investigadores estaban estudiando el sistema electrónico de Rosing. Entre ellos figuraba Vladimir Zworykin, un antiguo alumno de Rosing en San Petersburgo. Tras la revolución de 1917, Zworykin huyó a Estados Unidos y consiguió un empleo en la RCA, donde en 1929 llegó a ser director del departamento de investigación. Desde este puesto contribuyó grandemente al desarrollo de un sistema electrónico de transmisión y recepción, semejante al propuesto por Swinton.

En noviembre de 1936, la BBC de Londres inició las emisiones regulares de televisión con el nuevo sistema.

LA TELEVISIÓN Y LA POLÍTICA: La influencia de la televisión modificó profundamente las estrategias electorales. El célebre debate entre John F. Kennedy y su rival Richard Nixon hizo evidente la importancia de la imagen televisiva en los resultados electorales. Según los análisis posteriores, en esa ocasión, tuvieron gran peso sobre la opinión del público diversos aspectos de la imagen televisiva: la palidez de Nixon frente al aspecto fuerte y saludable de Kennedy, los colores de sus ropas, la escenografía.

Con el desarrollo de la televisión, los equipos de campaña, han comenzado a incluir especialistas en imagen -para asesorar a los candidatos en sus presentaciones televisivas- y especialistas en marketing que, por medio de encuestas, investigan las opiniones de la población. Así, se fue abandonando el estilo retórico y efectista de los mitines electorales, para dar cada vez más espacio a rápidas series de pequeños avisos de fuerte impacto emocional. Las prolongadas conferencias radiales que Ricardo Balbín o Arturo Frondizi pronunciaban en la campaña de 1958 han sido sustituidas por el video-clip, la participación de los candidatos en mesas redondas televisadas, e incluso en programas de entretenimiento.

En 1988, en Chile, por ejemplo, se realizó una consulta popular que debía decidir, por sí o por no, la continuidad de la dictadura de Pinochet. La campaña por el NO utilizó un video-clip con imágenes típicamente publicitarias, combinadas con un fondo musical alegre, “La alegría ya viene”. Esta campaña logró presentar eficazmente la propuesta de encarar con optimismo un camino democrático.

Aunque en toda campaña se mantienen los actos partidarios y la tarea callejera de los militantes, estas actividades tratan de organizarse de modo que la televisión pueda multiplicar su alcance. Si al comienzo (a televisión mostraba lo que sucedía fuera de ella, en la actualidad cada vez es mayor la tendencia a producir hechos para que sean mostrados por TV.

Ver: Breve Historia de la Comunicación Humana

Ver:Avances Cientificos Despues de la Guerra Television Color TV Color

Historia de la Radio y Evolucion Resumen Primeras Transmisiones

Resumen de la Historia de la Radio y Su Evolución

LA EVOLUCIÓN DE LOS MEDIOS DE COMUNICACIÓN: En un principio, la comunicación se mantenía exclusivamente mediante canales orales, con el avance científico tecnológico se desarrollaron otros medios como la prensa, la radio, el cine y la televisión.

En la actualidad, los medios de comunicación se vuelven indispensables para las sociedades industrializadas: su sistema económico basado en la compraventa generalizada, la división del trabajo que se torna cada vez más compleja y el Estado para cumplir con sus funciones necesitan de estos medios para transmitir la información con celeridad y al mayor número de personas. A partir de esto, se explica la estrecha relación que existe entre los grupos macroeconómicos y las empresas de comunicación.

ORÍGENES CIENTÍFICOS:

Las ondas electromagnéticas, fueron investigadas por primera vez, por un científico británico, llamado James Clerk Maxwell a fines del siglo XIX, los cuales fueron confirmados por por Rudolf Hertz, quien notó que estas viajan a una gran velocidad, y pueden transportar o transmitir sonido, por medio de ellas.

Ya que con aquella velocidad, se podría transmitir sonidos a distancias lejanas, sin tener problemas de tiempo en cuanto a la recepción de los mismos. Los pasos dados por Hertz y Maxwell, cimentaron lo que después sería la radio.

Sin sus investigaciones, no hubiera sido posible, en su época, el haber logrado transmitir frecuencias radiales.

Más complejo se vuelve el escenario, con el devenir de los años. Ya que luego de las investigaciones de Hertz y Maxwell, a los pocos años, tres personas diferentes, en distintos países, lograron transmitir ondas radiales.

Por un lado Alexander Popov en Rusia. Nicolás Tesla en los Estados Unidos y Guillermo Marconi, en el Reino Unido.Quien fue el primero en patentar la radio como tal. Aparte, que no demoró mucho, en comenzar a comercializarla.

Claro que en ciertos países europeos, fue rechaza la patente adquirida por Marconi, ya que era conocido que el ruso Popov, había desarrollado anteriormente, un emisor y receptor de ondas radiales.

Alexander Popov por su parte, logró en 1896, transmitir el primer mensaje en Rusia, entre dos edificios de la Universidad de San Petersburgo. Por su parte, Marconi comenzaba con la comercialización de los receptores radiales. Abrió una fábrica para ello, en el Reino Unido.

LA RADIO:

A partir de una serie de inventos efectuados en el campo de la electricidad, la telegrafía y la telefonía se desarrolló lo que conocemos como “la radio”.

A fines del siglo XIX, un físico de origen italiano, unificó los avances en estos campos y realizó, en 1901, la primera transmisión transatlántica sin cables de voces humanas. Había nacido la radio.

Historia de los Medios de Comunicación La Radio, El Cine y La TelevisiónEstos avances, insertos en un contexto de competencia imperialista entre las naciones europeo- occidentales, fueron inmediatamente aplicados al campo militar: en la marina de guerra, en la guerra entre Rusia y Japón (1905).

Además, se incorporó en la marina mercante a partir del hundimiento del Titanic (1912). En 1913, había en Europa 330 estaciones emisoras de radiogramas abiertas al público.

Las empresas privadas fueron pioneras en el desarrollo de actividades técnicas e industriales. Hacia 1903 en Alemania, dos compañías privadas –AEG y Siemens–, avaladas por el gobierno, fundaron la empresa Telefunken para la explotación de la radio. A su vez, en EEUU se creó con la misma finalidad la RCA (Radio Corporation of America).

En 1902 se enviaban en forma regular mensajes transatlánticos, y en 1905 ya muchos barcos tenían equipos de radio para comunicarse con emisores de la costa. Las diferentes bandas de radio (onda corta, onda larga y onda media) están asignadas a diferentes propósitos. La radio de onda corta cubre grandes distancias y sirve para comunicaciones internacionales.

Durante la Segunda Guerra Mundial se prohibió en los países del Eje conectarse con emisoras de países enemigos, para que no fueran contradecidos los informes transmitidos oficialmente.

Los radioaficionados se conectan entre sí por medio de la onda corta. Han prestado a veces una ayuda valiosa en caso de emergencias, cuando se han interrumpido las comunicaciones telefónicas.

Según la longitud de onda las emisoras transmiten en AM (amplitud modulada) o FM (frecuencia modulada) en dos bandas distintas del transmisor. En esas bandas hay estaciones que se dedican a pasar todo tipo de música o noticias.

Es frecuente que haya comentaristas que busquen amenizar la transmisión con la conversación, que soliciten la comunicación con los oyentes y que transmitan sus mensajes, para que de este modo su público esté más involucrado con esa emisora, y ésta a su vez tenga mayor audiencia y mayor cantidad de publicidad, que constituyen su sostén económico.

El sistema de radio celular es una versión en miniatura de las grandes redes radiofónicas. Con la exploración del espacio, la radiofonía ha servido para medir distancias calculando el tiempo que transcurre entre la emisión de la voz y la llegada del eco.

Los mensajes de los astronautas llegaron a todo el mundo mediante la red de comunicaciones. La radiofonía se divide en radiotelefonía y radiodifusión, según sea que la emisión esté destinada a otra estación o pueda ser captada por varios receptores a la vez.

El origen de la radiodifusión pública muchos libros extranjeros la ubican el 2 de noviembre de 1920, cuando un ingeniero de Westinghouse, emitió en Pittsburg un reportaje sobre la elección del presidente Harding. Sin embargo, la primera emisión se realizó en Buenos Aires tres meses antes, el 27 de agosto de 1920.

Ese día, a través de la instalación de una antena y un transmisor en el techo del Teatro Coliseo Argentino, se transmitió la ópera Parsifal de Richard Wagner. Los acordes fueron escuchados a la distancia por unos pocos porteños que contaban con equipos receptores.

La transmisión resultó exitosa, más allá de algunos ruidos producidos por la estática.

Historia de los Medios de Comunicación La Radio, El Cine y La TelevisiónAl poco tiempo, se instaló una estación de radio “Vía Radiar”, a través de la cual se transmitían desde funciones del Colón, del Odeón y del Coliseo, hasta partidos de fútbol.

En 1923, Buenos Aires contaba con varias emisoras, entre las que se destacaban como pioneras Radio Sudamérica y Radio Cultura.

Tal es así que en 1924, Radio Cultura transmitió, desde Nueva York, la pelea entre el campeón argentino Luis Angel Firpo y el campeón mundial, Jack Dempsey.

El control de la radiodifusión en las naciones europeas lo tenía el Estado, por el contrario, en EEUU, las empresas privadas –a través de un control monopólico– se encargaron de la explotación económica de la radio. De esta manera, hacia 1928 más del 50% de las estaciones transmisoras (600 en total) pertenecían a tan sólo a tres compañías.

Este instrumento de comunicación fue utilizado también por los distintos gobiernos para difundir sus ideas, desHistoria de los Medios de Comunicación La Radio, El Cine y La Televisiónplazando a la prensa escrita.

Durante la primera mitad del siglo XX, tanto Hitler en Alemania como Roosevelt en EEUU, utilizaron a la radiodifusión para transmitir a nivel nacional: estos mensajes eran recepcionados por todos los habitantes independientemente del lugar geográfico donde estaban ubicados.

El crecimiento y el desarrollo de la radio fue paralelo al de los conflictos mundiales: con el desarrollo de la segunda guerra mundial se mejoro la calidad de la transmisión y de los aparatos receptores.

La radio hacia 1945 vivió su etapa de esplendor.

En 1960 el mundo contaba con mas de 12.000 emisoras y la radio continuaba siendo el medio de comunicación de masas más importante. Sin embargo, en poco tiempo seria superada en audiencia por su principal competidora: la televisión.

Antes de la invención de la televisión, la radio se convirtió en la manera más popular de oír noticias nacionales e internacionales, o de tener entretenimiento en el hogar.

La película de Woody Allen, Días de radio ilustra la importancia que tuvo este medio de comunicación en las décadas anteriores a la llegada de la televisión. Lo que ésta ha suplantado en gran medida son las series de ficción (radioteatro) que se transmitían diariamente y que en muchos hogares se escuchaban como ahora se ven las series televisivas. Pero la función de la radio no ha perdido vigencia.

En muchos lugares de trabajo se escucha música para aliviar la monotonía de la tarea, o en salas de espera están conectados con redes de música “funcional”, suave y relajante.

La radio en los transportes es también una buena compañía, al brindar noticias y música a quienes viajan.

CRONOLOGÍA DE SU EVOLUCIÓN:

1865 — James Clerk Maxwell describe por primera vez las ondas de radio que se propagan por el espacio.

1866 — El estadounidense Mahlon Loomis experimenta por primera vez con ondas de radio en las montañas Azules de Virginia.

1872 — Loomis patenta la propuesta de un telégrafo sin hilos mediante electricidad atmosférica.

1887 — Heinrich Hertz demuestra la teoría de Maxwell sobre la existencia de ondas electromagnéticas.

1890 — El francés Edouard Branly construye el primer radioconductor, llamado coherer, capaz de detectar señales de radio.

1895 — Alexander Stepánovitch Popovy Guillermo Marconi inventan la radio por separado.

1896 — Popov realiza la primera transmisión de radio enviando las palabras Heinrich Hertz en morse. Ese año, Marconi marcha a Inglaterra y patenta la telegrafía sin hilos.

1898 — El físico inglés Oliver Joseph Lodge patenta el primer sintonizador que ajusta la misma longitud de onda en el emisor y el receptor. Hay quien dice que fue la primera persona en transmitir una señal de radio en 1894.

1900 — El canadiense Reginal Aubrey Fessenden realiza la primera transmisión de radio con voz humana.

1906 — Fessendel realiza la primera transmisión trasatlántica de voz humana en enero y la primera emisión de voz y música el 6 de diciembre.

1913 — Edwin Howard Armstrong inventa el circuito regenerativo que aumenta la calidad de las emisiones.

1920 — La emisora 8MK Detroit realiza la primera emisión de noticias del mundo. • El primer diario hablado de la historia se emite el 20 de agosto.

1921 — Se realiza la primera predicción del tiempo en la emisora de radio de la Universidad de Wisconsin con voz humana. Hasta ese momento, las predicciones se transmitían mediante alfabeto morse.

1935 — Edwing Armstrong describe por vez primera la Modulación de Frecuencia (FM). Al no utilizarse inicialmente su invención, se suicidó.

1940 — En esta década empieza a funcionar la primera emisora de Frecuencia Modulada en emitir regularmente, WSM-FM, de Nashville, Tennessee.

1947 — Los estadounidenses William Shockley, John Bardeen y Walter Brattain inventan el primer transistor de onda media que se lleva en la mano.

1955 — La empresa Regency Electronics comercializa el TR-1, primer radiotransistor que se puede llevar en la mano.

1991 — La empresa inglesa Trevor Baylis patenta el primer radio reloj de la historia.

PIONEROS, Inventos y descubrimientos claves de la Historia – Teodoro Gómez

PARA SABER MAS…
Armstrong inventa la FM
Desde el inicio de las radiotransmisiones a principios de siglo, los gigantes de las telecomunicaciones como la RCA y la AT&T habían contratado equipos de ingenieros para encontrar un remedio para las interferencias eléctricas. Lo que distingue al inventor norteamericano Edwin Armstrong, que en 1933 registró cuatro patentes en la frecuencia radiofónica de la FM, fue el deseo de enfrentarse a la tradición. Mientras los expertos trataban el sistema ya existente de transmisión por modulación de amplitud de ondas (AM), Armstrong creó un sistema que modulaba la frecuencia de las ondas radiofónicas, en vez de la magnitud. El sistema de Armstrong, prácticamente inmune a las interferencias eléctricas y dócil a una amplia gama de sonidos, consiguió una claridad de transmisión más allá de lo imaginable.

Muchos ingenieros habían experimentado anteriormente con la FM, pero la habían desechado a causa de las distorsiones de sonido que provocaba. Armstrong descubrió que cuando la banda de frecuencia modulada se ensanchaba, las distorsiones desaparecían, y las interferencias eléctricas también. La mayoría de los locutores pensaba que una banda más estrecha significaba menos interferencias eléctricas. Armstrong demostró que estas interferencias estaban en función de la amplitud y que los principios para reducirlas en la AM no podían aplicarse a la FM.

Frente al cambio, los empresarios de la radio se mostraron prudentes. La radio constituía un gran negocio, y las emisoras comerciales habían realizado fuertes inversiones en la AM. El sistema de Armstrong amenazaba con hacer obsoletos los transmisores y receptores corrientes. Finalmente, en 1939, Armstrong estableció su propia emisora de FM (inventos anteriores lo habían hecho rico) y la utilizó para alimentar el crecimiento del sistema. Empezó a alcanzar la popularidad lentamente, pero en 1954 Armstrong se enfermó y, con su fortuna dilapidada en litigios por el control de la FM, se suicidó.

Breve Historia de la Comunicación Humana

Historia de los Aviones Comerciales Mc Douglas DC 10 Construccion

Historia de los Primeros Aviones Comerciales
Mc Douglas DC 10

EL VUELO COMERCIAL : Fue sólo alrededor de 1923 cuando el avión comenzó a ser utilizado con finalidades comerciales. Ese año se fundaron en Europa, América y Asia rudimentarias compañías de transporte aéreo para pasajeros, correspondencia y carga. En Inglaterra se creó una línea que conducía hasta nueve pasajeros. En julio de 1924, y sujeto a horario fijo, se estableció en los Estados Unidos de América un servicio de correo aéreo trascontinental. En ese país existía ya la compañía Aeromarine Airways, que en el curso de 1923 transportó 30.000 pasajeros.

Las compañías inglesas, cuyos aparatos cruzaban el canal de la Mancha, transportaron ese mismo año al continente 45.531 pasajeros y 800 toneladas de carga. A partir de ese año comenzaron a fundarse en la mayoría de las naciones civilizadas del globo líneas de transporte aéreo regular, pero de limitado alcance.

La hazaña del Plus Ultra, que hemos historiado, hizo pensar en la posibilidad de los vuelos comerciales transoceánicos, estudios y propósitos que sólo hallaron solución práctica pasado el año 1930, y con motivo de esta otra hazaña que confirmó aquella posibilidad: el 12 de mayo de ese año, un avión Late, con motor Hispano Suiza de 500 caballos, denominado Compte de la Vaulx, partió de Dakar a las 10.56 y llegó a Natal a las 8.10 del día siguiente. Había cruzado el océano en 21 horas y 14 minutos. Desde Natal siguió vuelo hacia el Sur llegando a Buenos Aires dos días después, trayendo correspondencia que había tardado sólo 72 horas desde Europa.

Con estos antecedentes auspiciosos, la empresa Air France estableció un servicio regular entre Dakar y Natal, con aviones Farman de cuatro motores, que hacían el viaje en once horas.
A partir de esa época el vuelo comercial fue adquiriendo un desarrollo vertiginoso. Las ciudades importantes de todo el mundo se fueron ligando rápidamente por líneas de servicio regular, cuya mención sería demasiado larga.

Ya en 1939 la estadística permitía consignar cifras que producían estupor. Por ejemplo: los aviones Clipper que hacían el servicio entre Estados Unidos y Suda-mérica transportaron 173.627 pasajeros, 10.000.000 de libras de carga y 1.500.000 libras de correspondencia. La línea que comprende Miami-Río de Janeiro-Buenos Aires, en combinación con las de las Antillas condujo 74.441 pasajeros y 1.500.000 libras de carga y correspondencia. La Aeroposta Argentina, en su línea Buenos Aires-Tierra del Fuego, transportó 3.039 pasajeros, 26.090 kilogramos de carga y 10.052 de correspondencia. Fabulosas cifras alcanzaron también ese año las compañías Panagra, Panair y Cóndor.

De allí en adelante y hasta el estallido de la guerra de 1939, las empresas se fueron multiplicando, lo mismo que los modelos de aeroplanos de potencia cada vez mayor.

PRIMEROS AVIONES COMERCIALES

avion comercial

El Ville -de-Mendoza, uno de los aviones utilizados por la Compañía Air France en 1934.

Primitivo avión de pasajeros norteamericano Yankee Doodle, que en 1928 cubrió la dista ncia Los Ángeles -Nueva York en 18 horas 58 minutos.

Biplano cuatrimotor Scylla, de la Imperial – Airways de Inglaterra, que cubría la línea Londres -París en 1934.

Hidroavión alemán DO -26, que en el año 1938 cubría la línea del Atlántico Norte.

avion comercial

Cuatrimo or DC-4 de la Scan. dinavian Airlines System (modelo 1947) con capacidad para 44 pasajeros.

primeros aviones comerciales

El Convair -240, avión de la Vultee Aircraft Corporation, realizando sobre San Diego, California, su vuelo inicial en 1947.

aviones comerciales

El Superconste-Uation L – 104 9 de la compañía Air France, que produjo admiración en 1953 al iniciar sus vuelos de Europa a América del Sur.

El DC – 7B de la Panagra (1955), para 58 pasajeros, con motores de un total de 52.000 H.P., que unía a Estados Unidos con Buenos Aires en 16 horas 15 minutos.

https://historiaybiografias.com/linea_divisoria6.jpg

McDonnell-Douglas DC-10
El desafío de Boeing en el sector del transporte de alta capacidad no dejó indiferentes a los demás constructores principales norteamericanos. La segunda respuesta fue dada por McDonnell-Douglas con su DC-10, un grantirreactor que, pese a sus indudables méritos, no ha logrado igualar los éxitos del B-747. A finales de 1981, efectivamente, el relativo descenso de los pedidos (383 unidades en total, en la fecha del 30 de septiembre, de las cuales solamente 20 en los 24 meses inmediatamente anteriores) había causado serias dificultades para proseguir la producción.

Historia de los Aviones Comerciales Mc Douglas DC 10


El proyecto tomó vida en la McDonnell-Douglas, en abril de 1966, estimulado por las peticiones de American Airlines, que quería un «wide-body» capaz de operar también desde aeropuertos que no dispusieran de las pistas larguísimas, que son indispensables para los Boeing B-747.

La construcción del prototipo —el primero de 5 unidades experimentales— se inició en enero de 1969 y el «roll-out» (salida del taller de construcción) tuvo lugar el 10 de agosto del año siguiente. La serie inicial de producción (DC-10-10) empezó las pruebas en vuelo el 29 del mismo mes y, al término del ciclo de evaluaciones operativas, fue entregada a la compañía American el 29 de julio de 1971, para entrar en servicio regular, una semana después, en la ruta Chicago-Los Ángeles.

En las cadenas de montaje, bajo el estímulo de un número considerable de pedidos, aparecieron muy pronto las otras dos versiones principales: la DC-10-30 de mayor autonomía, destinada a los servicios intercontinentales y dotada de propulsores más potentes y de alas y tren modificados, que realizó el primer vuelo el 21 de julio de 1972; y la DC-10-40 más potenciada en los grupos motores, que, en su designación original de DC-10-20, voló por primera vez el 28 de febrero de 1972.

Los aviones de la serie 30 acabaron por llegar a ser los principales de producción y sus entregas se iniciaron, en noviembre de 1972, a KLM y a Swissair. Siguieron otras dos subseries, estudiadas para aumentar la flexibilidad del avión: la DC-10-10CF y la DC-10-30CF (esta última apareció como prototipo el 28 de febrero de 1973), caracterizadas por la posibilidad de ser convertidas fácilmente de la configuración de pasajeros a la de mercancías y viceversa; la capacidad, en los dos casos, era de 380 personas o de más de 70 toneladas y media. Estos dos aviones fueron acogidos favorablemente por el mercado y, a mediados de 1973, la compañía McDonnell-Douglas se aproximaba rápidamente al límite de los 100 aviones entregados, con un número de pedidos casi doble.

Fue el 3 de marzo de 1974 cuando la buena suerte empezó a declinar. Aquel ,día, un DC-10 de la compañía Turkish Airlines se estrelló cerca de París con 346 pasajeros a bordo (fue el número más alto de víctimas registrado hasta entonces en un accidente aéreo) y las investigaciones revelaron un grave fallo estructural de la compuerta de carga de mercancías posterior.

Fue necesario introducir, por consiguiente, modificaciones de proyecto que retardaron la producción, pero, el 25 de mayo de 1979, un nuevo accidente —esta vez, el fallo de un pilón del motor— llevó a consecuencias más graves: la suspensión de los vuelos de todas las unidades del avión, en espera de investigaciones y de intervenciones por parte de la casa constructora. Sin embargo, las indagaciones justificaron completamente a los proyectistas, revelando que la avería fatal había sido producida por un mantenimiento deficiente por parte de la compañía (la American Airlines).

De cualquier modo, la carrera del DC-10 se vio perjudicada seriamente por los retrasos, y el avión acabó por «saltar» completamente una fase importante del mercado internacional. Pese a todo, el 1 de julio de 1980 estaban en servicio 324 unidades, con las entregas efectuadas a 46 compañías aéreas, y habían transportado, en total, 252 millones de pasajeros y volado 3.241 millones de kilómetros.

Características Avión: McDonnell-Douglas DC-10-30
Constructor: McDonnell-Douglas Corp.
Tipo: Transporte civil
Año: 1972
Motor: 3 turborreactores General Electric CF6-50A, de 22.230 kg. de empuje cada uno
Envergadura: 50,41 m.
Longitud: 55,50 m. Altura: 17,70 m.
Peso al despegar: 256.280 kg.
Velocidad de crucero: 908 km./h. a 9.145m. de altitud
Techo máximo operativo: 10.180 m.
Autonomía: 11.580 km.
Tripulación: 13 personas.
Carga útil: 255-380 pasajeros

Fuente Consultada: Aviones de Todo el Mundo de Enzo Angelucci – Paolo Matricardi

Primeros Frigorificos Argentinos La Exportacion de Carnes Congeladas

Primeros Frigoríficos Argentinos
La Exportación de Carnes Congeladas

En 1879 apareció un elemento tecnológico que tuvo una enorme significación. Ese año un barco, Le Frigorifique, que producía frío artificial, transportó a Europa algunas toneladas de carne de oveja congelada. Se perdió una parte, porque se rompió una sección de la maquinaria, pero el resto llegó a Francia en buen estado y fue consumido.

Así empezó a solucionarse el viejo problema que había desvelado a los ganaderos desde la época de la colonia en adelante: cómo conservar la carne de la res. En tiempos de las vaquerías, la carne quedaba para alimento de los ratones o perros del campo. Después llegó la época de los saladeros: esa carne que antes se desperdiciaba, se comenzó a macerar, secar, salar y a enviarse en barricas a mercados que, si bien tenían un poder consumidor muy bajo, convertían de todos modos a los saladeros en un rubro exportador y permitieron la fundación de algunos donde se empleaban hasta varios miles de personas en diversas tareas.

LA EXPLOTACIÓN DE LA CARNE CONGELADA Y LOS PRIMEROS FRIGORÍFICOS EN ARGENTINAPero lo que verdaderamente se buscaba era cómo conservar la carne de un modo tal que su calidad no se resintiera y gustase al paladar europeo. Hacia 1870 la Sociedad Rural de la provincia de Buenos Aires ofreció un premio metálico muy importante para aquella persona que inventase una técnica que conservara la carne en esas condiciones.

Un francés, Charles Tellier (imagen izq.) , descubrió la forma de producir frío artificialmente. Fue a través del frío, entonce8, que la carne empezó a ser conservada y exportada, y lo que en 1879 era un experimento, tuvo luego una enorme significación dentro de la economía argentina.

La industria frigorífica se desarrolló en la Argentina en función del mercado europeo, principalmente el inglés. Desde la década del 70, los avances en las técnicas de refrigeración en los establecimientos y, sobre todo, en los barcos, posibilitaron la exportación ultramarina de carnes. Durante la década del ‘80 se instalaron en la Argentina los primeros frigoríficos: el de Eugenio Terrason, en San Nicolás, y elSansinena, en Avellaneda, ambos de capitales nacionales; The River Plate, en Campana, y Las Palmas, en Zárate, de capitales británicos. Estas cuatro empresas se repartieron el mercado de exportación a Inglaterra hasta 1902. En los años siguientes y hasta 1 907, las empresas inglesas tendieron a monopolizar ese mercado.

Los primeros embarques fueron sobre todo de carne ovina, que resistía mejor el traslado y se destinaba a una clientela de bajos recursos, mientras que el porcentaje de carne bovina congelada era poco significativo. Hasta 1900, el ganado que se exportaba a Inglaterra era principalmente ganado en pie. El cierre de las importaciones de ganado argentino por parte de Inglaterra, argumentando la existencia de aftosa, impulsó el desarrollo de la industria frigorífica y el incremento de las exportaciones de carne bovina congelada.

Muy pronto, la mayor demanda inglesa y los progresos técnicos que abarataron los costos del transporte permitieron aumentar las exportaciones de carne congelada, con lo que se llegó a superar a los EE.UU. como proveedor de carnes en el mercado londinense. Posteriormente, el retiro de ese país del mercado británico, a causa de su mayor consumo interno, llevó a los capitales norteamericanos a invertir en la industria frigorífica argentina.

El frigorífico Anglo instalado en Zárate. Los primeros frigoríficos fueron de capital británico. En 1882, E. Terrason construyó en San Nicolás de los Arroyos el primer frigorífico y al año siguiente se inició la exportación a Inglaterra de corderos congelados. En 1883, se estableció en Campana el segundo establecimiento frigorífico —perteneciente a la firma The River Plate Fresh Meat— que, en 1884, comenzó a elaborar carne vacuna congelada. En 18861, la firma James Nelson and Sons instaló en Ztírate el frigorífico Las Palmas. En 1885 se había instalado en Avellaneda la Compañía Sansinena de Carnes Congeladas, integrada por capitales argentinos.

En 1907, la firma Swift adquirió el frigorífico The Plata Cold Storage, en Berisso y, al año siguiente, Swift, Armour y Morris compraron La Blanca, en Avellaneda. Los norteamericanos introdujeron innovaciones tecnológicas en el procesamiento de la carne, que consistían en su enfriamiento —chilled— a 0.ºC, lo que daba como resultado mayor calidad y precios más bajos que los de la carne congelada a 30ºC. Las exportaciones dechilled se incrementaron, alentadas por la mayor demanda inglesa. Por otra parte, como la carne enfriada requería animales con menos grasa, se promovió un mayor refinamiento y cuidado del ganado.

La llegada del capital norteamericano a la industria frigorífica alteró la distribución de los beneficios de las exportaciones de carne, ya que ingleses y norteamericanos debieron repartirse el mercado. Por lo tanto, acordaron cuotas de exportación y, operando en conjunto, desplazaron a los frigoríficos de origen nacional, que destinaron su producción al mercado local.

LA EXPLOTACIÓN DE LA CARNE CONGELADA Y LOS PRIMEROS FRIGORÍFICOS EN ARGENTINAObreros en el interior de un frigorífico preparando carnes para la exportación. Los años 1900, 1901 y 1902 constituyen lo que puede llamarse la edad de oro de la industria frigorífica.

Durante esos años, sólo trabajaban tres frigoríficos que contaban con tecnología todavía primitiva, pero debido a la abundancia de ganado disponible, imponían al estanciero los precios y se aseguraban los mayores beneficios.

Más tarde se instalaron frigoríficos de capitales estadounidenses y comenzaron a desarrollar el sistema del enfriado, que abrió al vacuno de calidad un mercado más amplio pero mucho más exigente.

LOS BUQUES FRIGORÍFICOS: Cuando el vacuno parecía marchar al ocaso irremediable, buenas noticias sacuden la opinión pública: se formaba una compañía francesa dispuesta a explotar el invento de Terrier, consistente en conservar las carnes frescas dentro de cámaras mantenidas a 0°C por una corriente de aire seco, enfriada por evaporación de éteres vínicos.

Le Frígorífique, el buque equipado para la prueba, llegó a Buenos Aires para la Navidad de 1876 con carne fresca de reses muertas en Rúan tres meses antes. Se ofreció un banquete a bordo con esas carnes, y aunque su gusto no fuera muy recomendable se habló entusiastamente del sistema. Creíase llegado el momento de la tan anhelada valorización vacuna.

La Sociedad Rural hizo una colecta que unida a una donación del gobierno bonaerense permitió comprar un lote de novillos y cederlos a la empresa para su viaje de retorno. No pensaban los estancieros en el ovino, aunque sí la empresa, que con fondos provenientes de los cueros y sebo del lote obsequiado adquirió 200 capones. Tras azarosa travesía e inconvenientes con las máquinas, el cargamento llegó en malas condiciones.

En 1877 arribó otro barco, El Paraguay, equipado según el procedimiento Carré-Julien de congelar a -30 °C, sistema que aseguraba mejor resultado en esa época de tan poca experiencia. Esta vez el consabido banquete a bordo fue más placentero, pues la carne no tenía mal sabor. Anticipando el futuro próximo, el buque congeló varios miles de carneros y sólo unas pocas reses vacunas; el cargamento llegó en perfecto estado y tuvo buenas ventas. Pero las sociedades francesas no llegaron a concretar sus propósitos, faltas quizás de un mercado amplio. En cambio, capitales ingleses desarrollaron el sistema, tan útil para proveer a Gran Bretaña de la carne que necesitaba, y lo aplicaron primero al comercio con Australia (1880) y luego con la Argentina.

Fácil de explicar, abstracción hecha de cualquier inconveniente o ventaja momentáneos, resulta el triunfo de! sistema Carré-Julien sobre el método Tellier. Este último equivale al enfriado (chilled beefl de hoy, cuya preparación y consumo exige buena técnica y alto grado de armonía entre los diversos sectores intervinientes, para lograr que el producto —con vida no superior al mes y medio y siempre en cámaras frigoríficas— pueda llegar al consumo en plazo tan perentorio.

El sistema triunfante, en cambio, congelaba la carne hasta convertirla en bloque de hielo que se mantiene indefinidamente mientras dure el frío; una vez suspendido éste, el descongelamiento es lento y asegura la conservación por varios días más. Aunque la carne congelada no pueda competir en presentación y gusto con la enfriada, sus otras ventajas la hicieron triunfar. Deberían pasar bastantes años para que resurgiera el sistema, con plantas industrializadoras y sistemas distributivos adecuados.

Tomado de Horado Giberti, investigador argentino contemporáneo, Historia económica de la ganadería argentina.

Fuente Consultada:
Historia 3 La Nación Argentina e Historia Argentina y Contemporánea Alonso-Elizalde-Vázquez

La Teoria del Flogisto La Quimica Moderna Teoria de Combustión

TEORÍA DEL FLOGISTO

Según las antiguas concepciones griegas, todo lo que puede arder contiene dentro de sí el elemento fuego, que se libera bajo condiciones apropiadas. Las nociones alquímicas eran semejantes, salvo que se concebían los combustibles como algo que contenía el principio de “azufre” (no necesariamente el azufre real). (imagen: Ernst Sthal)

Una preocupación central de la química en el siglo XVIII era el proceso de combustión. Cuando las sustancias se calentaban hasta el punto de incandescencia, los científicos vieron que emitían algo —vapores o humo—, y lo interpretaron como una pérdida de la sustancia original.

Ese «algo» que supuestamente se perdía en el proceso de combustión se llamó flogisto, una palabra acuñada en 1697 por el químico alemán Ernst Stahl. Pero qué era exactamente ese flogisto seguía siendo materia de debate. Para algunos, era un elemento en sí mismo; para otros, era una esencia contenida en los materiales combustibles, sin la cual la combustión era imposible.

Georg Ernst Stahl (1660-1734), siguiendo a su maestro Becher (1635-1682), creyó que las sustancias estaban formadas por tres tipos de “tierra”, más el agua y el aire. A una de las tres tierras, aquella que Becher había llamado “combustible”, la rebautizó como flogisto (del griego, que significa “quemado” o “llama”), al que le asignó el noble y supremo propósito de ser el agente y el sostén de la combustión. La combustión, según Stahl, consistía en un intercambio de flogisto, que fluía entre los materiales con la soltura (aunque con más calor) del éter; quemarse era dejar escapar flogisto (que como un humo invisible se mezclaba con el aire), y lo que un químico moderno llamaría reducción consistía en incorporar el flogisto flotante como para tenerlo listo para una nueva combustión.

El concepto del flogisto dio lugar a algunas anomalías. Si fuera un componente de los materiales combustibles, al perderse durante la combustión, los residuos tenían que pesar menos de lo que pesaban las sustancias antes de quemarse, y ése era el caso de algunas, como la madera. Pero ciertos metales, cuando se calentaban, se convertían en una sustancia blanda llamada calx; en estos casos, el residuo pesaba más que el metal original. Esta anomalía fue ignorada por muchos defensores de la teoría del flogisto. Otros la racionalizaban sugiriendo que el flogisto tenía un peso negativo, provocando que el residuo pesase más cuando el flogisto se había consumido.

Algunos historiadores afirman que la teoría del flogisto puede considerase como la primera gran teoría de la química moderna. A principios del siglo XVIII, el médico Georg Ernst Stahl (1660-1734) siguiendo las ideas de su maestro J.J.Becher (1635-1682), propuso una explicación conjunta de la calcinación de los metales, la combustión de los cuerpos combustibles y la respiración de los animales, basada en la existencia de un “principio de la combustibilidad” que denominó “flogisto”. De acuerdo con sus ideas, los metales estaban formados por flogisto y la cal correspondiente, de modo que, cuando se calcinaban, el flogisto se desprendía y dejaba libre la cal. Del mismo modo, para obtener el metal a partir de la cal, era necesario añadirle flogisto, el cual podía obtenerse a partir de una sustancia rica en este principio, como el carbón.

La gente que creía fehacientemente en la existencia del flogisto —la esencia del calor— era consciente de que una vela colocada en un recipiente sellado se apagaba pronto. Ellos lo interpretaban como una prueba de que el aire del recipiente se había saturado con el flogisto de la vela era incapaz de recibir más y la combustión ya no era posible. Aplicando este razonamiento, en químico inglés Priestley concluyó que su gas era aire que contenía poco flogisto o ninguno, y por consiguiente se sentía «hambriento» del flogisto de la vela. Por tanto, llamó a su nuevo gas «aire deflogistizado».

Mirando retrospectivamente, cuando la mayoría de las personas educadas hoy día comprende el papel del oxígeno en la combustión y todos los estudiantes de química saben que la combustión es un proceso de cambio químico, cuyo resultado no produce pérdidas o ganancias significativas de masa, es fácil sentirse superior a aquellos tempranos buscadores de la verdad. Pero eran personas capaces, y sus razonamientos tenían sentido bajo la luz del limitado conocimiento que poseían.

Fuente Consultada: Historia de las Ciencias Desiderio Papp