Televisión Color

Records de la Aviación Civil Altura, Velocidad y Distancia

Primeros Records de Altura, Velocidad y Distancia de la Aviación Civil

Records de Distancia y Velocidad:

Al compás de la emulación deportiva y las ansias de superación, y mientras las máquinas se perfeccionaban, se fueron registrando marcas de las que mencionaremos las más notables de la primera época.

1921. Adriana Bolland atravesó la cordillera de los Andes, de Mendoza a Santiago de Chile.

1926. Pelletier-Doisy voló de París a Pekín en 6 días y 18 horas.

1926. Arrachart marcó el record de distancia sin escalas (París-Basora, 4.305 kilómetros) en 26 horas y 25 minutos.

1927. Pinedo voló 40.540 kilómetros en 44 etapas alrededor del Atlántico.

1930. Mariza Hilsz. Record cubriendo el circuito París-Saigón-París.

1930. Costes y Bellonte. Cruzaron por primera vez el Atlántico de París a Nueva York.

1930. Mermoz cruzó el Atlántico Sur.

1931. Balbo (al frente de una escuadrilla de aviones) atravesó el Atlántico Norte.

1931. Marisa Bastie. Batió el record para avionetas, con un vuelo de 2 889 kilómetros.

1931. Herndon y Pangborn cruzaron por primera vez el océano Pacífico de Tokio a California (7.700 kilómetros).

1932. Amelia Earhart fue la primera aviadora que atravesó sola el Atlántico.

1933. Willy Post. Gira alrededor del mundo (25.000 kilómetros) en 7 días y 18 horas.

1934. Agello señaló el record de velocidad en hidroavión con 209 kilómetros por hora.

1934. Marisa Hilsz. Vuelo París-Tokio-París.

1934. Scott y Campell Black ganaron la carrera Londres-Melbourne (18.160 kilómetros) en 2 días y 23 horas.

1934. Agello, con un avión italiano, alcanzó una velocidad de 709 kilómetros.

1935. Batten. Record sensacional, Londres Australia, en 5 días.

1938. Huguez dio la vuelta al mundo trazando un casquete boreal en menos de 80 horas, que comprendió las ciudades de Nueva York, París, Moscú, Omsk, Yakutsk, Fairbanks, Minneápolis y retorno a Nueva York.

1939. Udet (general alemán) cubrió 100 kilómetros a un promedio de 634,32 kilómetros por hora.

https://historiaybiografias.com/linea_divisoria6.jpg

PIONEROS DEL VUELO CIVIL

grandes aviadores de la historia

https://historiaybiografias.com/linea_divisoria6.jpg

lindergh, Espíritu de San Luis

Carlos Lindbergh, un muchacho norteamericano aficionado a la aviación, se propuso allá por 1927 intentar la travesía del Atlántico en su avioncito de turismo denominado Espíritu de San Luis. Con sobrecarga de nafta que hacía peligrar el vuelo despegó del campo de Roosevelt, en Nueva York, la noche del 20 de mayo del año citado. A propósito de su aventura se hicieron los más pesimistas comentarios. Se le tildó de loco, de inconsciente… eAntes y durante su hazaña se le llamó «el tonto volador». Lo cierto fue que a la mañana siguiente, a las 22 y 24 (hora francesa), aterrizaba en el aeródromo de Le Bourget, en París. Había cubierto la distancia entre las dos ciudades en 33 horas y 39 minutos. Asombro del mundo. Aquel aviador con cara de chiquillo pasó a ser una de las más legítimas glorias de los Estados Unidos.

RECORDS DE ALTURA: Recordaremos también aquí las primeras marcas famosas hasta las vísperas de la guerra de 1939, pues de allí en adelante fueron vertiginosas, como veremos. Las registradas por la Federación Aeronáutica Internacional fueron:

1909. (Agosto) Latharn, 155 metros.

1909. (Octubre) Lambert, 300 metros.

1909. (Diciembre) Latharn, 453 metros.

1910. (Enero) Latharn, 1.000 metros.

1910. Paulham, 1.209 metros, en Los Angeles.

1910. Brookins, en Atlantic City, 1.900 metros.

1910. León Morand, en Francia, 2.587 metros.

Hubo cuatro records más ese año y fueron:
Henry Wijnmalen, 2.780 metros.
Drexel, 2.882 metros.
Johnston, 2.960 metros.
Legagneux, 3.100 metros.

Legagneux era francés, y Francia retuvo el record logrado ese año de las marcas de altura hasta 1913, superándolas constantemente. En efecto: Roland Garros llegó a los 5.610 metros y Edmond Perreyron a 6.000. En 1913 Legagneux batió todos los records con 6.120 metros.

Al iniciarse el año 1914, nuestro compatriota, el célebre aviador Jorge Newbery, con un aparato Morane Saulnier, logró la altura de 6.100 metros.

Desde allí hasta 1920 dejaron de registrarse las pruebas, pero la guerra obligó a los pilotos a una frenética lucha de superación, como se comprobó al reanudarse las competencias.

Veamos:
1920. Schroeder (norteamericano), 10.093 metros.

1920. MacReady (norteamericano), 10.518 metros.

1923. Sadi Lecointe (francés), 10.727 metros.

Francia retuvo el record hasta 1927, y las marcas fueron superadas como sigue:

1927. Champio (norteamericano), 11.710 metros.

1929. Souceck (norteamericano), 11.930 metros.

1929. Willi Newenhofen (alemán), 12.739 metros.

1930. Apollo Soneck (norteamericano), 13.157 metros.

1932. Cyril Uwins (inglés), 13.404 metros.

1933. Lemoine (francés), 13.661 metros.

1933. Renato Donati (italiano), 14.433 metros.

Italia retuvo el record dos años.

1936. Georges Detré (francés), 14.843 metros.

1936. Swain (inglés), 15.223 metros.

1937. Mario Pezzi (italiano), 15.655 metros.

Este record fue considerado imbatible, pero poco tardó el piloto inglés Adam en superarlo.

1937. Adam (inglés), con un Brístol 138, llegó a 16.440 metros.

Italia había perdido el record, pero lo recuperó, como se verá.

1938. Pezzi llegó a los 17.083 metros de altura.

 aviadores franceses Costes y Bellonte

Los aviadores franceses Costes y Bellonte, que el 1º de septiembre de 1930 unieron en un vuelo las ciudades de París y Nueva York.

EL VUELO POR LA ESTRATOSFERA

La resistencia del aire (y su mayor densidad en ciertos casos) conspira contra la posible velocidad de los aviones. Por el contrario, a menor densidad es mayor la rapidez del deslizamiento.

Basado en estas observaciones, el ilustre sabio y aeronauta Augusto Piccard afirmó, en cierta ocasión, que la estratosfera, por razón de su escasa densidad, sería en el futuro la ruta del cielo donde los aviones alcanzarían velocidades fantásticas.

Claro estaba —y lo reconocía— que para ello habría que vencer primero algunos graves inconvenientes, que fueron puntualizados en «La Gazzeta dello Sport«, de Milán, por el técnico italiano S. Trevisán, «El problema del vuelo de altura —decía— es muy complicado.  Como se sabe, en el motor de explosión, la mezcla ideal requiere cierta relación entre el volumen del aire y el del carburante que la componen.

Es también sabido que no cambia en forma apreciable el aporte del carburante cuando el motor funciona a régimen normal, en tanto que se reduce notablemente el volumen del aire debido a la disminución de la densidad atmosférica. Y así, a medida que la mezcla se vuelve más rica en carburante, el motor rinde cada vez menos.

La hélice, cuyo buen desempeño ha sido calculado para funcionar en aire denso, al hacerlo casi en el vacío, en vuelos de gran altura, la acción de sus paletas resulta de muy escaso rendimiento. La menor resistencia del aire para la marcha del avión es una ventaja que no compensa, ni con mucho, el resultado por demás deficiente del grupo motopropulsor.

También constituye la bajísima temperatura un gran inconveniente para el avión que vuela a muy elevada altura: el lubricante se torna demasiado viscoso, las barras y los cables metálicos del comando se vuelven demasido tensos, las substancias de engrasamiento se congelan, se forma hielo sobre las partes del avión expuestas al aire, etc.»

Todos estos inconvenientes fueron superados por la técnica moderna. Los aparatos para los vuelos por la estratosfera son herméticamente cerrados y tienen dispositivos para provisión de oxígeno, además de calefacción. En cuanto al aviador, lleva un traje que constituye una coraza neumática que lo preserva del frío.

Lo cierto es que se cumplieron las predicciones de Piccard, y que los vuelos de gran distancia se efectúan por la estratosfera a velocidades vertiginosas.

hermanos piccard

Los profesores Augusto y Juan Félix Piccard, belga el primero y suizo el segundo, hermanos y compañeros de aventuras en arriesgadísimas pruebas de exploración científica. El objetivo de sus vuelos a la estratosfera no fue otro que el de estudiar los rayos cósmicos y otros fenómenos del espacio, cuyas conclusiones fueron de enorme utilidad para la aviación. Juan Félix insistió por largos años en esta clase de ascensiones, incluso acompañado por su esposa, en tanto que Augusto se dedicó a la exploración de las grandes profundidades del mar en una esfera de su invención.

traje para el vuelo en la estratofera

Arriba uno de los trajes usados por los aviadores para los vuelos por las altas regiones del espacio. Adviértense en este equipo el casco protector con anteojos, la máscara inhaladora, las riendas del paracaidas y las guarniciones de la silla eyectable

turbina de un avion

 Una turbina que accionada por el gas proveniente de las cámaras de combustión proporciona una energía con infinitamente mayor regularidad  que los pistones del motor de explosión, sacudidos por un movimiento alternativo generador de molestas vibraciones.

https://historiaybiografias.com/archivos_varios5/globo-piccard1.jpg

El globo estratosférico del profesor Augusto Piccard, con el que alcanzó en 1932 una altura de más de 17.000 metros.

Explotación Agricola en Europa del Siglo XIX Economía

EL PREDOMINIO DE LA ECONOMÍA AGRÍCOLA
EN EUROPA EN EL SIGLO XIX

La Europa de principios del siglo XIX era aún una Europa campesina cuya vida económica dependía estrechamente de las fluctuaciones de sus principales producciones agrícolas. La ausencia de excedentes mantenidos limitaba el desarrollo de las ciudades, que permanecían muy ligadas al campo. Las frecuentes malas cosechas de cereales, patatas, legumbres, ocasionaban grandes subidas de precio. Las crisis estacionales o anuales, engendradas por las malas cosechas o por la deficiencia de las relaciones comerciales y de los medios de transporte, se conjugaron a partir de 1817 con una larga etapa de depresión y de hundimiento de los precios, que sucedió al favorable período precedente.

LA POBLACIÓN: A partir de 1801, la población mundial ha crecido con más rapidez que nunca. Sólo en el siglo XIX se duplicó con creces; la anterior duplicación tardó cuatro veces más. Desde el siglo XVII la curva de crecimiento se ha ido haciendo cada vez más empinada. Sin embargo, las cosas no son tan sencillas como parece deducirse de esta imagen general. Algunos países han crecido con más rapidez que otros, y lo mismo puede decirse de los continentes.

El resultado ha sido un cambio en el orden de las naciones, atendiendo a su número de habitantes. Empecemos por Europa: en 1801, Francia reunía bajo su bandera más habitantes que ningún otro país al oeste de Rusia; en 1914 ocupaba la cuarta posición, por detrás de Alemania, Austria-Hungría y Gran Bretaña. El crecimiento de los Estados Unidos fue aún más rápido: en 1900 sus habitantes habían ocupado ya todo el continente (que en 1801 aún seguía inexplorado en gran parte) y su número había ascendido de 6 a 76 millones, lo que representa un aumento del 1.150 por 100.

Se dispone  de   información   mucho   más completa y exacta acerca de los países de Europa y América que de los de Asia y África; no obstante, parece comprobado que la población creció en todas las partes del mundo durante el siglo XIX: en China, por ejemplo, el aumento superó el 40 por 100, llegándose a los 475 millones; Japón pasó de unos 28 millones a unos 45, y la India de 175 a 290 millones. Se trata, en todos los casos, de incrementos muy grandes.

LA AGRICULTURA CONTINUA PREDOMINANDO
Salvo algunas excepciones, los métodos de explotación agrícola permanecían anticuados, ya que la mayoría de los grandes propietarios se desinteresaron de ello y no trataron de aumentar sus rentas por medio de la comercialización de sus productos. En cuanto a los pequeños cultivadores, sin instrucción, apartados de la escena política por los regímenes censatarios, no disponían de capital suficiente para introducir innovaciones.

agricultura en europa

Falta de abono, la tierra se convertía en  barbecho  cada   tres   años;   falta   también de maquinaria (se sembraba a mano, se trillaba con el mayal, se segaba con la hoz), una gran parte del suelo se desperdiciaba y los rendimientos obtenidos eran muy escasos. El desconocimiento de los métodos de conservación de la carne, el estado de los animales, desnutridos y sujetos a epidemias, impedía toda explotación ganadera racional, utilizándose el ganado, sobre todo, para los trabajos agrícolas.

Las crisis de subsistencias probaba trágicamente que el destino de millones de  hombres  dependía aún de las cosechas  de   trigo;   por  eso la agricultura estaba orientada hacia los productos de más corriente consumo, y, en pri mer lugar, hacia los cereales, como el trigo el centeno, la cebada, la avena y el alforjón.

La ausencia  de  excedentes  obligaba  a  la: diferentes naciones e incluso a las regione: a  vivir  replegadas  sobre  sí  mismas.   Uni camente  los   productos   exóticos   (especias café) daban lugar a un tráfico importante Sin embargo, este medio siglo conoció cier tos progresos agrícolas, de los que Inglate rra fue la principal beneficiaria. Más  adelantada que sus vecinos, había experimentado, desde el siglo XVIII , nuevos métodos; 2.000 lores, propietarios del tercio de la superficie cultivable, transformaron hectáreas de tierra de labor en fértiles praderas, en las que practicaron una ganadería moderna con selección de razas (la raza Durham llegó a ser la primera de Europa).

Los decretos para la formación de «acotados» (reunión de tierras rodeadas por vallas), concluidos en 1840, los «cornlaws», leyes que prohibían la entrada de trigos extranjeros, habían enriquecido   a   estos   grandes   propietarios que llevaron a cabo una verdadera revolución sustituyendo el barbecho por el cultivo de plantas herbáceas, de trébol, de alfalfa y otras análogas, alternando con los cereales; la utilización de los abonos (cal, guano, fertilizantes industriales descubiertos por Liebig), la mejora de los arados, la desecación de los pantanos, reforzaron esta revolución agraria.

Las Corn Laws fueron aranceles a la importación para apoyar los precios del grano británico doméstico contra la competencia de importaciones, vigentes entre 1815 y 1846.

PEQUEÑAS PROPIEDADES Y GRANDES DOMINIOS: Además  del  tipo inglés (que acabamos de ver mas arriba),  se podían  distinguir otras dos modalidades  de  agricultura en Europa.  Una de ellas predominaba en Francia, Países Bajos, Suiza y norte de Italia; la supresión de las servidumbres señoriales   había   emancipado   jurídicamente   al campesinado, pero éste, dueño en su inmensa mayoría, de pequeñas o medias propiedades, vegetaba y se mantenía gracias a la supervivencia de las prácticas comunales y a la ayuda de trabajos artesanos.

Sin embargo, en estos países fueron realizados importantes   trabajos   de  desecación   (particularmente en Holanda, donde los «polders» alcanzaron una gran extensión) que permitieron acrecentar la superficie cultivable. El rercer tipo de agricultura, el de los grandes dominios   señoriales,  reinaba  en  la  mayor parte de Europa; en el sur de Italia y en Toscana, la aristocracia terrateniente practicaba el absentismo, dejando a los administradores el cuidado de ocuparse de sus inmensas propiedades, y éstos las hacían explotar por los jornaleros a los que apenas les quedaba para vivir. Los grandes propietarios españoles practicaban también la aparcería; pero tenían que hacer frente a la Mesta, poderosa asociación de ganaderos que monopolizaba inmensas extensiones de tierras, oponiéndose al desarrollo de la agricultura.

En Prusia y en Europa Oriental, las reformas napoleónicas fueron abandonadas después de Waterloo y los campesinos tuvieron que devolver a los nobles el tercio de sus tierras, cayendo nuevamente en un estado de semi-servidumbre. Sin embargo, algunos pequeños hidalgos prusianos intentaron modernizar sus posesiones siguiendo el ejemplo de los lores ingleses.

Por último, en Rusia, la tierra estaba en manos de la corona y de los nobles; una parte de sus inmensos dominios era explotada directamente, y la otra repartida en parcelas entregadas a las familias de los siervos a cambio de los servicios que prestaban trabajando las tierras de su señor. Rusia era entonces la mayor exportadora de trigo de Europa, pero las exportaciones se hacían en detrimento de la población, que vivía en condiciones miserables. Esta oposición entre la Europa Occidental y los países orientales, próximos todavía a las estructuras feudales, había de durar hasta nuestros días.

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del «empleado bancario» ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos «bigotes» de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla Disputa

Historia del Uso de la Corriente Alterna
Disputa de Edison Vs. Tesla

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el «príncipe de los experimentadores». Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar.

Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: «Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética«. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad. En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las «resplande cientes herraduras que brillaban dentro de los globo en forma de peras».

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno y consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

iluminador electrico de gran potencia

PROYECTOR ELÉCTRICO DE 1,50 METROS, QUE ILUMINA LOS OBTETOS SITUADOS A 16 KILÓMETROS DE DISTANCIA

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

generadores de corriente electrica

Con su sala de turbinas de vapor construida a orillas del rio, completo aislamiento de todo el equipo eléctrico, disposiciones hidráulicas para eliminar las cenizas, instalación de calderas con recalentadores de vapor formados de seis tubos colocados sobre la cámara de combustión, extenso empleo de motores para llevar a efecto las operaciones precisas con las válvulas y perfecta maquinaria para facilitar el transporte del carbón, esta estación central de «Hell Gate», Nueva York, de la Compañía United Electric Light y Power, no tiene rival.

La Corriente Alternada

Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  «impulsar» a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

https://historiaybiografias.com/linea_divisoria3.jpg

LECTURA COMPLEMENTARIA:
La importancia de la electricidad como medio de transportar energía: Es difícil encontrar aplicación de la electricidad que demuestre más claramente su completa sumisión al hombre como la que se relaciona con el transporte de la energía o fuerza motriz. Desde tiempo inmemorial el hombre ha utilizado recursos que reemplazasen al esfuerzo que puede producir su brazo; el empleo de la fuerza de los animales es muy antiguo, y hay muestras evidentes de que también aprovechó la energía producida al caer el agua.

de todas maneras, en cada caso, siempre coincidían el lugar de producción y el de aplicación de la energía. La rueda hidráulica y el molino de nuestros antepasados estaban instalados al lado mismo del salto de agua. De este modo, muy pocos de nuestros grandes recursos hidráulicos podían ser aprovechados, pues la mayoría de los grandes saltos de agua están situados en lugares inaccesibles de las regiones montañosas, a los cuales sería imposible, o por lo menos muy costoso, transportar las primeras materias.

La fuerza motriz, invisible, va desde la escarpada montaña a la populosa ciudad Los progresos y desarrollo de la máquina de vapor y su creciente importancia han hecho se piense en buscar un medio de transmitir la energía al lugar del consumo desde el punto donde pueda producirse económicamente, ya por estar próximo el combustible o ser más fácil el acarreo desde la mina.

generador de energia electrica

UN GRAN GENERADOR ELÉCTRICO DE TURBINA: Uno de los generadores, de 55.000 caballos de fuerza, en la instalación hidroeléctrica de Queenston-Chippawa. Las turbinas de esta clase reposan sobre una especie de cojinetes o almohadillado de agua, tan delicadamente dispuesto, que si no se frena, tarda doce horas en pararse por completo, a contar desde el momento en que se corta la marcha.

Cuando la instalación de una máquina de vapor puede hacerse a la orilla de un estuario o un puerto, el carbón se transporta por mar a un coste relativamente bajo; pero dentro de las ciudades la conducción es carísima. El mismo agente que permite al hombre hablar a gran distancia con sus semejantes, puede ahora emplearse para transmitir la energía desde los saltos de agua en las montañas o las minas de carbón a la distante ciudad o centro consumidor. Las empresas industriales pueden así establecer las fábricas en aquellos lugares donde los jornales son menos elevados y la primera materia más abundante, puesto que es factible producir la energía necesaria a cientos de kilómetros.

De esta manera también pueden elegirse locales propios y convenientes para las fábricas y las centrales eléctricas donde se genera la energía, ligándose los dos centros por una línea de transmisión que abastece de fuerza eléctrica de un extremo a otro. Pero todavía la ingeniería moderna no es capaz de suministrar por este medio la fuerza motriz a las distancias que envía la voz humana.

La longitud a que puede transmitirse la energía económicamente en la actualidad es de 440 kilómetros en números redondos, y el alcanzar mayor distancia es uno de los grandes problemas que estudian los técnicos en nuestro siglo.

La transmisión eléctrica ha hecho posible la centralización de las grandes instalaciones productoras de fuerza motriz, y de este modo se ha conseguido convertir mucho más económicamente la energía química del carbón en eléctrica a bajo coste. La posibilidad de transportar la energía a grandes distancias permitió la instalación de enormes centrales conteniendo máquinas generatrices y convertidores de tal tamaño, que el coste de la producción por unidad de energía es tan bajo que permite sea consumido por las personas de recursos más modestos.

Debido precisamente a la con solidación y seguridad de estas grandes centrales, transmitiendo la energía a cualquier punto de la zona que las rodea por medios económicos y eficaces, ha sido posible la utilización de la electricidad en las fábricas, talleres y las viviendas.

En las instalaciones industriales más modernas se han suprimido los antiguos ejes, poleas y correas, acoplando motores eléctricos a los diversos mecanismos. La gran cantidad de energía economizada por esta disposición, sin duda mucho más apropiada y flexible para transmitir el movimiento, se emplea en aumentar el número de máquinas trabajando.

El coste de los edificios es así menor, y pueden construirse agrupados o separadamente, segrtn se quiera o convenga, sin tener que ajustarse a la posición del eje transmisor, lo que permite instalar las máquinas en la mejor posición, para disminuir acarreos innecesarios con el producto manufacturado, La eliminación de las correas deja mayor espacio libre, facilita el trabajo de los puentes-grúas o transbordadores, evita el polvo que se removía durante la marcha y, finalmente, también permite un alumbrado mejor.

La ausencia de cojinetes y aparatos para la lubricación de los mismos libra del goteo continuo de aceite, y todo esto trae consigo una mayor limpieza en las operaciones, mejorando, por consiguiente, las condiciones de salubridad durante el tiempo de estancia de los obreros en el trabajo y disminuyendo además múltiples daños al producto acabado.

La electricidad, aplicada al movimiento de la maquinaria, da mayor rendimiento, produce la fuerza con más flexibilidad que con el antiguo sistema de ejes transmisores, de tal suerte que pueden ponerse en marcha o hacer parar individualmente los aparatos sin que se note el menor cambio en la velocidad de los otros.

Pueden llevarse a efecto muchas operaciones delicadas que necesitan una velocidad igual. La sencillez con que puede regularse ésta, así como ampliar la fuerza motriz, facilita el aumento de producción y hace disminuir el coste de la materia elaborada. Son mucho menos frecuentes los accidentes donde se ha adoptado este sistema. Este hecho, unido a la disminución de ruido, mejor iluminación y mayor espacio, son de gran importancia para patronos y obreros, pues éstos tienen que encontrarse así en mejor disposición para el trabajo.

Las fábricas ya no se ven obligadas a esparcir el humo que lanzan sus chimeneas o el polvillo de sus ventiladores sobre las casas que las rodean, desde que aparatos eléctricos pueden evitarlo, o recoger, como por ejemplo, el polvo, de tanto valor en las fábricas de cemento.

El ozonizador eléctrico instalado en los tubos de salida de vapores que producen mal olor los evita, y permite ejecutar estas operaciones, molestas y desagradables, en locales situados dentro de la población, sin temer a que se opongan sus habitantes. En las fábricas donde es preciso mover hierros de varias formas, grandes y potentes electroimanes, instalados dentro o fuera de los talleres, transportan los materiales de un lado a otro en todo tiempo, ya llueva o nieve, aumentando así su capacidad productora.

Una de las aplicaciones más importantes de la fuerza eléctrica es la que se relaciona con la tracción. Al presente hay dos medios para poder hacer marchar los trenes en nuestros ferrocarriles: la máquina de vapor y la locomotora eléctrica. Necesariamente, la locomotora de vapor se irÁ abandonando poco a poco, debido a su limitado espacio para generar la fuerza precisa con la amplitud y rendimiento conveniente, mientras que
en el tractor eléctrico la energía llega de una estación central capaz de producirla en la cantidad que se requiera.

Una instalación móvil de vapor está sujeta a rápida y elevada depreciación, necesitando un coste de conservación mayor que la sencilla locomotora eléctrica. El molesto humo y el vapor desaparecen con el tractor eléctrico, y esto, que es de la mayor importancia en el caso de las líneas subterráneas de las grandes ciudades, fué frecuentemente la principal razón del cambio de la tracción de vapor por la eléctrica.

El empleo de la tracción eléctrica por todas partes en las líneas de tranvías y metropolitanos subterráneos se debe, como hemos dicho, principalmente a esta propiedad especial de no producir humo, y  también a la de poder establecer motores encada coche y así mover uno o varios, formando trenes según las necesidades del tráfico.

Las aplicaciones eléctricas han hecho incalculables beneficios mejorando las condiciones de la vida, pues por ellas, en muchas ciudades industriales, los s obreros pueden habitat en la parte más sana de los alrededores, sin perder demasiado tiempo en trasladarse desde su casa al almacén, tienda o taller donde prestan sus servicios.

Aquellos que viven en poblaciones extremadamente densas, por otro lado, pueden salir económicamente al campo para deseansar del torbellino de la ciudad. Las relaciones sociales, el cambio comercial, el mismo paisaje, todos ellos perderían extraordinariamente sin el motor sin humo. Las rápidas líneas de tranvías interurbanas, en regiones menos pobladas, transportan pasajeros y mercancías a las granjas situadas en su ruta. De este modo se tienen medios económicos y convenientes para efectuar las diversas transacciones entre los productores y los que consumen en las ciudades.

El transporte de pasajeros y mercaderías por medio de las líneas eléctricas, el teléfono y el telégrafo, acortan las distancias de tal suerte, que los habitantes del campo están en íntima comunicación entre sí, pudiendo aprovecharse de estas grandes mejoras.

Fuente Consultada:
Colección Moderna de Conocimientos Universales – La Era de la Eléctricidad – Tomo II – Editores W.M. Jackson, Inc.

 

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer «la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en «V», puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en «V», grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en «V», el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en «V» próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación «vuela» sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en «V», la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Biografia de Cavendish Trabajo Cientifico Vida y Obra

Biografía de Cavendish Trabajo Científico

Enrique Cavendish nació en Niza (Francia), en 1731. A la edad de 11 años íue enviado a la escuela en Hackney (Londres). En 1749 pasó a Cambridge, pero salió de allí sin haber obtenido ningún título. Perteneció a la Royal Society desde 1760 y, a partir de ese año, se dedicó, por su cuenta, al estudio de las matemáticas y de la física. Seis años después publicó trabajos sobre las propiedades del hidrógeno y del ácido carbónico.

Enrique Cavendish

Gran científico británico nacido el 10 de octubre de 1731. No muy famoso, pero destacado porque fue el primero en medir la densidad y composición de la atmosfera terrestre. Analizó la densidad media del nuestro planeta, descubrió el gas argón, inventó el pendulo de torsión, y propuso la ley de atracción electrica entre cargas de distinto signo. LLegó a poner en riego su vida al realizar experimentos con corrientes elétricas. Tenía una vida muy excentrica, y gozaba de una excelente posición social y económica.

Al mismo tiempo, investigaba las propiedades del calor, llegando independientemente a los conceptos de calor latente y calor específico, pero nunca se atrevió a publicar los resultados de sus investigaciones. También descubrió el nitrógeno, describiendo sus propiedades más importantes.

La  mayor contribución  de Enrique  Cavendish a la ciencia fue el descubrimiento de la composición del agua. Debe recordarse que la teoría del flogisto desorientó a los químicos durante algún tiempo, y que él, como muchos de sus contemporáneos, la apoyó.

Primero realizó experimentos sobre la composición del aire, demostrando que era constante. Luego mezcló dos partes de aire inflamable (hidrógeno) con una de aire desflogisticado (oxígeno) en el interior de un globo de cristal, haciendo explotar la mezcla por medio de una chispa eléctrica.

Otros químicos de su tiempo no se habían fijado en el rocío o empañamiento que se produce en las paredes de cristal del globo después de esta explosión. Cavendish comprobó que el peso del globo no había variado. Comprendió que los gases se habían combinado, dando agua. Como no publicó sus investigaciones, se suscitó una controversia, puesto que algunos atribuían el descubrimiento a Jacobo Watt, el inventor de la máquina de vapor.

En conexión con este experimento, descubrió la composición del ácido nítrico. A veces, las gotas de condensación que quedaban en ‘ las paredes del recipiente eran ligeramente acidas, y, al analizarlas, comprobó que tenían ácido nítrico. Explicó este hecho mediante la hipótesis de que el ácido se formaba por combinación del nitrógeno con los otros dos gases. El nitrógeno se encontraba allí como impureza.

Esto pudo demostrarlo añadiendo más nitrógeno, con lo cual se formaba más ácido nítrico. En sus años postreros viajó por toda Inglaterra, tomando nota de las formaciones rocosas y del paisaje. Su último gran experimento fue el descubrimiento de la atracción gravitatoria entre los cuerpos, lo que equivale a pesar la Tierra, como es denominado en algunas oportunidades.

obra cientifica de cavendish

El globo de explosión (reacción) que Cavendish usó se llenaba con los gases y se pesaba de la manera mostrada. Entonces se hacía explotar la mezcla por medio de una chispa eléctrica. Averiguó que el peso no cambiaba y que los gases desaparecían, quedando unas gotas de agua condensada en  las  paredes del  globo.  Se  basó en este experimento   para    explicar   ta    composición    del    agua.

Ampliar Sobre El Peso de la Tierra de Cavendish

Procesos Para Obtener Metales desde Minerales

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos. El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros. La cantidad de metales que existen en la corteza terrestre es relativamente pequeña. Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos. Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral. Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas. La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %. Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—. Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado. Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero. El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.   El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

METALURGIA: El campo de acción que abarca la metalurgia es verdaderamente amplio. Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características. En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales). El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre. Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

Minerales de Hierro

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado. En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado. Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente. Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición. Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente. Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente. Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos. En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables. Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza. El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación. Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada. Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación. También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.
El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia. Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable. Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción. También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta. Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos. Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales. La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia. La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año. En el- futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Programas de Exploracion Espacial Cronología Las Misiones al espacio

Programas de Exploración Espacial
Cronología Las Misiones al Espacio

Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el Año Geofísico  Internacional , pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958.

Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960.

A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Tabla siguiente es un resumen de los principales programas de exploración del espacio:

NombrePaísFechasLogrosMiembros
SputnikURSS1957-1958Primer
Satélite
Valery Byskovsky.Yuri Gagarin, Adrián
Nikolayaev, Pavel Popovitch, Valentina
Tereshkova, GhermanTitov
Malcolm Scott Carpenter, L. Gordon
Cooper
.John Glenn,Virgil Grissom,
Walter Schirra, Alan Shepard
ExplorerEE.UU.1958-1984Experimentos
Científicos
PionnerEE.UU.1958Investigación
de la Luna
LunikURSS1959Aterrizaje
en la Luna
VostokURSS1961-1963Primer Vuelo
Tripulado
MercuryEE.UU.1961-1963Americanos en el Espacio
VeneraURSS1961-1983Investigaciones
de Venus
RangerEE.UU.1961-1965Alunizajes
MarinerEE.UU.1962-1974Mercurio, Venus
y Marte
OSOEE.UU.1962Estudio Solar
MarsURSS1962-1971Investigación
de Marte
Pavel Belyayev, Konstantin Feoktistov,Vladimir
Komarov, Alexei Leonov, BorisYegorov
Edwin Aldrin, Neil Armstrong, Frank
Borman, Eugene Cernan, Michael Collins,
Charles Conrad, L Gordon Cooper.Virgil
Grissom, James Lovell, James McDivitt,
Walter Schirra, David Scott, Thomas
Stafford, Edward White, John Young
VokshodURSS1964-1965Vuelos espacial con tres tripulantes
GéminisEE.UU.1964-1966Prueba de Vuelos Lunares
LunaURSS1966Fotografía
Lunar
Luna OrbiterEE.UU.1966-1967Cámara en
órbita lunar
Adwin Aldrin, William Anders, Neil Armstrong,
Alan Bean, Frank Borman, Eugene Cernan,
Michael Collins, Charles Conrad, Walter
Cunningham, Charles Duke, Don Eisle,
Richard Gordon, Fred Haise, James Irwin,
James Lovell, Edgar Mitchell, Stuart Roosa,
Walter Schirra, Harrison Schmitt, Rusell
Schweickart, David Scott, Thomas Stafford,
Jack Swigert,Alfred Worden, John Young
SurveyorEE.UU.1966-1968Robot Lunar
ApoloEE.UU.1966-1975El hombre llega
a la Luna
SoyuzURSS1967-1986Estación
Espacial
Vladimir Dzanibekov, Georgi Grechko, Alexei Gubarev, Pyotr Klimuk, Vladimir Remek,Yuri Romanenko, Víctor Savinykh, Svetlana Savitskaya.Vladimir Shatalov, Vitaly Stevastyanov, Vladimir Vasyutin, Vladimir Volkhov Alan Bean, Gerald Carr, Charles Conrad, Owen Garriott, Edward Gibsonjoseph Kerwinjack Lousma, William Pogue, Paul Weitz
SalyutURSS1971-1986Estación espacial tripulada
SkylabEE.UU.1973-1974Primera estación espacial americana
ATMEE.UU.1973-1974Estudio Solar
Apolo-SoyuzEE.UU./URSS1975Emprendimiento InternacionalVanee Brand, Valery Kubasov, Alexei Leonov, Donald Slayton,Thomas Stafford
VoyagerEE.UU.1977-1986Estudio de Gigantes
de Gas
Valery Byskovsky.Yuri Gagarin, Adrián Nikolayaev, Pavel Popovitch,Valentina Tereshkova, GhermanTitov Malcolm Scott Carpenter, L. Gordon Cooper.John Glenn,Virgil Grissom, Walter Schirra,Alan Shepard
SMMEE.UU.1980-1989Estudio
Solar
TransbordadorEE.UU.1981-?Naves tripuladas de uso reiterado
SpacelabEE.UU./AEE1983Laboratorio espacial de uso reiterado
VegaURSS1985Estudio atmosférico de Venus y fotos del cometa Halley
MirURSS1986-?Estación
Espacial
Pavel Belyayev, Konstantin Feoktistov,Vladimir Komarov, Alexei Leonov, BorisYegorov Edwin Aldrin, Neil Armstrong, Frank Borman, Eugene Cernan, Michael Collins, Charles Conrad, L. Gordon Cooper.Virgil Grissom, James Lovell, James McDivitt, Walter Schirra, David Scott,Thomas Stafford, Edward White, John Young
GiottoAEE1986
SuseiJapón1986
BuranURSS1988
FobosURSS1988
GalileoEE.UU.1992-?
CassiniEE.UU./AEE1996

 

Morris en Inglaterra Origen y Desarrollo de la Industria automotriz

Desarrollo del Auto Morris en Inglaterra

William Richard Morris, o “W.R.M.” como se le ha llamado siempre, fue el creador de la industria automovilística moderna en Inglaterra. Partiendo casi de la nada en 1910, edificó su gran organización. En los umbrales ,de la Segunda Guerra Mundial, Morris Motors empleaba cerca dé uno de cada cuatro trabajadores de la industria inglesa del motor. William Morris no contaba con ninguna dé las ventajas e influencias que proporciona una familia adinerada, ni tampoco con una educación secundaria. Nació de familia humilde en Worcester en 1877 y asistió a la escuela local de la aldea de Cowley, condado de Oxford.

William Richard MorrisQuería ser cirujano, pero tuvo que abandonar pronto la escuela y comenzar a trabajar en una tienda de bicicletas que había en el pueblo. Morris combinaba su habilidad en la mecánica con su gran capacidad de trabajó, sin que disminuyese la calidad de su labor. Pronto fue capaz de abrir su propio taller de reparación de bicicletas en la calle principal de Cowley. Simultáneamente, comenzó a practicar el nuevo y popular deporte de las carreras de bicicletas, ganando en siete ocasiones.

Cuando contaba veinte años, los automóviles empezaron a hacer su aparición en las carreteras inglesas. Un enjambre de pequeñas empresas construían coches de gran precio para placer de los ricos. Como ya hemos visto, en los Estados Unidos, Henry Ford se percató de las perspectivas que ofrecía la producción de automóviles a gran escala. Morris tuvo una idea similar y se entusiasmó con las perspectivas que había con el nuevo invento.

Empezó a diseñar su propio coche, y en 1910, a la edad de 33 años, completó el diseño de un coche al que bautizó con el nombre de Mons Oxford. Como disponía de escaso capital, convenció al duque de Macclesfield para que le prestase una suma, cuyo importe distintas versiones sitúan entre 2.000 y 30.000 libras. Alquiló lo que anteriormente había sido una escuela en la Cowley Road y construyó un pequeño taller detrás. Simplemente provisto de anteproyectos, vendió 400 coches a 165 libras cada uno.

El Morris Oxford tuvo un éxito fulminante y no tardó en ser una presencia familiar en las carreteras inglesas. Reclamado por la Primera Guerra Mundial, al terminar la misma Morris reanudó su trabajo donde lo había dejado. En 1920 vendió cerca de 2.000 coches a 400 libras la unidad y, al año siguiente, redujo audazmente su precio a 225 libras en el punto álgido de una recesión, logrando vender más de 3.000. La industria del motor fue la industria inglesa que conoció un crecimiento más raipido y Morris se situó en vanguardia.

En 1926, General Motors ofreció a Morris 11 millones de libras por su firma, y la oferta fue rechazada. En lugar de eso, Morris decidió convertir su empresa en sociedad anónima con el nombre de Morris Motors Ltd., con un capital de tres millones de acciones de una libra y ocho millones de acciones de cinco chelines.

Morris fue uno de los primeros dirigentes de la Gran Empresa en Inglaterra que recibió una distinción honorífica. En 1929 obtuvo una baronía, y cinco años más tarde se le distinguió con el título de barón Nuffield de Nuffield. En 1938 fue nombrado vizconde. Con todo, siguió siendo un hombre de gustos sencillos.

Recordando a Ford, se jactaba constantemente de que era capaz de diseñar, fabricar y vender cualquier pieza de la vasta gama de vehículos que controlaba. Su modo de vida era espartano, y su capacidad de trabajo no decayó nunca.

Su despacho siguió siendo la vieja y apolillada sala del director en la escuela de Cowley Road. No delegaba fácilmente el poder, otro rasgo que compartía con Ford y, como Ford, cuando se marchó dejó una organización que estaba lejos de ser eficiente. Prefiriendo sus propios métodos, Monís riñó con su subdirector L.P. Lord poco antes de la guerra y Lord se fue para convertirse en el director de Austin Motors.

También al igual que Ford, Morris Motors fue edificada en gran parte gracias a la reinversión de los beneficios. No había contribuido con más de mil libras de su propio bolsillo al empezar, y, tras haber devuelto el dinero que le había prestado el duque de Macclesfield tan pronto corno pudo, Morris creó una empresa en la que los beneficios acumulados ascendían al estallar la Segunda Guerra Mundial a 30 millones de libras.

Lord Nuffield pronto se sumó a los grandes filántropos industriales. Creó la Fundación Nuffield, con casi cinco millones de acciones de su compañía, para promover la investigación científica y médica y para mejorar la salud pública. Simultáneamente, donó más de 6 millones de libras en efectivo, en su mayor parte a la Universidad de Oxford, donde fue fundada una nueva escuela médica, y se estableció el Nuffield College.

En reconocimiento por sus servicios la Universidad le nombró doctor en Derecho civil y tanto se emocionó durante la ceremonia, que se levantó, interrumpiendo los actos, y anunció que iba a contribuir con 900.000 libras más.

Historia de la Televisión en Argentina Primeras Transmisiones de TV

Historia de la Televisión en Argentina
Primeras Transmisiones de TV

La televisión argentina llegó a los hogares durante los primeros años de la década del ’50. Algunos padres de los adolescentes actuales nacieron con ella, la mayoría nació después. La televisión fue un instrumento altamente codiciado por sus potencialidades: era un medio privilegiado para extender la cultura, la educación y la información; permitía unir a cada ser humano con el resto de los habitantes del mundo.

Se alcanzaba la universalización de la cultura pregonada siglos atrás, cuando se creó la imprenta. La aparición de la televisión auguraba la posibilidad de que ningún grupo humano quedara relegado y aislado: todos podrían acceder a la educación y al conocimiento de los avances científicos. Pero, tan halagüeñas posibilidades sólo se cumplieron muy parcialmente.

Las programaciones que instrumentaron los distintos países tuvieron muy poco en cuenta esa misión cultural y educativa. Los principales programas fueron series en las cuales la violencia y la delincuencia eran protagonistas. (Ver también: Historia de los Medios de Comunicacion en el Mundo)

LA EVOLUCIÓN DE LOS MEDIOS DE COMUNICACIÓN: A partir del incesante avance de la ciencia y de la tecnología, la comunicación dejó de ser exclusivamente oral para desarrollarse a través de otros medios, como la prensa, la radio, el cine y la televisión.

En la actualidad, las sociedades industrializadas dependen, en gran medida, de los medios de comunicación masivos. Su sistema económico —basado en la compraventa generalizada—, la compleja división del trabajo y las necesidades del Estado para cumplir con sus funciones requieren de estos medios para difundir la información del modo más rápido y a la mayor cantidad de personas posible. De allí que cada vez sea más estrecha la relación entre los grandes grupos económicos y las grandes cadenas de comunicación.

LA TELEVISIÓN

A manera de predicción, en un diario norteamericano, hacia 1892, apareció un articulo que informaba que con el tiempo, se transmitirían por el aire todo tipo de imágenes a través de un “telectroscopio” así lo denomino este medio. En el siglo XX, gracias a varios años de investigaciones y descubrimientos técnicos, esta profecía se cumplió. En 1928 ,se le otorgó a la General Electric la primera licencia para operar una estación experimental de TV.

En 1936, Gran Bretaña inauguro el primer ciclo de emisiones regulares de televisión a través de la BBC no obstante, desde comienzos de siglo, se venía probando con la transmisión de imágenes a distancia. Pero el estallido de la Segunda Guerra Mundial llevó a concentrar todo el esfuerzo tecnológico en el conflicto. Durante éste, la RCA impulsó investigaciones que lograron perfeccionar las imágenes televisivas en los Estados Unidos. Al finalizar el conflicto, los aparatos llegaban a los tres millones y las estaciones emisoras, a doscientas. El nuevo medio contaba con ventajas propias para su rápido éxito.

El televisor tuvo su época de mayor expansión en la década del 50, el mismo se extendió en gran parte de Occidente. En 1962, se realizó la primera transmisión directa vía satélite a través del Atlántico. Sin embargo, la primera transmisión vía satélite vista, simultáneamente, en casi todo el mundo fue la llegada del primer hombre a la Luna, el norteamericano Neil Armstrong, el 21 de julio de 1969.

En el contexto de la guerra fría, en 1988, con la puesta en órbita del satélite franco-alemán TDF-1, se inició en Europa la era de la teledifusión directa, cuyos programas podían ser captados por una antena satelital parabólica individual.

Historia del Invento

Así comenzó la Televisión Argentina…

En 1926, en Londres, John Baird consiguió emitir y recibir imágenes a distancia; solo un cuarto de siglo más tarde, concretamente el 17 de octubre de 1951, a las dos de la tarde, Eva y Juan Perón aparecieron en las pantallas de los primeros y escasos aparatos Rayhteon, Capheart y Dumont que había en la Argentina.

Culminó así el esfuerzo de años de Jaime Yankelevich, un pionero de la radio que también lo fue de la televisión. La emisión inicial, por supuesto que en blanco y negro, y con Imágenes que se deformaban o eran invadidas por caprichosas líneas geométricas, mostró a la pareja mandataria que presidía el Día de la Lealtad desde la Plaza de Mayo.

Frente a los escaparates de los comercios de aparatos electrónicos, o en muy pocos hogares, los porteños se maravillaron con el nuevo medio de comunicación, y vieron cómo los locutores Isabel Marconi y Adolfo Salinas leían, en cadena con Radio del Estado, los partes oficiales. Con todo, y en principio, solamente la Capital Federal y el Gran Buenos Aires recibieron las emisiones. A medida que los receptores se alejaban del lugar de transmisión (la antena estaba en el edificio del ministerio de Obras Públicas, en la 9 de Julio y Moreno), se requería de antenas cada vez más elevadas para capturar alguna imagen.

El primer programa emitido desde el Canal 7, el único durante años, fue transmitido desde los salones del hotel Alvear, actuaron el ballet y el coro del Teatro Colón, y a continuación se realizó un programa de entrevistas. Los presentadores eran locutores radiales, como los ya mencionados Marconi y Salinas, además de Hebe Gerbolés, Juan Piñeiro y Jaime Más. En directo (los tapes y las grabaciones vinieron mucho después), sin maquillaje, lo cual los hacía ver afantasmados, hablaban como si estuvieran frente al micrófono radial. Pero la tevé criolla había nacido.

LA TELEVISIÓN EN LA ARGENTINA EN LOS 60 Y EN LOS 70

Historia Primeras Transmisiones de TVEn la Argentina, la televisión se inauguró en 1951, pero se tomó accesible y popular a principios de los 60. Hasta mediados de la década, predominaron las series de origen norteamericano: las historias del Lejano Oeste, con sus clásicos muchachitos: los vaqueros.

Sin embargo, paulatinamente, retornaron a EE.UU. aquellos libretistas y autores perseguidos por el macartismo (termino que se refiere a la persecución comunista presidida por el Senador Mac Carthy) quienes les dieron un toque inteligente y crítico a las series de humor.

Surgieron así Los Locos Adams y El Superagente 86, sátiras de géneros clásicos como el terror y el espionaje. Estas series deben ubicarse en el contexto de la guerra fría donde el espionaje y las fuerzas de seguridad como la CIA no eran construcciones televisivas.

Este auge del humor televisivo tuvo un correlato en nuestro país, sobre todo a partir de las producciones de Canal 13. Así, surgieron comedias como “La Nena” y “Dr. Cándido Pérez Señoras”, recreaban con un nítido toque local, modelos importados.

Uno de los éxitos más notables fue el de Pepe Biondi en Viendo a Biondi, quien introdujo lo que se transformó en un clásico de nuestra TV: la creación de eslóganes, frases y palabras que se incorporaron al habla cotidiana.

Ésta fue la época de Sábados Circulares de Mancera, el primer programa con una gran producción periodística y técnica que hizo conocer al público argentino a figuras como Joan Manuel Serrat e introdujo la “cámara sorpresa”.

También se destacaban, La Feria de la Alegría, un programa de entretenimientos, regalaba departamentos y autos, y Carlitos Balá entraba a la pantalla chica con la pregunta: ¿Qué gusto tiene La sal?.

Frente a estos programas de mero entretenimiento, Tato Bores ponía en aprietos a los gobiernos de turno con sus incisivos monólogos.

A comienzos de los 70, proliferaban los programas cómicos, como Operación Ja Ja, La Tuerca y Telecómicos.  A la hora de la merienda, llegaba el Capitán Pituso con Alberto Olmedo. Los domingos a la noche la cita obligada era Titanes en el Ring con Martín Karadagián, creador de decenas de personajes como La Momia.

Los adolescentes aprendían el paso de baile de moda mirando Alta Tensión y Música en Libertad, y los adultos se informaban viendo El reporter ESSO.

La mayor parte de la televisión argentina en estas décadas se caracterizó por un predominio de programas destinados al ocio y al entretenimiento, salvo Tato Bores la mayoría no producía ninguna critica a la sociedad y al gobierno de turno. Fue una época caracterizada por largas dictaduras.

AMPLIACIÓN DEL TEMA:

En Argentina se hicieron envíos experimentales, pero recién en 1951 se concretó la la transmisión pública inaugural, por Canal 7, estatal , (EE.UU. llevada 15 años de adelanto). No habiendo video-tape, se salía en directo con medios precarios y esfuerzos casi heroicos de técnicos y protagonistas en cámara.

Los primeros famosos fueron locutores, derivados de la radio, como Adolfo Salinas, Guillermo Brizuela Méndez, Nelly Trenti y Nelly Prince, a quienes: tiempo después se sumaron Pinky, Jorge «Cacho» Fontana, Colomba y Antonio Carrizo, entre los pioneros.

En 1956, con los primeros televisores nacionales, se inició la serie de telenovelas, con el «Teleteatro a la Hora del Té» que interpretaban Fernando Heredia y María Aurelia Bisutti. Más de 50.000 hogares veían nuestra TV, pero los entendidos decían que debía doblarse esa cifra. Por eso vinieron mejores programaciones, desfilando figuras como Chas de Cruz (Diario del Cine), Analía Gadé, Iris Marga, Julia Sandoval, Juan Carlos Thorry, Gloria Guzmán, Augusto Bonardo, el diseñador de modas Jean Cartier, Alberto Olmedo —alternando su tarea de técnico con la de incipiente cómico—, Mendy y el fútbol!, acaparador de audiencias y alto «cachet».

También proliferaron los programas de preguntas y respuestas, los animadores como Héctor Coire y Antonio Carrizo, las comedias ligeras con Jorge Salcedo, Mirtha Legrand, Ángel Magaña, Osvaldo Miranda, María Concepción César y Mariano Mores; los cantantes con Antonio Prieto, Luis Aguilé, Edmundo Rivero; los envíos periodisticos; Blackie, Silvia Legrand, Andy Russell, los cómicos Bala, Locatti y Marquesini, el ballet de Eber Lobato con su esposa, la bailarina Mary Lobato, conocida como Nélida; Tito Martínez del Box inaugurando «Canal 7 informa», los Martín Fierro de APTRA, entidad de los periodistas especializados.

Mientras tanto, ya en 1959 había 823.000 televisores, asignándose las bandas para los canales 9, 11 y 13, así como para otros del interior. Se agregan figuras como Norma Aleandro, Alberto Olmedo consagrado ya, un joven llamado Ramón Ortega, que no era otro que el famoso Palito; María Antinea, Nat King Colé, Doménieo Modugno, Paul Anka y José Iturbe, mientras Pinky es proclamada «la mujer del año», por su éxito televisivo.

En 1960 se inauguran los canales 9 y 13, con figuras como Narciso Ibañez Menta, Alberto de Mendoza, Tita Merello, Luisa Vehil, Pedro López Lagar, Luis Sandrini, Ángel Magaña, Osear Casco, José Marrone, Ariel Ramírez, Jorge Salcedo, Ramona Galarza, Teddy Reno, María Antinea, Bobby Capó y Tony Bennet. A fin de esa año se inicia la medición de audiencia o fiebre del «rating».

En el 13 se ven «Los Trabajos de Marrone», «Casino», «Buenas tardes, mucho gusto», y en 1961 inaugura el Canal 11, realizando además la primera transmisión internacional, desde Punta del Este. Lo demás es historia conocida: la puja por la audiencia, las series norteamericanas, los largóme-trajes antiguos, Porcel, Pepe Biondi, «Tato siempre en domingo», el cable coaxil, Fidel Pintos, Troilo y Grela, D’Arienzo, Canaro, Andrés Segovia, Hugo del Carril, Alfredo Alcen, el primer «programa ómnibus» de Pipo Mancera y los que se le opusieron («Sábados continuados» y otros), el Club del Clan, Titanes en el Ring, Telecataplum, la Revista Dislocada, Yo quiero a Lucy; «Yerma», de García Lorca, Trini López, Ana María Campoy y José Cibrián, Sarita Montiel, Charles Aznavour, las hermanas Legrand, juntas; La Tuerca, Teatro como en el Teatro, Josefina Baker, la despedida de Azucena Maizani, Tita Merello, Edmundo Sanders, Julio Marbiz, Obras de Terror (Narciso Ibáñez Menta), Tatín, Julio Jorge Nelson, Rita Pavone, Juan Verdaguer, Nelly Beltrán, Fernanda Mistral, Lautaro Murúa, Ruta 66, Doménico Modugno, Niní Marshall, Pepe Iglesias «El Zorro», Sergio Renán, Lucho Gatica, Almorzando con Mirtha Legrand (se lanza en 1968), el Topo Gigio, Nati Mistral, Xavier Cugat y las mismas series televisivas norteamericanas. Otros nombres importantes se suman a nuestra TV, incluso el 20 de julio de 1969 se cubre el primer viaje lunar y en setiembre se inaugura la primera antena parabólica o estación terrestre «vía satélite» de Balcarce con un mensaje de salutación del Papa Paulo VI, desde Roma.

Se modernizaron los programas, cundieron los periodísticos, la telenovelas de la tarde, grandes coberturas deportivas, se transmite el Mundial ’74 de fútbol desde Alemania, se pasan al Estado todos los canales y decae su eficacia y, finalmente, se crea el Ente Argentina ’78 TV, construyéndose las monumentales instalaciones de Figueroa Alcorta y Tagle que tras el éxito sensacional del Mundial ’78, pasaron a ser sede de ATC (Canal 7). (Fuente Aniversario 75° Años de LA RAZÓN 1905-1980- Historia Viva)

PARA SABER ALGO MAS…
Comunicación visual instantánea: la televisión

Durante los años 20, la gente aceptaba con naturalidad complejos medios de comunicación que pocas décadas atrás se habían considerado milagros de la ciencia aplicada. Los sistemas de telégrafo y teléfono disponían de redes mundiales, basadas en decenas de miles de kilómetros de cable conductor. Por otra parte, la posibilidad de la transmisión inalámbrica del sonido se había convertido en una realidad; las empresas de radiodifusión acababan de nacer, pero estaban creciendo rápidamente.

El cine cautivaba a millones de espectadores registrando imágenes sobre una película para reproducirlas posteriormente sobre una pantalla. En el complejo mundo de las comunicaciones quedaba sin embargo un vacío: faltaba un sistema que permitiera ver los acontecimientos en el mismo momento de estarse produciendo del mismo modo que la radio permitía oír la voz en el momento mismo en que se emitía.

En un sector pletórico de adelantos técnicos, resulta difícil atribuir la invención de la televisión a un solo individuo; pero sin duda alguna, la persona que ocupaba el centro de la escena en los años 20 era John Logie Baird, inventor de un sistema fotomecánico en el que la imagen era barrida por un disco en rápida rotación, dotado de una serie de orificios dispuestos en espiral. De esta forma, toda la imagen era barrida en el curso de una revolución. La señal luminosa de cada orificio se transformaba en señal eléctrica mediante una célula fotoeléctrica y se generaba la correspondiente señal de radio. El receptor consistía en un disco similar.

A medida que las diferentes señales luminosas pasaban sucesivamente a través de los orificios, se formaba sobre una pantalla una imagen correspondiente a la original. El sistema no destacaba por su originalidad porque Paul Nipkow, en Alemania, había patentado un disco rotatorio similar en 1884, aunque con la idea de que funcionase conectando el emisor y el receptor por medio de un cable.

Nipkow no desarrolló su idea, pero lo hizo el ruso Boris Rosing en 1906, combinando el disco con el oscilógrafo de rayos catódicos inventado por el físico alemán F. Braun diez años antes.

El nuevo dispositivo permitía sustituir el segundo disco y modular la mancha de luz que se movía a gran velocidad sobre líneas paralelas en el tubo, provocando así (por el fenómeno de persistencia visual) la ilusión de una imagen continua.

Sin embargo, los amplificadores de la señal que existían en aquella época no eran suficientes para producir imágenes claras. Mientras tanto, en Gran Bretaña, A.C. Swinton propuso, pero no llegó a desarrollar, otro sistema en el que tanto el emisor como el receptor se basaban en el oscilógrafo de rayos catódicos.

Baird perserveró en el intento y el 27 de enero de 1926 ofreció la primera demostración pública de televisión, en la Royal Institutionde Londres. En septiembre de 1929, la BBC comenzó a emitir señales de televisión con el sistema de Baird y, durante el mismo año, la institución alemana de correos hizo lo propio. Baird sabía hacer publicidad; entre sus más espectaculares logros figuran una transmisión transatlántica en 1928 y la proyección en un cine de Londres de la llegada de la carrera de Derby de 1931. Sin embargo, su éxito no fue duradero, pues su sistema fotomecánico no se encontraba en la línea principal de desarrollo del nuevo medio.

Otros investigadores estaban estudiando el sistema electrónico de Rosing. Entre ellos figuraba Vladimir Zworykin, un antiguo alumno de Rosing en San Petersburgo. Tras la revolución de 1917, Zworykin huyó a Estados Unidos y consiguió un empleo en la RCA, donde en 1929 llegó a ser director del departamento de investigación. Desde este puesto contribuyó grandemente al desarrollo de un sistema electrónico de transmisión y recepción, semejante al propuesto por Swinton.

En noviembre de 1936, la BBC de Londres inició las emisiones regulares de televisión con el nuevo sistema.

LA TELEVISIÓN Y LA POLÍTICA: La influencia de la televisión modificó profundamente las estrategias electorales. El célebre debate entre John F. Kennedy y su rival Richard Nixon hizo evidente la importancia de la imagen televisiva en los resultados electorales. Según los análisis posteriores, en esa ocasión, tuvieron gran peso sobre la opinión del público diversos aspectos de la imagen televisiva: la palidez de Nixon frente al aspecto fuerte y saludable de Kennedy, los colores de sus ropas, la escenografía.

Con el desarrollo de la televisión, los equipos de campaña, han comenzado a incluir especialistas en imagen -para asesorar a los candidatos en sus presentaciones televisivas- y especialistas en marketing que, por medio de encuestas, investigan las opiniones de la población. Así, se fue abandonando el estilo retórico y efectista de los mitines electorales, para dar cada vez más espacio a rápidas series de pequeños avisos de fuerte impacto emocional. Las prolongadas conferencias radiales que Ricardo Balbín o Arturo Frondizi pronunciaban en la campaña de 1958 han sido sustituidas por el video-clip, la participación de los candidatos en mesas redondas televisadas, e incluso en programas de entretenimiento.

En 1988, en Chile, por ejemplo, se realizó una consulta popular que debía decidir, por sí o por no, la continuidad de la dictadura de Pinochet. La campaña por el NO utilizó un video-clip con imágenes típicamente publicitarias, combinadas con un fondo musical alegre, «La alegría ya viene». Esta campaña logró presentar eficazmente la propuesta de encarar con optimismo un camino democrático.

Aunque en toda campaña se mantienen los actos partidarios y la tarea callejera de los militantes, estas actividades tratan de organizarse de modo que la televisión pueda multiplicar su alcance. Si al comienzo (a televisión mostraba lo que sucedía fuera de ella, en la actualidad cada vez es mayor la tendencia a producir hechos para que sean mostrados por TV.

Ver: Breve Historia de la Comunicación Humana

Ver:Avances Cientificos Despues de la Guerra Television Color TV Color

Historia de la Radio y Evolucion Resumen Primeras Transmisiones

Resumen de la Historia de la Radio y Su Evolución

LA EVOLUCIÓN DE LOS MEDIOS DE COMUNICACIÓN: En un principio, la comunicación se mantenía exclusivamente mediante canales orales, con el avance científico tecnológico se desarrollaron otros medios como la prensa, la radio, el cine y la televisión.

En la actualidad, los medios de comunicación se vuelven indispensables para las sociedades industrializadas: su sistema económico basado en la compraventa generalizada, la división del trabajo que se torna cada vez más compleja y el Estado para cumplir con sus funciones necesitan de estos medios para transmitir la información con celeridad y al mayor número de personas. A partir de esto, se explica la estrecha relación que existe entre los grupos macroeconómicos y las empresas de comunicación.

ORÍGENES CIENTÍFICOS:

Las ondas electromagnéticas, fueron investigadas por primera vez, por un científico británico, llamado James Clerk Maxwell a fines del siglo XIX, los cuales fueron confirmados por por Rudolf Hertz, quien notó que estas viajan a una gran velocidad, y pueden transportar o transmitir sonido, por medio de ellas.

Ya que con aquella velocidad, se podría transmitir sonidos a distancias lejanas, sin tener problemas de tiempo en cuanto a la recepción de los mismos. Los pasos dados por Hertz y Maxwell, cimentaron lo que después sería la radio.

Sin sus investigaciones, no hubiera sido posible, en su época, el haber logrado transmitir frecuencias radiales.

Más complejo se vuelve el escenario, con el devenir de los años. Ya que luego de las investigaciones de Hertz y Maxwell, a los pocos años, tres personas diferentes, en distintos países, lograron transmitir ondas radiales.

Por un lado Alexander Popov en Rusia. Nicolás Tesla en los Estados Unidos y Guillermo Marconi, en el Reino Unido.Quien fue el primero en patentar la radio como tal. Aparte, que no demoró mucho, en comenzar a comercializarla.

Claro que en ciertos países europeos, fue rechaza la patente adquirida por Marconi, ya que era conocido que el ruso Popov, había desarrollado anteriormente, un emisor y receptor de ondas radiales.

Alexander Popov por su parte, logró en 1896, transmitir el primer mensaje en Rusia, entre dos edificios de la Universidad de San Petersburgo. Por su parte, Marconi comenzaba con la comercialización de los receptores radiales. Abrió una fábrica para ello, en el Reino Unido.

LA RADIO:

A partir de una serie de inventos efectuados en el campo de la electricidad, la telegrafía y la telefonía se desarrolló lo que conocemos como “la radio”.

A fines del siglo XIX, un físico de origen italiano, unificó los avances en estos campos y realizó, en 1901, la primera transmisión transatlántica sin cables de voces humanas. Había nacido la radio.

Historia de los Medios de Comunicación La Radio, El Cine y La TelevisiónEstos avances, insertos en un contexto de competencia imperialista entre las naciones europeo- occidentales, fueron inmediatamente aplicados al campo militar: en la marina de guerra, en la guerra entre Rusia y Japón (1905).

Además, se incorporó en la marina mercante a partir del hundimiento del Titanic (1912). En 1913, había en Europa 330 estaciones emisoras de radiogramas abiertas al público.

Las empresas privadas fueron pioneras en el desarrollo de actividades técnicas e industriales. Hacia 1903 en Alemania, dos compañías privadas –AEG y Siemens–, avaladas por el gobierno, fundaron la empresa Telefunken para la explotación de la radio. A su vez, en EEUU se creó con la misma finalidad la RCA (Radio Corporation of America).

En 1902 se enviaban en forma regular mensajes transatlánticos, y en 1905 ya muchos barcos tenían equipos de radio para comunicarse con emisores de la costa. Las diferentes bandas de radio (onda corta, onda larga y onda media) están asignadas a diferentes propósitos. La radio de onda corta cubre grandes distancias y sirve para comunicaciones internacionales.

Durante la Segunda Guerra Mundial se prohibió en los países del Eje conectarse con emisoras de países enemigos, para que no fueran contradecidos los informes transmitidos oficialmente.

Los radioaficionados se conectan entre sí por medio de la onda corta. Han prestado a veces una ayuda valiosa en caso de emergencias, cuando se han interrumpido las comunicaciones telefónicas.

Según la longitud de onda las emisoras transmiten en AM (amplitud modulada) o FM (frecuencia modulada) en dos bandas distintas del transmisor. En esas bandas hay estaciones que se dedican a pasar todo tipo de música o noticias.

Es frecuente que haya comentaristas que busquen amenizar la transmisión con la conversación, que soliciten la comunicación con los oyentes y que transmitan sus mensajes, para que de este modo su público esté más involucrado con esa emisora, y ésta a su vez tenga mayor audiencia y mayor cantidad de publicidad, que constituyen su sostén económico.

El sistema de radio celular es una versión en miniatura de las grandes redes radiofónicas. Con la exploración del espacio, la radiofonía ha servido para medir distancias calculando el tiempo que transcurre entre la emisión de la voz y la llegada del eco.

Los mensajes de los astronautas llegaron a todo el mundo mediante la red de comunicaciones. La radiofonía se divide en radiotelefonía y radiodifusión, según sea que la emisión esté destinada a otra estación o pueda ser captada por varios receptores a la vez.

El origen de la radiodifusión pública muchos libros extranjeros la ubican el 2 de noviembre de 1920, cuando un ingeniero de Westinghouse, emitió en Pittsburg un reportaje sobre la elección del presidente Harding. Sin embargo, la primera emisión se realizó en Buenos Aires tres meses antes, el 27 de agosto de 1920.

Ese día, a través de la instalación de una antena y un transmisor en el techo del Teatro Coliseo Argentino, se transmitió la ópera Parsifal de Richard Wagner. Los acordes fueron escuchados a la distancia por unos pocos porteños que contaban con equipos receptores.

La transmisión resultó exitosa, más allá de algunos ruidos producidos por la estática.

Historia de los Medios de Comunicación La Radio, El Cine y La TelevisiónAl poco tiempo, se instaló una estación de radio “Vía Radiar”, a través de la cual se transmitían desde funciones del Colón, del Odeón y del Coliseo, hasta partidos de fútbol.

En 1923, Buenos Aires contaba con varias emisoras, entre las que se destacaban como pioneras Radio Sudamérica y Radio Cultura.

Tal es así que en 1924, Radio Cultura transmitió, desde Nueva York, la pelea entre el campeón argentino Luis Angel Firpo y el campeón mundial, Jack Dempsey.

El control de la radiodifusión en las naciones europeas lo tenía el Estado, por el contrario, en EEUU, las empresas privadas –a través de un control monopólico– se encargaron de la explotación económica de la radio. De esta manera, hacia 1928 más del 50% de las estaciones transmisoras (600 en total) pertenecían a tan sólo a tres compañías.

Este instrumento de comunicación fue utilizado también por los distintos gobiernos para difundir sus ideas, desHistoria de los Medios de Comunicación La Radio, El Cine y La Televisiónplazando a la prensa escrita.

Durante la primera mitad del siglo XX, tanto Hitler en Alemania como Roosevelt en EEUU, utilizaron a la radiodifusión para transmitir a nivel nacional: estos mensajes eran recepcionados por todos los habitantes independientemente del lugar geográfico donde estaban ubicados.

El crecimiento y el desarrollo de la radio fue paralelo al de los conflictos mundiales: con el desarrollo de la segunda guerra mundial se mejoro la calidad de la transmisión y de los aparatos receptores.

La radio hacia 1945 vivió su etapa de esplendor.

En 1960 el mundo contaba con mas de 12.000 emisoras y la radio continuaba siendo el medio de comunicación de masas más importante. Sin embargo, en poco tiempo seria superada en audiencia por su principal competidora: la televisión.

Antes de la invención de la televisión, la radio se convirtió en la manera más popular de oír noticias nacionales e internacionales, o de tener entretenimiento en el hogar.

La película de Woody Allen, Días de radio ilustra la importancia que tuvo este medio de comunicación en las décadas anteriores a la llegada de la televisión. Lo que ésta ha suplantado en gran medida son las series de ficción (radioteatro) que se transmitían diariamente y que en muchos hogares se escuchaban como ahora se ven las series televisivas. Pero la función de la radio no ha perdido vigencia.

En muchos lugares de trabajo se escucha música para aliviar la monotonía de la tarea, o en salas de espera están conectados con redes de música «funcional», suave y relajante.

La radio en los transportes es también una buena compañía, al brindar noticias y música a quienes viajan.

CRONOLOGÍA DE SU EVOLUCIÓN:

1865 — James Clerk Maxwell describe por primera vez las ondas de radio que se propagan por el espacio.

1866 — El estadounidense Mahlon Loomis experimenta por primera vez con ondas de radio en las montañas Azules de Virginia.

1872 — Loomis patenta la propuesta de un telégrafo sin hilos mediante electricidad atmosférica.

1887 — Heinrich Hertz demuestra la teoría de Maxwell sobre la existencia de ondas electromagnéticas.

1890 — El francés Edouard Branly construye el primer radioconductor, llamado coherer, capaz de detectar señales de radio.

1895 — Alexander Stepánovitch Popovy Guillermo Marconi inventan la radio por separado.

1896 — Popov realiza la primera transmisión de radio enviando las palabras Heinrich Hertz en morse. Ese año, Marconi marcha a Inglaterra y patenta la telegrafía sin hilos.

1898 — El físico inglés Oliver Joseph Lodge patenta el primer sintonizador que ajusta la misma longitud de onda en el emisor y el receptor. Hay quien dice que fue la primera persona en transmitir una señal de radio en 1894.

1900 — El canadiense Reginal Aubrey Fessenden realiza la primera transmisión de radio con voz humana.

1906 — Fessendel realiza la primera transmisión trasatlántica de voz humana en enero y la primera emisión de voz y música el 6 de diciembre.

1913 — Edwin Howard Armstrong inventa el circuito regenerativo que aumenta la calidad de las emisiones.

1920 — La emisora 8MK Detroit realiza la primera emisión de noticias del mundo. • El primer diario hablado de la historia se emite el 20 de agosto.

1921 — Se realiza la primera predicción del tiempo en la emisora de radio de la Universidad de Wisconsin con voz humana. Hasta ese momento, las predicciones se transmitían mediante alfabeto morse.

1935 — Edwing Armstrong describe por vez primera la Modulación de Frecuencia (FM). Al no utilizarse inicialmente su invención, se suicidó.

1940 — En esta década empieza a funcionar la primera emisora de Frecuencia Modulada en emitir regularmente, WSM-FM, de Nashville, Tennessee.

1947 — Los estadounidenses William Shockley, John Bardeen y Walter Brattain inventan el primer transistor de onda media que se lleva en la mano.

1955 — La empresa Regency Electronics comercializa el TR-1, primer radiotransistor que se puede llevar en la mano.

1991 — La empresa inglesa Trevor Baylis patenta el primer radio reloj de la historia.

PIONEROS, Inventos y descubrimientos claves de la Historia – Teodoro Gómez

PARA SABER MAS…
Armstrong inventa la FM
Desde el inicio de las radiotransmisiones a principios de siglo, los gigantes de las telecomunicaciones como la RCA y la AT&T habían contratado equipos de ingenieros para encontrar un remedio para las interferencias eléctricas. Lo que distingue al inventor norteamericano Edwin Armstrong, que en 1933 registró cuatro patentes en la frecuencia radiofónica de la FM, fue el deseo de enfrentarse a la tradición. Mientras los expertos trataban el sistema ya existente de transmisión por modulación de amplitud de ondas (AM), Armstrong creó un sistema que modulaba la frecuencia de las ondas radiofónicas, en vez de la magnitud. El sistema de Armstrong, prácticamente inmune a las interferencias eléctricas y dócil a una amplia gama de sonidos, consiguió una claridad de transmisión más allá de lo imaginable.

Muchos ingenieros habían experimentado anteriormente con la FM, pero la habían desechado a causa de las distorsiones de sonido que provocaba. Armstrong descubrió que cuando la banda de frecuencia modulada se ensanchaba, las distorsiones desaparecían, y las interferencias eléctricas también. La mayoría de los locutores pensaba que una banda más estrecha significaba menos interferencias eléctricas. Armstrong demostró que estas interferencias estaban en función de la amplitud y que los principios para reducirlas en la AM no podían aplicarse a la FM.

Frente al cambio, los empresarios de la radio se mostraron prudentes. La radio constituía un gran negocio, y las emisoras comerciales habían realizado fuertes inversiones en la AM. El sistema de Armstrong amenazaba con hacer obsoletos los transmisores y receptores corrientes. Finalmente, en 1939, Armstrong estableció su propia emisora de FM (inventos anteriores lo habían hecho rico) y la utilizó para alimentar el crecimiento del sistema. Empezó a alcanzar la popularidad lentamente, pero en 1954 Armstrong se enfermó y, con su fortuna dilapidada en litigios por el control de la FM, se suicidó.

Breve Historia de la Comunicación Humana

Problemas Tecnicos en los Primeros Ferrocarriles Argentinos Historia

La idea de aplicar la máquina de vapor al transporte se llevó por primera vez a la práctica ya en 1769 bajo la forma de un complicado artefacto, destinado a correr sobre railes, construido por un francés, Nicolás Cugnot.

Posteriormente, el inglés Richard Trevithick fabricó locomotoras (1801-1808), si bien estas últimas habían sido pensadas sólo para el servicio de las minas de hulla y tenían una aplicación limitada.

Sin embargo, a pesar de la victoria de Stephenson, hubo que resolver muchos problemas de ingeniería antes de que los caminos de hierro pudieran desempeñar un papel importante en el comercio. Primeramente, por ejemplo, las ruedas con pestañas que se usaban para mantener los vagones, en la vía se subían sobre los railes en las curvas, y tuvo que transcurrir algún tiempo antes de descubrirse que las ruedas debían quedar holgadas sobre los carriles. y que podían acoplarse a dispositivos giratorios debajo de los coches.

También los frenos dejaban mucho que desear presionaban contra las ruedas, y no fueron seguros y de fácil manejo hasta que George Westinghouse perfeccionó el freno de aire comprimido (1886). Además los enganches tenían tanto juego que al arrancar el tren los vagones recibían tan fuertes .sacudidas, sobre todo los últimos, que los viajeros eran violentamente proyectados hacia atrás.

El tendido de puentes y la perforaci6n de túneles planteó a su vez dificultades a los primeros constructores de líneas férreas. Los puentes de piedra no resistían bien la vibración; los de ‘madera estaban expuestos a la acción de la intemperie y del fuego; además, abrir agujeros en el suelo con barrenas de mano era, por no darle un calificativo más duro, un trabajo agotador.

Sin embargo, con el tiempo los puentes fueron construyéndose de hierro y acero (el de Brooklyn, colgante, de acero y de 486 m de longitud, quedó terminado en 1883); la excavación de túneles se simplificó con el invento de la barrena de aire comprimido… Por si estas dificultades técnicas no hubieran bastado, produjese cierta hostilidad del público hacia los ferrocarriles en sus primeros años de existencia. No sólo los campesinos residentes a lo largo de las líneas férreas se quejaban de que las máquinas calentadas con leña, espantaban con su chisporreteo a caballos y vacas, sino que se aducían toda suerte de argumentos contra la nueva forma de transporte.

Algunos militares llegaron a creer que el traslado de la tropa por ferrocarril Volvería a los hombres tan muelles que no servirían ya para la lucha. Varios médicos de renombre temieron que los pasajeros contrajesen enfermedades pulmonares por efecto del aire húmedo de los túneles y algunos moralistas advirtieron que los tramos oscuros ofrecían a los hombres groseros una ocasión irresistible de besar a las señoras, e incluso llegaron a aconsejar a las presuntas víctimas de tales abusos que se pusieran alfileres entre los dientes cuando el tren penetrase en un túnel.

 Fuente Consultada:

Shepard B. Clough, en «La Evolución Económica de la civilización occidental”

Historia de los Primeros Faros Marinos Tipos Materiales Construcion

Historia de los Primeros Faros Marinos
Tipos Materiales y Construción

El encanto de la vida del mar no perdería sus atractivos si no existieran, entre otros peligros, el de embarrancar en las rocas de la costa, los bancos de arena y los profundos remolinos. Desde que los primitivos navegantes lanzaron sus naves a través del mar, atentos vigilantes, desde tierra, trataron de auxiliarles facilitándoles medios de llegar al puerto.

En aquellos remotos tiempos, indudablemente, se valían para ello de hogueras, que encendían en los puntos elevados de la costa; y ya, en una antigua poesía, se hace mención de un faro—el de Segeum, en Troad—, que fue quizá el primero que, mantenido con regularidad, sirvió de guía a los marineros.

La más famosa de estas construcciones destinadas a señales se construyó en el año 275 antes de Jesucristo, en la pequeña isla de Pharos, en la entrada del puerto de Alejandría. Se dice tenía 182 metros de altura, y su nombre quedó para denominar otras semejantes. Fue destruida en el siglo XIII por un terremoto. Los romanos construyeron muchas torres de esta clase, una de las cuales, de sección cuadrada, con cerca de 39,50 metros de altura, construcción de piedra que data probablemente del siglo IV, se conserva todavía en La Coruña.

El Estado español la restauró, preservándola con una protección exterior de granito y poniéndola en condiciones de servicio después de cientos de años de estar apagada. Es el faro más antiguo que existe.

Todos estos antiguos faros, y muchos de los modernos, se han establecido en tierra; generalmente en una elevación, fuera del alcance de las olas. El más antiguo de los faros cimentados en el mar es la hermosa torre de Cordouan, asentada sobre el fondo de roca en la desembocadura del río Oironda, a 100 kilómetros de Burdeos, en Francia. Comenzó su construcción en el año de 1584 y se terminó en 1611.

La primitiva cúpula fue reemplazada por una alta torre de 63 metros de altura, con un fanal a 59,75 metros sobre la marea alta. Hasta el siglo XVIII la luz se producía por una hoguera, alimentada con troncos de roble, y, después, hasta ser modernizada, con fuego de carbón.

Durante los siglos XVII y XVIII se construyeron en Europa muchos faros que, como el descrito, quemaban leña o carbón en cestillos de hierro.

El primer faro que se construyó en Norteamérica fue el de la isla de Little Brewster en 1716, a la entrada del puerto de Boston. En él se instaló un gran cañón para hacer señales en tiempo de nieblas espesas. La primitiva torre fue destruida durante la revolución, siendo reconstruida en 1783.

Durante el período colonial, diez torres más se elevaron en la costa del Atlántico, pero todas ellas han sido destruidas o derribadas, excepto cinco, que son: Sandy Hook, cabo Henlopen, del promontorio Portland, Tybee y cabo Henry. Las primitivas torres de Sandy Hook y cabo Henlopen se utilizan todavía; de las demás, unas están abandonadas y otras medio derruidas. El faro de Sandy Hook es el más antiguo de América.

DIVERSOS TIPOS DE FAROS

TIPOS DE FAROS

Los faros, como hemos dicho, pueden establecerse en tierra firme, o sobre rocas o bancos de arena, y expuestos directamente a los embates del mar. Los primeros varían muchísimo en cuanto a su altura y disposición general. Si el edificio está situado en un punto elevado de la costa, la torre no precisa tener gran altura, como se puede ver en el grabado del faro de Punta Reyes, de California, o en el cabo Mendocino, del mismo Estado. La torre de este último sólo tiene seis metros de altura, pero está sobre un cantil que se eleva 128,60 m. sobre el mar y es el faro situado a mayor altura en los Estados Unidos. (hasta 1930)

En la costa del Atlántico, sin embargo, como en su mayor parte es baja, se hace preciso que los faros, construidos en tierra, sean por sí mismos de gran elevación, si han de ser eficaces. Ejemplo de éstos es el de cabo Hatteras; tiene 61 metros de altura y es, por tanto, el más alto, de Norteamérica. Otros de estructura notable son los de cabo Henry y cabo Charles, en Virginia, y la bellísima torre de Punta Pigeon, en California. El pequeño faro de Manan, sobre la costa de Maine, es también una hermosa edificación de granito de 35 metros de altura.

El faro de Tillamook, en la costa de Oregón, está colocado sobre una gran roca, expuesta a las furias del mar y separado una milla de tierra firme; dicha roca, alta y acantilada, hace muy difícil y peligroso el desembarque. La torre se eleva 41,45 metros sobre marea alta, y, a pesar de ello, en 1887, las olas, rompiendo contra la estructura, causaron averías de consideración, y en 1912, el aprovisionamiento del faro estuvo suspendido durante siete semanas, porque los encargados por el Gobierno para realizar la operación no pudieron aproximarse a la roca, a causa de un violento temporal.

También el faro del arrecife de St. George, separado de tierra unas seis millas en la costa norte de California, se encuentra en las mismas condiciones. Se terminó en 1892, y su coste fue de unos 700.000 dólares, resultando la obra, de esta clase, más cara de los Estados Unidos. Muchas de las construcciones en la costa no son más que sencillas estructuras bien estudiadas para instalar el fanal y los aparatos acústicos necesarios en caso de niebla, además de las indispensables viviendas para los torreros y sus familias.

Los faros enclavados directamente en el mar son siempre más interesantes que los de tierra firme, no tanto por las particularidades de su estructura, sino, tal vez, por la simpatía que inspiran sus servidores, expuestos, constantemente, a toda clase de peligros. Son muy numerosos los faros de este género, pero el de las rocasEddystone, a 22 kilómetros de Plymouth, Inglaterra, es, entre ellos, el más famoso. Este peligroso arrecife, expuesto a los violentos temporales de sudoeste, queda completamente sumergido durante las mareas equinocciales. Él faro primitivo que se construyó sobre dichas rocas en 1695-1700 fue arrastrado por el mar, pereciendo sus ocupantes.

El segundo, construido en gran parte de madera, bajo la dirección del ingeniero Juan Smeaton, era una estructura de sillares de piedra, que pesaban, próximamente, una tonelada cada uno, y cuyas hiladas estaban engatilladas entre sí por medio de espigas de madera, y el que, en 1881, ha substituido a éste, descansa sobre una base de 13 metros de diámetro y 6,70 metros de altura, apoyándose directamente sobre el mismo arrecife, en el cual se hace firme mediante fuertes pernos de bronce. Pesa 4.668 toneladas, y su luz se eleva 55,70 metros sobre el nivel de la marea alta.

La obra de cantería de esta singular construcción está ejecutada de manera que existe una trabazón completa de todos los sillares por el corte especial de ellos. Otros faros de este mismo género son el de la roca Bell ySkerryvore, sobre la costa de Escocia, y el de la roca Bishop, en las islas Scilly.

Entre los faros de América, enclavados en el mar, el más conocido es el del arrecife de Minots, frente a Cohasset, en la bahía de Massachusetts. La primera luz que señalaba estos bajos, y que aparecía sólo en la baja marea, estaba instalada sobre pilastras metálicas fijas en excavaciones practicadas en la misma roca; se terminó este faro en 1848, y, nueve años después, una galerna lo llevó mar adentro, ahogándose los torrerosque le ocupaban.

El faro actual, de fina estructura, se terminó en 1860, y su ejecución fue empresa de las más difíciles en su clase. Las hiladas inferiores van asentadas cuidadosamente sobre la roca y fijos a ella los sillares mediante sólidos pernos. Tiene su torre 32,60 metros de altura, y, en ella, se ha dispuesto las habitaciones de lostorreros solamente, habiéndose construido viviendas para sus familias frente al faro y en la costa próxima.

En los Grandes Lagos hay dos excelentes modelos de faros que, como los anteriores, están construidos sobre bajos fondos. El que marca el escollo Spestade, en el extremo norte del lago Hurón, es una torre de piedra, sumergida 3,35 metros en el agua, a diez millas de la orilla, y expuesta a la acción de los grandes témpanos de hielo. Para cimentar esta torre, se construyó un gran cajón o ataguìa alrededor del lugar de emplazamiento, agotándose después el agua por medio de bombas, quedando al descubierto, a 3,35 metros bajo el nivel del lago, la roca sobre la que se cimentó cuidadosamente la torre de mampostería. Terminada en 1874, aquel mismo invierno soportó valientemente las embestidas de los hielos.

El faro de la roca Stannard, terminado en 1882, marca el bajo más peligroso del Lago Superior. Está situado a 24 millas (38,4 kilómetros) de la orilla, siendo el que dista más de tierra en los Estados Unidos. Como el del arrecife Spectacle, este faro descansa sobre un fondo cubierto por 11 pies de agua, y fue construido por el mismo procedimiento que aquél.

faro

El problema que se presenta al proyectar una obra de esta índole varía mucho si la cimentación sumergida descansa sobre arena o grava, o ha de levantarse sobre fondo de roca. La más notable construcción sobre arena es la de Rothersand, a diez millas de la costa de Alemania, en la desembocadura del río Weser. Este banco de arena está cubierto por 20 pies de agua, y el primer intento que se hizo para cimentar, con un cajón sumergido, fracasó por completo.

En 1883, sin embargo, se ideó un cajón de palastro de 14,30 metros de largo, 11,27 metros de ancho y 18,89 metros de profundidad, que fue remolcado hasta el banco de arena y sumergido unos 23,27 metros, a contar desde la baja mar. A 2,45 metros sobre el borde inferior, había un diafragma que, cerrándolo por la parte superior, formaba la cámara de trabajo, provista de un tubo cilíndrico, en el que se dispuso un cierre de aire estanco, y permitía entrar y salir a los obreros.

faros

La arena se desalojaba por presión neumática, y, a medida que el cajón bajaba, se iba prolongando, por la parte superior, con nuevas planchas de hierro. Cuando el cajón llegó a profundidad conveniente, se rellenó de mampostería y hormigón. La torre es una construcción metálica, protegida de bloques, en la que está montado el reflector a 23,75 metros sobre la marea alta. Se ilumina con luz eléctrica, estando alimentado este faro por cables submarinos que transmiten la corriente desde la costa próxima.

El faro del banco Fourteen-Foot, en la bahía de Delaware, se construyó por este mismo procedimiento en 1887. En éste, sin embargo, el cajón fue de madera, con un borde cortante de siete pies de altura. Sobre esta especie de balsa, se colocó un cilindro de hierro de 10,66 metros de diámetro y 5,50 metros de altura, y todo así dispuesto, se remolcó al lugar donde se sumergió, llenándole de agua.

Cuando estuvo bien asentado sobre el fondo, se agotó la cámara inferior, excavándose después la arena, que era transportada al exterior por una tubería. Conforme se profundizaba la excavación, los bordes cortantes de la cámara se hundían en la arena, y esta acción era favorecida por la carga del cilindro de hierro, cuyo interior iba rellenándose de hormigón.

El faro del bajío Diamond, frente al cabo Hatteras, trató de fundarse siguiendo este mismo sistema, pero no pudo conseguirse debido a la fuerza de las olas y violentas corrientes del Océano.

Estos problemas de cimentación sobre fondos de poca consistencia pueden resolverse, en muchos casos, por el empleo de pilotes a rosca o barreno, que consisten en fuertes columnas de hierro provistas, en su extremo inferior, de una especie de rosca de paso muy largo, que permite, literalmente, atornillarse en el fondo arenoso del mar, armándose después, sobre estas columnas, la estructura superior. La primera construcción de esta clase fue la de Brandywine Shoai, en la bahía de Delaware, en 1,80 metros de agua.

En lugar de construir los faros, como hasta ahora se ha venido haciendo, con piedra, ladrillo y cemento armado, parece que existe la tendencia de substituir estos materiales por el hierro; las nuevas construcciones en que interviene casi exclusivamente este último ofrecen mucha más seguridad y son más ligeras. El faro de Punta Arena, en California, fue el primero que se construyó en los Estados Unidos con cemento armado, habiéndose empleado este mismo sistema en todos los faros a lo largo del canal de Panamá. También se ha utilizado el cemento armado en el faro de la isla de Navassa, entre Haití y Jamaica; fue construido a expensas del Gobierno norteamericano, sobre aquella isla rocosa, porque situada, precisamente, en la ruta natural desde Colón a la entrada del canal de Panamá, constituye un peligro constante para la navegación. La elegante torre se ha construido con el mayor cuidado, teniendo en cuenta los violentos huracanes frecuentes en aquellos lugares, y tiene una altura de 45,70 metros. Su luz es de 47.000 bujías, con un radio de 50 kilómetros.

La lente Fresnel y otros progresos:

Hacia el año de 1822, un físico francés, llamado Agustín Fresnel, señaló una nueva era en los sistemas de iluminación de faros, creando unas curiosas lentes, al propio tiempo reflectoras y refractoras, que se colocan alrededor de una luz única, situada en el centro. El todo constituye un aparato que consiste en «una lente polizonal» encerrando una semilla lámpara central. Esta lente está formada por prismas de cristal, dispuestos en planos o tableros, de los cuales, la parte central es dióptrica o refractora solamente, y la superior e interior son, a la vez, refractoras y reflectoras, como en el sistema «catadióptrico».

Eas ventajas de este sistema son las de aumentar el brillo de la luz, por el hecho de que una gran parte de ella, que procede de la lámpara, se concentra, mediante los prismas, en rayos que se distinguen mejor desde el mar, consiguiéndose también una economía en el aceite o el medio iluminante empleado. Una lente Fresnes, del tipo más perfecto, da un rendimiento efectivo de un 60 por 100 próximamente de la luz de que se trata; el resto representa la pérdida en la parte superior e inferior de la linterna y la absorbida por el cristal de las lentes.

Estas lentes Fresnel se clasifican por su orden o tamaño, y dicho tamaño se mide por la distancia desde el centro de la luz hasta la superficie interna de la lente. Así, en una luz de «primer orden» la referida distancia es de 905 milímetros; en una de «segundo orden», 690 milímetros, y en una luz de «sexto orden», 147 1/2 milímetros.

I,a primera lente Fresnel que se instaló en los Estados Unidos fué montada en el faro de Navesink en el año 1841, en la entrada de la bahía de Nueva York, y la mayor de este tipo, instalada a expensas del mismo país, es la de la Punta Makapuu, Oahu, Hawai, y es la primera luz que divisa el marino al aproximarse a aquellas islas, desde los Estados Unidos. Es mayor que las clasificadas como de primer orden; tiene 1,30 metros de radio y, por lo tanto, el diámetro interior es de 2,75 metros, aproximadamente, estándo encerrada en una linterna de 4,87 metros de diámetro, también interior. Una lente Fresnel de gran tamaño es uno de los aparatos ópticos más hermosos; el perfecto pulimento de las lentes, con sus múltiples facetas brillantes y su gran armadura de metal, le dan la atractiva apariencia de una enorme joya.

Con objeto de diferenciar un faro con respecto a otro, se asigna a cada uno características especiales. Los distintivos de color se emplean generalmente para pequeños faros de orden inferior, en los que se usan por lo común lentes de color rojo. El empleo de lentes coloreadas supone, sin embargo, una gran pérdida en potencia lumínica, pues se calcula que con el rojo, que es el más eficaz, dicha pérdida alcanza un 60 por 100.

En muchos casos no se necesita más que una luz fija, aunque haya peligro de confundirla con otras de la costa o de buques que pueda haber en las inmediaciones. Ea construcción de ellas consiste en una lámpara central y una sola lente que dirige su haz luminoso sobre un determinado sector del horizonte. Los faros importantes son, o del tipo de «destellos» o de «eclipses». En los primeros gira toda la lente, y cada une de los bastidores o lentes parciales aparece como reflejo intenso a la vista del espectador. Con objeto de conseguir un movimiento suave y rápido, la lente entera se apoya sobre flotadores en un depósito de mercurio; de esta manera, lentes que pesan siete toneladas, dan fácilmente una revolución completa en medio minuto.

La lente de Punta Ki-lauea, Hawai, construida en Francia, a un coste de 12.000 dólares, pesa cuatro toneladas. Está montada, por medio de flotadores, sobre mercurio, da una revolución completa cada veinte segundos, y produce un doble destello de 940.000 bujías cada diez segundos. Este doble destello se consigue disponiendo simétricamente cuatro lentes dos a cada extremo de un mismo diáme tro. Como es natural, variando la dis^ posición de las lentes, su forma y su color, puede obtenerse una gran variedad de faros.

Fuente Consultada:
Historia de las Comunicaciones Transportes Terrestres J.K. Bridges Capítulo «Puentes en la Antigüedad»
Colección Moderna de Conocimientos Tomo II Fuerza Motriz W.M. Jackson , Inc.

Lo Se Todo Tomo III

Vuelo sin escalas alrededor del mundo Burt Rutan y su Voyager

Vuelo sin Escalas Alrededor del Mundo: Burt Rutan y su Voyager

Amelia Earhart
Cruzar El Canal de la Mancha
Exploración de África

BURT RUTAN

Nacido en Estacada, Oregon (unos 50 Km. al sureste de Portland) y criado en Dinuba, California, Rutan demostró desde edad temprana un interés agudo en aeronaves. Antes de cumplir los ocho años, diseñaba y construía modelos de aviones.

Elbert R. Rutan, más conocido por Burt, comenzó a volar  en 1959, se graduó de ingeniero aeronáutico en 1965, trabajó en la base Edwards de la Fuerza Aérea de California hasta 1974 en que armó su propia empresa y diseñó y construyó numerosos aviones de formas no convencionales usando materiales compuestos.

En 1982 formó Scaled Composites en el desierto de Mojave para diseñar nuevos aviones: uno de los primeros fue el Beechcraft Starship en 1983

En 1984 presentó su Voyager construido para dar la vuelta al mundo sin reabastecerse. Tras dos años de puesta a punto, logró la hazaña en 1986, al mando de su hermano Dick Rutan y Jeana Yeager.

avión Voyager

Datos del Voyager diseño canard bimotor en tandem. Costo: U$S 2.000.000 El motor principal, un Teledyne Continental de 100 HP refrigerado a agua y de uso permanente; el secundario a aire y de uso solo en los momentos necesarios con 139 HP.

Peso del planeador: 420 Kg.. Peso de los 2 motores: 400kgr. Peso total vacio 820 Kg.. Peso del combustible al despegar: 3.200 Kg. en 17 tanques. Peso total al despegue: 4200 Kg.

Datos del viaje: el despegue tomó 5500m. Tardó tres horas en ascender 8000 pies. Recorrido: 40.200 Km. Duración: nueve dias y cuatro minutos. Combustible remanente al aterrizar: 48 Kg.; Vel. media 214 kph.

Rutan hizo también el Space Ship One con el que llevó en junio de 2004, pasajeros civiles al espacio exterior (más de 100 km. de altura) y luego repitió el viaje varias veces, en lo que parece el inicio de una nueva posibilidad de turismo aventura.

El británico Richard Branson patrocinó la vuelta al mundo en solitario, que cumplió Steve Fosset en 2005 con máquina construida por Rutan, y anuncia para 2007 viajes comerciales al espacio exterior a 130 Km. de altura, a un precio de U$S 200.000 con 4 minutos carentes de gravedad.

Naufragio Principessa Mafalda Hundimiento Crucero Historia Tragedia

Naufragio Principessa Mafalda: Su Hundimiento

Tragedia Buque Presidente RocaRompehielos IrizarTragedia Montes CervantesTragedia del Kursk

El 25 de octubre de 1927 se produjo una de mas importantes tragedias marítimas que se recuerda en época de paz, se produjo el naufragio del Principessa Mafalda, una lujosa y enorme nave que usaban las familias mas adineradas de Sudamérica para viajar al viejo continente.  Se decía que seria  su último viaje, porque los armadores consideraban que el barco estaba ya obsoleto.

 buque mafalda

El honor del nombre del buque le correspondía por la segunda hija del rey de Italia,
la princesa Mafalda María Elisabetta Anna Romana, nacida en Roma el 19 de noviembre de 1902.

A comienzos del siglo XX, Italia ingresó en un notable período de industrialización, singularmente en ciudades del norte, como Turín o Milán. Los astilleros comenzaron a producir sofisticadísimos transatlánticos, compitiendo en la ruta a Sudamérica con la Hamburg South American Line, (Hamburg-Sudamerikanische Dampfschifffahrts-Gesellschaft), propietaria del deslumbrante Cap Arcona, botado en 19071. El Italia (1905) y el Garibaldi (1906), nada tenían que envidiarle a los grandes transatlánticos alemanes. Los astilleros de Riva Trigoso, en Génova, construyeron, a partir de 1896, naves prodigiosas para la época: con mayor tonelaje, más imponentes y veloces.

Principessa Mafalda,  de la empresa  Navigazione Generale Italiana era un vapor de lujo, con desplazamiento de 9.200 toneladas, 147 metros de longitud, 16,80 m de ancho o manga y  podría llegar a 18 millas por hora de velocidad. Había 158 cabina de primera clase, 835 segunda y tercera, con 715 dormitorios para los inmigrantes.

Su viaje inaugural al Plata fue motivo de encandilados comentarios: era el primer paquete de gran lujo que uniría estas costas con el Mediterráneo, y poseía el privilegio de ser uno de los buques más veloces de su tiempo. A partir de ese momento fue la nave predilecta de las familias pudientes argentinas, uruguayas y brasileñas que viajaban al viejo continente, y un constante introductor de inmigrantes en sus travesías de regreso.

Ovidio Lagos en el primer capítulo de su libro «Principessa Mafalda » describe así al interior de este elegante crucero italiano:

Además de doscientos noventa tripulantes, el salón comedor de la clase de lujo tenía una notable cúpula de cristal, sostenida por cuatro columnas, y ventanas que se asomaban al mar. Eran tan grandes como las de una residencia, lo cual constituyó la primera modificación revolucionaria, ya que las embarcaciones solían tener ventanas pequeñas.

Imaginemos, entonces, al gran salón comedor, iluminado por centenares de luces, y a las mujeres ingresando de noche con los inevitables tocados de aigrettes o de aves del paraíso y los hombres de riguroso frac. Una orquesta probablemente interpretaba un vals o una galopa. Esa estética en apariencia tan espontánea exigía no solo un guardarropa, sino un ejército de silenciosos sirvientes. El menú no quedaba librado a ningún chef de a bordo, sino que era supervisado por el hotel Excelsior, de Roma y de Nápoles, y por el hotel National, de Lucerna, Suiza.

La sala de música parecía salida del Petit Trianon: enormes espejos, cúpula de cristal, mesas y sillas Luis XVI y un ventanal donde no hubiera sido difícil imaginar a María Antonieta contemplando su bucólico jardín. Los niños, considerados por las clases adineradas como little horrors, podían potrear a su antojo en su correspondiente sala, férreamente controlados por niñeras inglesas o francesas.

Los camarotes de la clase de lujo no le iban a la zaga: eran de enormes dimensiones, con las clásicas camas de bronce. Tenían, además, teléfono. Con solo levantar el auricular, se podía pedir toda clase de exquisiteces, o la presencia de una coiffeuse o de una manicura, hablar con personas amigas room to room y enterarse, por ejemplo, de los chismes de a bordo, o, también, criticar el vestuario ajeno.

Esta suerte de microcosmos que era el Principessa Mafalda, un perfecto muestrario de clases sociales, de ricos y pobres, de elegantes y humildes, zarpó de Génova hacia esa panoplia de oportunidades que era Sudamérica y, en particular, al “granero del mundo” como habitualmente se denominada a la Argentina. A pesar del diseño revolucionario del barco, de la asombrosa cantidad de nudos que le permitía una velocidad inusual y de ese fabuloso invento de Guillermo Marconi que era la radiotelegrafia, hubo problemas en su viaje inaugural. Presagio, acaso, de los que tendría en octubre de 1927, durante su último viaje.

A principios de octubre, el Principessa Mafalda dejó Génova para su 90º viaje a América del Sur. Llevaba  embarcado un suculento cargamento de 250.000 liras en oro, celosamente custodiadas por cinco fornidos policías, que el gobierno italiano enviaba al argentino.

La mañana de la partida ascendieron por la planchada 62 pasajeros de primera clase; 5 de ellos iban a Río, 16 a Santos y 41 a Buenos aires. 83 pasajeros ocuparon camarotes de segunda clase, 10 con destino a Río de Janeiro, 20 a Santos y 53 aBuenos Aires. A ello se sumaba un pequeño hormiguero de 838 pasajeros de tercera, casi todos inmigrantes, la mayoría con destino a la capital argentina, buena parte de los cuales pertenecían al tipo “golondrina” que llegaba para levantar la cosecha, juntar unos pesos y volver a la patria. A los 973 pasajeros se sumaban 288 tripulantes, lo que ascendía a 1261 el número de personas a bordo del “Principessa Mafalda”.

Pero tan pronto como zarpó y dejó el Mediterráneo empezaron los problemas: en Barcelona, varias horas de retraso en la salida, y luego al cruzar el Atlántico, el tiempo de inactividad de la máquina de babor por muchas horas, pero no se dio explicación alguna a los pasajeros. Además que la capacidad de navegación se veía comprometida y parte del viaje que el buque navega escorado a babor, las condiciones a bordo tampoco eran buenas. Los cuartos de baños no funcionaban y la refrigeración era defectuosa, lo que ponía en peligro la conservación de los alimentos.

Como la máquina de babor no se pudo arreglar, el capitán se vio obligado a cambiar de rumbo y dirigirse al puerto de San Vicente en Dakar, explicándole a los pasajes que tal cambió obedecía a la necesidad de cargar mas carbón para las calderas. En ese puerto subieron dos nuevos pasajeros, que habían sido rescatados días antes del buque «Matrero» que también iba con rumbo a Buenos Aires, pero que a medio camino le explotó una caldera y quedaron a la deriva hasta que un «ángel salvador» los detectó y los dejó sanos y salvos en el puerto de San Vicente.

Arreglada la máquina, el “Mafalda” dejó las islas portuguesas y se dirigió a las costas brasileñas, iniciando el cruce atlántico. Las vibraciones seguían; pisos, techos y mamparas trepidaban visiblemente. Las deficiencias se hicieron evidentes a los pasajeros, especialmente a los acostumbrados a navegar. En la primera clase la preocupación fue en aumento, hasta desembocar en la idea de solicitar formalmente al comandante Guli la interrupción del viaje. Se intentó juntar firmas para hacer una petición mas formal, pero el plan no prosperó.

El día 25 de octubre cerca de las 19:00 horas, ya en los comedores los camareros tenían las mesas listas, los cocineros daban los últimos toques y ya se disponía a hacerse el primer llamado para cenar, cuando un extraño ruido sacude al barco y el Mafalda queda detenido en el mar. Casi al instante los oficiales explican y tratan de calmar, mientras el comandante Guli reúne datos concretos sobre el accidente sufrido por el “Mafalda”.

No tarda en tenerlos: se ha partido el árbol de la hélice izquierda, que en esos momentos giraba a 92 ó 93 revoluciones por minuto. Las enormes palas continuaron el movimiento giratorio al desprenderse, chocaron con el casco y abrieron un enorme desgarrón en las planchas metálicas, por donde en esos momentos se precipitaba el agua dentro del buque.

Grandes cantidades de agua comenzó a inundar la parte posterior de la Principessa Mafalda, llegando a la sala de máquinas. Las alarmas se dispararon y el pánico acongojó a todos los pasajeros, que inclusive algunos armados efectuaron disparos entre la gente. Guli ordena parar las máquinas, disminuir la presión de válvulas y apagar las calderas.Abajo los tripulantes trabajan afanosamente por cerrar la brecha del casco. Chapas de hierro, cemento, se fueron aplicando contra la abertura. Por un momento pareció que el daño sería subsanado y todo peligro aventado, pero la enorme presión del agua embarcada pudo más que los esfuerzos de los marinos y una de las planchas laterales cedió y la furia del agua ya no pudo mas detenerse. El Mafalda estaba perdido!.

El buque se hunde de popa muy despacio, había tiempo para iniciar el salvataje, el cual comenzó bien y ordenadamente hasta que llegaron en forma salvaje todos los inmigrantes italianos que viajaban en tercera clase, invadiendo los botes salvavidas y sembrando el pánico a su paso.Atropelladamente se arrojaron sobre los botes, tropezando entre si, zambulléndose unos encima de otros, hasta colmar la capacidad de las frágiles embarcaciones más allá del límite de seguridad.

Así fue como algunos de esos botes se hicieron pedazos al tocar el agua. El pánico seguía en ascenso, incontenible. A la tercera se plegó la segunda clase. En cuanto a la primera, que hasta el momento conservara la calma, cuando intentó ponerse a salvo se encontró bloqueada por las otras dos.

Encerrado en su cabina, el radiotelegrafista Luis Reschia no cesaba de insistir: “Vengan todos. Vengan pronto”.

Dos barcos recibieron de inmediato el primer SOS del “Mafalda”. Ambos estaban a la vista, si bien distantes, y pusieron proa hacia el buque italiano. Eran el “Alhena”, que navegaba a babor del “Mafalda”, y el “Empire Star”, nave inglesa que bordeaba a estribor del trasatlántico, con destino a Londres. A 36 millas de distancia captó el llamado el “Mosella”, de bandera francesa, que iba de Río de Janeiro a Burdeos.Hacia las 20:15 se acercó otro buque al lugar del naufragio. Era el “Formose”, que llegaba a toda velocidad.

El salvataje continuó a medida que avanzaba la noche, mientras que a bordo de los buques de rescate se atendía a los sobrevivientes (el “Alhena” rescató 531, el “Empire Star” 180, el “Formose” 200, el “Mosella” 22 y el “Rosetti” 27). A la una de la mañana del 26 de octubre el “Alhena” fue el primer buque en dejar el lugar. Dos horas después llegó el “Avelona”, tras navegar casi 300 millas, y los brasileños “Bagé”, “Ayurnoca”, “Manaos” yPurós”, quien no recogieron ningún sobreviviente.

Después de la tragedia, dos versiones  trataron de explicar el accidente: la primera versión supone que una pala de la hélice se rompió, y la rotación de la hélice excéntrica empezó a golpear, sucesivamente, en el casco, y se abre una ranura en el lado del puerto, que hizo naufragar al barco. La otra versión que aparece en el informe del comandante de Voltair, establece que: el tubo del eje de la hélice se rompió, abriendo un agujero en el casco. Posiblemente, los dos efectos se hayan producido en la secuencia, la ruptura del eje de rotación de la hélice excéntrica causado por los choques en el casco. Muchos misterios rodean todavía el hundimiento delPrincipessa Mafalda, incluida su posición real.

Dos Marinos Argentinos: Cuando el buque escuela argentino Fragata Sarmiento pasó por Génova , desembarcó al cabo principal José Santoro y al conscripto Anacleto Bernardi, convalecientes ambos de neumonía. Había sido una decisión del capitán para que regresen a reponerse a Argentina, aprovechando que allí se encontraba elMafalda con rumbo a Bs.As.

A partir del inicio del naufragio estos dos expertos marinos tuvieron una conducta ejemplar frente a todos los pasajeros, ayudándolos a desembarcar y mantener la calma para abordar a los botes salvavidas. Además se destacó el conscripto Bernardi con una actitud heroica salvando gente en el agua entre tiburones para acercarlos a nado a los barcos de rescate. Lamentablemente el murió por el ataque de los hambrientos escualos, su compañero Santoro llegó a Argentina donde vivió hasta 1977. Ambos marinos fueron condecorados.

El diario ‘Clarín’, en su sección de información general, página 14, del martes 26 de octubre de 1976 expresó que «se conmemoró [el 25 de octubre] en Puerto Belgrano el Día del Conscripto Naval. . En su transcurso se destacó la labor de los conscriptos. «Como se sabe, la institución del 25 de octubre como fecha recordatoria se debe a que un día como ése, en 1927, al naufragar el vapor italiano ‘Principessa Mafalda’, un conscripto argentino, clase 1906, Anacleto Bernardi, posibilitó con su actitud heroica salvar numerosas vidas, a costa de la suya. En la ceremonia se descubrió un busto del conscripto Bernardi y se guardó un minuto de silencio en homenaje a los conscriptos fallecidos».

Fuente Consultada: «Principessa Mafalda» de Ovidio Lagos y Sitio Web: www.histamar.com.ar

Historia de Boeing 757 Principales Aviones de Lineas Comerciales

Historia de Boeing 757 – Principales Aviones

Boeing B-757
La segunda carta ganadora de la compañía Boeing para los años ochenta se llama B-757, un birreactor de corto y medio radio de acción desarrollado al mismo tiempo que el mayor B-767 y con las mismas características tecnológicas muy avanzadas.

Historia del Boeing 757

El impacto que este nuevo avión producirá en el mercado internacional, se demuestra con pocas cifras: 6 meses antes del bautismo del aire del prototipo (febrero de 1982), los pedidos acumulados por Boeing ascendían a más de 136 unidades, más unas 60 opciones. Desde el momento de la entrada en servicio, fijada para enero de 1983, el B-757 permite un ahorra de combustible por asiento a ocupar igual al 47 por 100 respecto al trirreactorB-727, al que sustituirá.

El anuncio del proyecto B-757 fue dado por Boeing en los primeros meses de 1978 y la respuesta de las compañías no se hizo esperar mucho: el 31 de agosto, Eastern Air Lines y British Airways anunciaron la intención de adquirir un gran lote de los nuevos aviones (21 y 19, más 24 y 18 en opción, respectivamente).

En marzo de 1979, estos pedidos iniciales fueron formalizados (entretanto, British había aumentado el pedido a 27 unidades) y Boeing estuvo, por lo tanto, en condiciones de dar el visto bueno oficial al programa de construcción. La fecha fue el 23 de marzo, y nueve meses después, el 10 de diciembre, se inició el trabajo en fábrica. Con el avance de la actividad, llegaron pedidos sucesivos por parte de otras compañías aéreas, y, entre éstas, las principales fueron Delta, American, Monarch y Trans Brasil.

En el transcurso de la construcción, los técnicos de la compañía Boeing no escatimaron esfuerzos para poner en práctica un riguroso programa de reducción de peso, con miras también a la economía de explotación. Aunque basado en el fuselaje del modelo 727, el B-757 presenta, en efecto, muchas modificaciones estructurales (gracias, sobre todo, al empleo de materiales compuestos) derivadas de la necesidad de aligerar el avión sin perjudicar por esto su robustez. Las propuestas de tal reducción fueron más de 5.200, y más de un millar de ellas ha encontrado aplicación concreta, con ventajas individuales que van de pocos gramos a un máximo de 77 kilos, distribuidos en muchísimos detalles del avión.

En total, Boeing ha logrado reducir en el 5,2 por 100 el peso total, en vacío, del proyecto, y los resultados de este esfuerzo se prevén particularmente brillantes. Según los técnicos, efectivamente, suponiendo 1.400 vuelos al año, cada uno de 1.795 kilómetros, se podrá llegar a un ahorro de combustible igual más de 85.000 litros por avión.

Naturalmente hay también otros factores que determinarán la consecución de estas excepcionales prestaciones operativas por ejemplo, el ala, complementaria proyectada de nuevo respecto  a la del B-727 y caracterizada por un elevado rendimiento aerodinámico; o los propulsores de alta eficacia y bajo consumo. A este respecto, Boeing prevé la instalación de una amplia gama de grupos motores, a elección del cliente.

En particular los B-757 destinados a British Airways y a Eastern (designados B-757-200) estarán dotados de turbo insufladores Rolls-Royce RB.211 (por primera vez este caso, Boeing ha utilizado propulsores no norteamericanos para un nuevo avión), mientras que los aviones posteriores tendrán motores Pratt & Whitney y serán entregados a finales de 1984.

También en el programa 757, la compañía Boeing ha subcontratado una amplia serie de trabajos. En particular, Rockwell International es responsable de las secciones centrales del fuselaje; Vought, de los planos de cola y de la sección posterior; Fairchild Republic, de la cabina de pasajeros en la parte situada sobre el ala y sobre los hipersustentadores del borde de ataque; Grumman, de los «spoilers» (frenos aerodinámicos), y CASA, española, de los hipersustentadores posteriores externos.

Características  Avión: Boeing B-757
Constructor: Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1982
Motor: 2 turborreactores Rolls-Royce RB 211 -535, de 16.965 kg. de empuje cada uno
Envergadura: 37,95 m. Longitud: 47,32 m.
Altura: 13,56 m.
Peso al despegar: 108.860 kg.
Velocidad de crucero: Mach 0,80
Techo máximo operativo: 11.703 m.
Autonomía: 4.336 km.
Tripulación: 6-8 personas
Carga útil: 178-233 pasajeros

Fuente Consultada: Aviones de Todo el Mundo de Enzo Angelucci – Paolo Matricardi

Caracteristicas de los Aviones Boeing 747 Evolucion Aviones Comerciales

Características de los Aviones Boeing 747
Evolucion de los Aviones Comerciales

Boeing B-747: Fue de nuevo la compañía Boeing, a finales de los años sesenta, la que dio el visto bueno a la enésima fase revolucionaria de la larga historia del transporte aéreo y la que conquistó una de las primacías más ambicionadas: construir y poner en producción de serie el mayor avión comercial del mundo.

Estas metas fueron alcanzadas, de hecho, el 29 de febrero de 1969, con el estreno en vuelo del primer B-747, el cabeza de serie de todos los «wide-body» (aviones de fuselaje ancho), un gigante de más de 400 pasajeros que, en seguida, llegó a ser conocido con el significativo sobrenombre de Jumbo.

El impacto que el nuevo avión produjo en el mercado se demuestra con unos pocos datos: en 1966, tres años antes de la aparición del prototipo, la Boeing había acumulado ya pedidos por un valor de 1.800 millones de dólares; en los seis primeros meses de servicio, los Jumbo lograron superar el límite del millón de pasajeros transportados; en 1979, las cadenas de montaje habían completado más de 250 unidades de este avión, con encargos que ascendían a otro centenar de unidades; el 747 que hacía el número 500, fue ultimado el 17 de diciembre de 1980.

En la mitad de 1981, el Jumbo era todavía el avión más prestigioso de la flota Boeing, con pedidos que se acercaban ya a las 600 unidades, diseminadas prácticamente por todas las principales compañías aéreas mundiales.

Los primeros detalles del 747 fueron revelados el 13 de abril de 1966, al mismo tiempo que el anuncio de un contrato por parte de la compañía Pan American para la adquisición de 25 aviones, por un valor de 525 millones de dólares de la época: el proyecto preveía, desde entonces, características revolucionarias, la más evidente de las cuales era la capacidad, que oscilaba entre 350 y 490 pasajeros acomodados en una cabina cuya anchura medía más de dos metros más respecto a la del mayor avión comercial entonces existente. El «visto bueno oficial» del programa fue dado el 25 de julio del mismo año.

Sin embargo, los problemas por superar no fueron pocos y no estaban relacionados exclusivamente con los aspectos técnicos ,que se derivaban de la necesidad de hacer volar perfectamente un avión caracterizado por semejantes pesos y dimensiones.

Efectivamente, los proyectistas prestaron gran atención a las exigencias de distribuir y acomodar un número de pasajeros jamás experimentado anteriormente; se instalaron 10 puertas, mientras que el interior del inmenso fuselaje fue subdividido, esmeradamente, en compartimientos relativamente pequeños, con el fin de evitar un efecto desagradable de dispersión en los viajeros.

Pese a todos estos esfuerzos, la entrada en servicio de los B-747 creó una serie de grandes dificultades en las infraestructuras aeroportuarias, en aquella época incapaces de acoger simultáneamente a un número tan elevado de pasajeros que embarcaban todos juntos en el mismo avión. La adecuación no fue rápida y, todavía hoy, pese a la gran difusión de los aviones de alta

Características  Avión: Boeing B-747-200
Constructor: Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1970
Motor: 4 turborreactores Pratt ti Whitney JT9D-7/3a, de 21.319 kg. de empuje cada uno
Envergadura: 59,64 m. Longitud: 70,66 m.
Altura: 19,33 m. Peso al despegar: 332.900 kg.
Velocidad de crucero: 910 km./h. a 9.500m. de altitud
Techo máximo operativo: 13.715 m.
Autonomía: 8.000 km.
Tripulación: 10-13 personas
Carga útil: 400 pasajeros

Fuente Consultada: Aviones de Todo el Mundo de Enzo Angelucci – Paolo Matricardi

Puedes leer un libro sobre esta maravilla aérea del autor Roberto Blanc, que lo ha enviado para que sea compartido con los navegantes interesados en el tema:

libro sobre el concorde

Historia Boeing 737 Características y Medidas Avion Comercial Datos

Historia Boeing 737: Características y Medidas

El peso de la compañía Boeing en el sector de la aviación comercial está reforzado por otro gran éxito, que acompaña al representado por el modelo 727: se trata de otra «carta ganadora» del gigante norteamericano: el birreactor B-737 que, desde 1967 (fecha de las primeras entregas) hasta hoy, ha logrado alcanzar el umbral de las 1.000 unidades solicitadas.

Efectivamente, en diciembre de 1981, los pedidos de este pequeño y versátil avión de transporte civil habían alcanzado las 972 unidades) de las cuales 111 en el transcurso del año. Entre las verdaderas primacías comerciales, al B-737 le corresponden las de haber sido, durante 1980 y 1981, el avión más vendido del mundo, con un número de pedidos superior al del B-707 y segundo, solamente, respecto al del más afortunado B-727.

Avión Comercial Boeing 737


El proyecto de este bimotor de alta capacidad, para el corto y medio radio de acción, recibió el visto bueno en mayo de 1964 y la fase de desarrollo prosiguió a gran velocidad. Para ahorrar tiempo (y dinero), Boeing eligió una configuración bastante semejante, en muchos componentes estructurales, a la del modelo 727, de mayores dimensiones y ya en producción: por ejemplo, buena parte del fuselaje, compuertas, paneles diversos y distribución interior; incluso los motores eran los mismos, instalados, no obstante, de manera convencional por debajo del ala.

El anuncio oficial del programa fue dado el 19 de febrero de 1965, y, en aquel mismo día, Boeing comunicó haber formalizado con Lufthansa un pedido de 21 unidades de producción. Efectivamente, la compañía aérea alemana había participado activamente en la definición final del avión, sobre todo por lo que se refería a la capacidad y a la autonomía.

El prototipo 737 emprendió el vuelo el 9 de abril de 1967 y fue seguido, un mes después, por el primer avión de serie (737-100) destinado a la compañía Lufthansa; el 8 de agosto apareció el primer avión de la segunda serie (737-200) solicitado por la compañía United Air Lines y ya pedido en aquella fecha en 40 unidades.

Respecto a la versión inicial, la característica predominante de la nueva variante estaba representada por el aumento de la capacidad de pasajeros (de 100-115 a 130), obtenida mediante el alargamiento del fuselaje en casi 1,83 metros. A estas versiones se añadieron, al año siguiente, dos nuevas variantes, desarrolladas por Boeing de manera semejante a lo que se había hecho con el modelo 727: la 200 C convertible y la 200 QC, semejante, pero caracterizada por tiempos de transformación interior bastante rápidos.

La evolución del avión no conoció detenciones. En 1969, Boeing empezó a construir la nueva serie Advanced200, modificada, todavía más, estructuralmente, potenciada en los grupos motores, y mejorada netamente en las prestaciones. El primer avión emprendió el vuelo el 15 de abril de 1971 y fue puesto en servicio por la compañía All Nippon Airways, poco más de dos meses después.

También los 737 Advanced 200 fueron ofrecidos en las versiones especializadas C y QC, a las cuales se agregaron una variante para ejecutivos, y otra caracterizada por un incremento de la autonomía de más de 1.200 kilómetros respecto de la serie de base. Contrariamente al Boeing 727, el birreactor Boeing no sufrirá, en los próximos años, la competencia de los aviones de la nueva generación. Por el contrario, con una nueva versión (la 300), el 737 se incluirá, de manera bastante homogénea, entre los Boeing 757 y 767.

Efectivamente, esta serie prevé mejoras significativas en las prestaciones y en los consumos, gracias a la incorporación de una extensa gama de modificaciones estructurales, entre las cuales se encuentra la adopción de una mayor cantidad de materiales compuestos. Boeing programó introducir estos cambios en los B-737-200 actuales, en producción a partir de 1982. El nuevo modelo 300 hará su presentación en el mercado al año siguiente.

Características  Avión: Boeing B-737-200
Constructor Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1967
Motor: 2 turborreactores Pratt & Whitney JT8D-15, de 7.030 kg. de empuje cada uno
Envergadura: 28,35 m.
Longitud: 30,48 m.
Altura: 11,28 m. Peso al despegar: 49.435 kg.
Velocidad de crucero: 915 km/h. a 6.675 m. de altitud
Techo máximo operativo: 9.145 m.
Autonomía: 3.555 km.
Tripulación: 5 personas
Carga útil: 115-130 pasajeros

 

Boeing 727 Características Tecnicas Historia de su Construcción

Avión Boeing 727 – Características

Boeing B-727
Indudablemente, el avión comercial más afortunado de los últimos veinte años, el Boeing 727 ha conquistado una envidiable primacía: la de ser el avión de transporte civil más vendido en cifras absolutas, en el mundo occidental. Desde 1963, año en que se iniciaron las entregas a las compañías, hasta finales de 1981, este valioso y versátil trirreactor ha sido solicitado en más de 1.800 unidades, con una flota operativa superior a las 1.700 unidades.

El límite de los 1.500 aviones entregados fue alcanzado el 2 de julio de 1979, con un avión destinado a la compañía United Air Lines. Desde el punto de vista estrictamente financiero, el programa B-727 ha resultado el más impresionante de la historia de la aviación comercial. Fue precisamente un 727, en agosto de 1981, el avión de reacción número 4.000, de línea, entregado por la Boeing.

Boeing B-727


Los estudios preliminares para la definición de un avión de transporte destinado al corto y medio radio de acción, con el cual acompañar la actividad del 8-727, fueron iniciados por Boeing en febrero de 1956. En aquella época, se levaban adelante investigaciones análogas en Gran Bretaña, y, en particular, los proyectos más interesantes eran los realizados por la compañía Bristol (modelo 200), por Avro (modelo 740) y por deHavilland (modelo 121).

Se trataba, en los tres casos, de aviones bastante semejantes en la configuración general y se caracterizaban por, la adopción de tres propulsores, uno de los cuales iba instalado en la cola, en la raíz de la deriva vertical. En 1959, los intereses comunes impulsaron a Boeing y a de Havilland (cuyo proyecto había sido elegido por la compañía de bandera británica) a explorar las posibilidades de una cooperación, pero, tras un intercambio de visitas técnicas y de informaciones, la idea fue abandonada y las dos sociedades prosiguieron separadamente en el desarrollo de los respectivos programas.

La ocasión, desde muchos puntos de vista, representaba una gran posibilidad para la industria aeronáutica británica y el hecho de haberla dejado perder resultó un gran error, tanto desde el punto de vista técnico, como desde el punto de vista comercial, ya que el Trident, que era el avión directamente competitivo del B-727 construido en Gran Bretaña, no tuvo un gran éxito internacional y se encontró el mercado prácticamente bloqueado por el más valioso producto norteamericano.

El B-727 —que fue anunciado el 5 de diciembre de 1960— era, en efecto, considerablemente mayor y más potente, tenía mayor capacidad de combustible y ofrecía mejores prestaciones operativas. Estas características de base fueron utilizadas posteriormente, mediante una inteligente obra de actualización, que, a través de las diversas series de producción, hizo posible el incremento de más del 60% del peso a plena carga, de casi el 30% de la autonomía y del 45% de la capacidad original de pasajeros.

El primer prototipo del 727 voló el 9 de febrero de 1963 y la producción de la serie inicial (100) empezó inmediatamente. El avión obtuvo la certificación el 24 de diciembre y, poco más de dos meses después, el 1 de febrero de 1964, entró en servicio regular de línea con los colores de, la compañía Eastern.

Acuciada por las peticiones, Boeing no vaciló en poner la producción a un régimen bastante elevado: entre las 80 y las 100 unidades al año, y en introducir continuas modernizaciones destinadas a aumentar la flexibilidad operativa del avión.

En 1964 fueron anunciadas las versiones 100 C (carga), caracterizadas por una amplia compuerta para la carga de las mercancías, por un suelo reforzado y, sobre todo, por la posibilidad para la compañía de poder transformar, en menos de dos horas, la configuración del avión carguero en totalmente de pasajeros o mixto y viceversa. Estos tiempos fueron restringidos drásticamente en la versión posterior 100 QC: apenas 30 minutos para adaptar el 727 a las exigencias específicas del transportista.

Sin embargo, la serie de mayor producción fue la 200, anunciada por Boeing en agosto de 1965 y que apareció como prototipo el 27 de julio de 1967. Característica principal del nuevo 727 era el aumento de la capacidad de
pasajeros (que pasó de 130 a 189), obtenida mediante un vistoso alargamiento del fuselaje (cerca de 6 metros). El peso máximo aumentó en más de 11 toneladas respecto a las unidades iniciales de producción y, en consecuencia, se adoptaron también propulsores con una potencia considerablemente superior.

Las sucesivas mejoras llevaron, algunos años después, a una nueva versión del 727, denominada Advanced 200, en la cual se realzaron, más aún, las ya notables características operativas del trireactor. Boeing anunció la iniciativa el 12 de mayo de 1971 y comenzó las entregas en junio del año siguiente. Además del considerable incremento en la capacidad de combustible y en la autonomía, en el nuevo avión se instalaron motores más potentes (y también más silenciosos), que hicieron posible el aumento del peso, a plena carga, a 95 toneladas, casi 23 más que los 727-100 de producción inicial. Además, los interiores fueron sometidos a una radical obra de modernización y proyectados de nuevo completamente.

La versión de base fue acompañada, en 1977, por una variante convertible más actualizada, designada 727-200 C y caracterizada por una capacidad de 137 pasajeros en configuración mixta; preparado como carguero exclusivamente, el avión es, en cambio, capaz de alojar en la bodega 11 contenedores normalizados, con un peso total, de pago, superior a las 20 toneladas, asegurando una autonomía de 3.150 kilómetros.

Especializada en el  transporte exclusivo de mercancías, fue en cambio, la versión 200 F, anunciada a comienzos de los años ochenta, provista de propulsores de reducido consumo de combustible y capaz de transportar una carga de pago de más de 28

Con su éxito excepcional de mercado —la unidad número 1.816 del 727 fue solicitada en noviembre de 1981 por la compañía Air Algerie—, el trirreactor de Boeing está hoy presente en todos los aeropuertos del mundo y con los coló-, res de una multitud de compañías, no sólo las principales internacionales, sino también transportistas charter y privados. La vida operativa de este avión está proyectada para que perdure unos años, aunque a partir de 1983, el 727 empezará a notar la competencia del 757, más moderno y económico, y desarrollado por la misma Boeing.

Características Avión: Boeing B-727-200
Constructor: Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1967
Motor: 3 turborreactores Pratt & Whitney JT8D-9A, de 6.580 kg. de empuje cada uno
Envergadura: 32,92 m.
Longitud: 46,69 m.
Altura: 10,36 m. x.
Peso al despegar: 83.820 kg.
Velocidad de crucero: 953 km./h. a 6.705 m. de altitud
Techo máximo operativo: 10.060 m.
Autonomía: 4.260 km.
Tripulación: 6-7 personas
Carga útil: 189 pasajeros

Puedes leer un libro sobre esta maravilla aérea del autor Roberto Blanc, que gentilmente lo ha enviado para que sea compartido con los navegantes interesados en el tema:

libro sobre el concorde