El Avión Boeing 727

Los Satélites Artificiales Argentinos Historia Plan Espacial

SATELITE ARTIFICIAL ARGENTINO
HISTORIA PLAN ESPACIAL

Los vehículos espaciales, como por ejemplos los satélites artificiales,  resultan instrumentos impresindibles para el avance científico y tecnológico de la imanidad. Son numerosos los fines con que se utilizan; ellos, cabe destacar los fines científicos, medioambienles, de comunicaciones, de navegación y militares. Mientras ue los satélites giran en órbita alrededor de nuestro planeta, las sondas se han liberado de la atracción gravitatoria de la Tierra y se desplazan en trayectorias variadas.

Los satélites recorren distintos tipos de órbitas, a diferentes alturas con respecto a la superficie terrestre. Tienen tamaños muy variables; algunos pueden llevar tripulantes a bordo.

Los de mayor envergadura se ubican en órbitas bajas entre 250 y 450 km, como por ejemplo, el transbordador espacial norteamericano y la estaciónespacial Mir, que permiten transportar astronautas, satélites y equipos de mantenimiento y reparación.  También se encuentra el telescopio espacial Hubble, que estudia la luz procedente de los objetos más alejados del Universo.

https://historiaybiografias.com/linea_divisoria4.jpg

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio. Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos. En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

Mono Juan Enviado al Espacio Por Argentina, Murió en el zoologico de Córdoba.

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio. El tripulante, de la especie caí, había nacido en Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja. Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal. En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD
A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas. En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos. Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones. La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas. El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social. El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información. La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos. La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES: La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida. En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre. Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó.

En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador. Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite. Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento.

Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta.

En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete. El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

Los satélites geoestacionarios se mantienen a una distancia de 38.500 km girando a la misma velocidad que la Tierra, por ello siempre se observan en el mismo punto sobre el ecuador terrestre. Se utilizan para establecer comunicaciones telefónicas y televisivas.

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:
Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro. Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica. Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se creala Sociedad Argentina Interplanetaria, la primera en América latina, en 1949. Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II. Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro «La Ciencia Argentina», explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II. Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario. La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B. Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita. En febrero 1994, el New York Times se refería a la empresa argentina como «una pequeña versión argentina de una compañía de Silicon Valley» y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial «Argentina en el Espacio 1995-2006». Varotto cuenta que este programa «fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo». Y agrega: «Se decidió concentrar los recursos en ir arriba para mirar para abajo». El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, «contribuya a la optimización de actividades de determinadas áreas socio-económicas». Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

SATÉLITES SAC-A Y SAC-B
La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita. Mejor suerte tuvo la misión SAC-A, que se concretó en 1998. El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C
Argentina en su Plan Espacial Nacional – «Argentina en el Espacio 1995-2006» , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae). Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de «proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes».

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7. Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales. Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la Conae llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino. Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites. El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la Conae- y varias empresas del país, que son las que construyeron el satélite. El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP. Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane
Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas. El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la «sugerencia» de EE.UU.
Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.
Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990. Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat). Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio. El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales. Fabricó el «bus», o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE. Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina. A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche. De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica. Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre d 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia. La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales. El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
«La Ciencia Argentina» de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario «La Nación»

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del «empleado bancario» ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos «bigotes» de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla Disputa

Historia del Uso de la Corriente Alterna
Disputa de Edison Vs. Tesla

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el «príncipe de los experimentadores». Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar.

Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: «Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética«. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad. En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las «resplande cientes herraduras que brillaban dentro de los globo en forma de peras».

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno y consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

iluminador electrico de gran potencia

PROYECTOR ELÉCTRICO DE 1,50 METROS, QUE ILUMINA LOS OBTETOS SITUADOS A 16 KILÓMETROS DE DISTANCIA

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

generadores de corriente electrica

Con su sala de turbinas de vapor construida a orillas del rio, completo aislamiento de todo el equipo eléctrico, disposiciones hidráulicas para eliminar las cenizas, instalación de calderas con recalentadores de vapor formados de seis tubos colocados sobre la cámara de combustión, extenso empleo de motores para llevar a efecto las operaciones precisas con las válvulas y perfecta maquinaria para facilitar el transporte del carbón, esta estación central de «Hell Gate», Nueva York, de la Compañía United Electric Light y Power, no tiene rival.

La Corriente Alternada

Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  «impulsar» a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

https://historiaybiografias.com/linea_divisoria3.jpg

LECTURA COMPLEMENTARIA:
La importancia de la electricidad como medio de transportar energía: Es difícil encontrar aplicación de la electricidad que demuestre más claramente su completa sumisión al hombre como la que se relaciona con el transporte de la energía o fuerza motriz. Desde tiempo inmemorial el hombre ha utilizado recursos que reemplazasen al esfuerzo que puede producir su brazo; el empleo de la fuerza de los animales es muy antiguo, y hay muestras evidentes de que también aprovechó la energía producida al caer el agua.

de todas maneras, en cada caso, siempre coincidían el lugar de producción y el de aplicación de la energía. La rueda hidráulica y el molino de nuestros antepasados estaban instalados al lado mismo del salto de agua. De este modo, muy pocos de nuestros grandes recursos hidráulicos podían ser aprovechados, pues la mayoría de los grandes saltos de agua están situados en lugares inaccesibles de las regiones montañosas, a los cuales sería imposible, o por lo menos muy costoso, transportar las primeras materias.

La fuerza motriz, invisible, va desde la escarpada montaña a la populosa ciudad Los progresos y desarrollo de la máquina de vapor y su creciente importancia han hecho se piense en buscar un medio de transmitir la energía al lugar del consumo desde el punto donde pueda producirse económicamente, ya por estar próximo el combustible o ser más fácil el acarreo desde la mina.

generador de energia electrica

UN GRAN GENERADOR ELÉCTRICO DE TURBINA: Uno de los generadores, de 55.000 caballos de fuerza, en la instalación hidroeléctrica de Queenston-Chippawa. Las turbinas de esta clase reposan sobre una especie de cojinetes o almohadillado de agua, tan delicadamente dispuesto, que si no se frena, tarda doce horas en pararse por completo, a contar desde el momento en que se corta la marcha.

Cuando la instalación de una máquina de vapor puede hacerse a la orilla de un estuario o un puerto, el carbón se transporta por mar a un coste relativamente bajo; pero dentro de las ciudades la conducción es carísima. El mismo agente que permite al hombre hablar a gran distancia con sus semejantes, puede ahora emplearse para transmitir la energía desde los saltos de agua en las montañas o las minas de carbón a la distante ciudad o centro consumidor. Las empresas industriales pueden así establecer las fábricas en aquellos lugares donde los jornales son menos elevados y la primera materia más abundante, puesto que es factible producir la energía necesaria a cientos de kilómetros.

De esta manera también pueden elegirse locales propios y convenientes para las fábricas y las centrales eléctricas donde se genera la energía, ligándose los dos centros por una línea de transmisión que abastece de fuerza eléctrica de un extremo a otro. Pero todavía la ingeniería moderna no es capaz de suministrar por este medio la fuerza motriz a las distancias que envía la voz humana.

La longitud a que puede transmitirse la energía económicamente en la actualidad es de 440 kilómetros en números redondos, y el alcanzar mayor distancia es uno de los grandes problemas que estudian los técnicos en nuestro siglo.

La transmisión eléctrica ha hecho posible la centralización de las grandes instalaciones productoras de fuerza motriz, y de este modo se ha conseguido convertir mucho más económicamente la energía química del carbón en eléctrica a bajo coste. La posibilidad de transportar la energía a grandes distancias permitió la instalación de enormes centrales conteniendo máquinas generatrices y convertidores de tal tamaño, que el coste de la producción por unidad de energía es tan bajo que permite sea consumido por las personas de recursos más modestos.

Debido precisamente a la con solidación y seguridad de estas grandes centrales, transmitiendo la energía a cualquier punto de la zona que las rodea por medios económicos y eficaces, ha sido posible la utilización de la electricidad en las fábricas, talleres y las viviendas.

En las instalaciones industriales más modernas se han suprimido los antiguos ejes, poleas y correas, acoplando motores eléctricos a los diversos mecanismos. La gran cantidad de energía economizada por esta disposición, sin duda mucho más apropiada y flexible para transmitir el movimiento, se emplea en aumentar el número de máquinas trabajando.

El coste de los edificios es así menor, y pueden construirse agrupados o separadamente, segrtn se quiera o convenga, sin tener que ajustarse a la posición del eje transmisor, lo que permite instalar las máquinas en la mejor posición, para disminuir acarreos innecesarios con el producto manufacturado, La eliminación de las correas deja mayor espacio libre, facilita el trabajo de los puentes-grúas o transbordadores, evita el polvo que se removía durante la marcha y, finalmente, también permite un alumbrado mejor.

La ausencia de cojinetes y aparatos para la lubricación de los mismos libra del goteo continuo de aceite, y todo esto trae consigo una mayor limpieza en las operaciones, mejorando, por consiguiente, las condiciones de salubridad durante el tiempo de estancia de los obreros en el trabajo y disminuyendo además múltiples daños al producto acabado.

La electricidad, aplicada al movimiento de la maquinaria, da mayor rendimiento, produce la fuerza con más flexibilidad que con el antiguo sistema de ejes transmisores, de tal suerte que pueden ponerse en marcha o hacer parar individualmente los aparatos sin que se note el menor cambio en la velocidad de los otros.

Pueden llevarse a efecto muchas operaciones delicadas que necesitan una velocidad igual. La sencillez con que puede regularse ésta, así como ampliar la fuerza motriz, facilita el aumento de producción y hace disminuir el coste de la materia elaborada. Son mucho menos frecuentes los accidentes donde se ha adoptado este sistema. Este hecho, unido a la disminución de ruido, mejor iluminación y mayor espacio, son de gran importancia para patronos y obreros, pues éstos tienen que encontrarse así en mejor disposición para el trabajo.

Las fábricas ya no se ven obligadas a esparcir el humo que lanzan sus chimeneas o el polvillo de sus ventiladores sobre las casas que las rodean, desde que aparatos eléctricos pueden evitarlo, o recoger, como por ejemplo, el polvo, de tanto valor en las fábricas de cemento.

El ozonizador eléctrico instalado en los tubos de salida de vapores que producen mal olor los evita, y permite ejecutar estas operaciones, molestas y desagradables, en locales situados dentro de la población, sin temer a que se opongan sus habitantes. En las fábricas donde es preciso mover hierros de varias formas, grandes y potentes electroimanes, instalados dentro o fuera de los talleres, transportan los materiales de un lado a otro en todo tiempo, ya llueva o nieve, aumentando así su capacidad productora.

Una de las aplicaciones más importantes de la fuerza eléctrica es la que se relaciona con la tracción. Al presente hay dos medios para poder hacer marchar los trenes en nuestros ferrocarriles: la máquina de vapor y la locomotora eléctrica. Necesariamente, la locomotora de vapor se irÁ abandonando poco a poco, debido a su limitado espacio para generar la fuerza precisa con la amplitud y rendimiento conveniente, mientras que
en el tractor eléctrico la energía llega de una estación central capaz de producirla en la cantidad que se requiera.

Una instalación móvil de vapor está sujeta a rápida y elevada depreciación, necesitando un coste de conservación mayor que la sencilla locomotora eléctrica. El molesto humo y el vapor desaparecen con el tractor eléctrico, y esto, que es de la mayor importancia en el caso de las líneas subterráneas de las grandes ciudades, fué frecuentemente la principal razón del cambio de la tracción de vapor por la eléctrica.

El empleo de la tracción eléctrica por todas partes en las líneas de tranvías y metropolitanos subterráneos se debe, como hemos dicho, principalmente a esta propiedad especial de no producir humo, y  también a la de poder establecer motores encada coche y así mover uno o varios, formando trenes según las necesidades del tráfico.

Las aplicaciones eléctricas han hecho incalculables beneficios mejorando las condiciones de la vida, pues por ellas, en muchas ciudades industriales, los s obreros pueden habitat en la parte más sana de los alrededores, sin perder demasiado tiempo en trasladarse desde su casa al almacén, tienda o taller donde prestan sus servicios.

Aquellos que viven en poblaciones extremadamente densas, por otro lado, pueden salir económicamente al campo para deseansar del torbellino de la ciudad. Las relaciones sociales, el cambio comercial, el mismo paisaje, todos ellos perderían extraordinariamente sin el motor sin humo. Las rápidas líneas de tranvías interurbanas, en regiones menos pobladas, transportan pasajeros y mercancías a las granjas situadas en su ruta. De este modo se tienen medios económicos y convenientes para efectuar las diversas transacciones entre los productores y los que consumen en las ciudades.

El transporte de pasajeros y mercaderías por medio de las líneas eléctricas, el teléfono y el telégrafo, acortan las distancias de tal suerte, que los habitantes del campo están en íntima comunicación entre sí, pudiendo aprovecharse de estas grandes mejoras.

Fuente Consultada:
Colección Moderna de Conocimientos Universales – La Era de la Eléctricidad – Tomo II – Editores W.M. Jackson, Inc.

 

Historia de la Produccion en Serie La Cadena de Montaje

Historia de la Producción en Serie – La Cadena de Montaje

CADENA O LÍNEA DE MONTAJE: Cuando pudieron hacerse formas metálicas exactamente iguales, fue lógico pensar en ellas como piezas intercambiables. Eli Whitney fue quien por primera vez montó piezas intercambiables como un nuevo método de fabricación. Se pudo hacer las piezas en un lugar y luego armarlas en otro. Whitney pensó que en esta forma los productos manufacturados podrían producirse en cantidad mayor con más rapidez y a menor costo.

Ely Whitney

En los primeros años de su juventud, Whitney se ganó la vida batiendo clavos en un yunque. Nunca podía dar a los clavos formas exactamente iguales. Años después, cuando ya había inventado la desmotadora de algodón, en una ocasión en que observaba cómo con un martillo pilón se hacían miles de clavos idénticos, se convenció de que las máquinas tendrían que sustituir a la mano del hombre.

Por esa época, en 1789, Francia estaba en plena revolución, y los Estados Unidos temían que su mejor amiga pudiera volverse contra ellos. Se necesitaban fusiles para la defensa de las costas de América. Para fabricarlos a mano se requerirían años. No es de extrañar que el Departamento de Guerra se alegrase cuando Whitney propuso entregar 10.000 mosquetes en el término de dos años al bajo precio de $ 13,40 cada uno. Se celebró contrato con Whitney, adelantándole una suma para que comenzara la fabricación.

El joven inventor, sin embargo, tropezó con gran dificultad para encontrar hombres que poseyeran la pericia mecánica necesaria para hacer las máquinas cortadoras que reemplazasen al viejo martillo, el escoplo y la lima. Al igual que antes Watt, Whitney tuvo que hacerse las herramientas requeridas y adiestrar en el manejo a los obreros que él tomaba en las fundiciones y talleres de maquinaria.

Su primera tarea fue construir un elemento mecánico que reemplazara a las, manos humanas en la aplicación y dirección del movimiento de un instrumento cortante. No había maquinistas cuyas manos fuesen suficientemente firmes o fuertes como para sostener un instrumento de raspado contra una pieza de hierro que gira más de unos pocos minutos cada vez.

Se necesitaba una presión constante y exacta. Resolvió el problema con una especie de plantilla mecánica, que viene a ser un molde de madera o metal, a lo largo del cual se mueve una herramienta que hace piezas iguales.

Cada pieza del mosquete se sujetaba en una posición prefijada antes que las fresas la cortaran. De esta manera se repetía cada una con precisión absoluta. No sólo se empleaban piezas uniformes, sino que los bancos de trabajo se ubicaban de manera que las piezas pudieran pasarse de un obrero al otro.

La fábrica se dividía en departamentos, cada uno con su máquina especial unida por correa a un eje que impulsaba y hacía todas las herramientas cortantes.

Con esto la fábrica ya estaba preparada para ponerse en marcha, y todas las máquinas comenzaron a trabajar al mismo tiempo. Una máquina daba forma a la caja de madera del fusil, con sus superficies planas y curvadas. En hojas metálicas se hacían agujeros en lugares precisos, a fin de que sirviesen de guías para la producción en masa de trabajo de perforación.

Con grapas se sujetaban hojas metálicas contra los bancos, mientras las fresas las cortaban. Interruptores automáticos-detenían la acción de la herramienta. El mecánico sólo necesitaba agrapar las barras metálicas, las cuales eran cortadas, cepilladas, conformadas, taladradas, lustradas y esmeriladas automáticamente.

Los obreros solamente tenían que reunir las diversas piezas y llevarlas a la sala de montaje, donde se armaban los fusiles en tiempo record.

Finalmente, se dispuso de una forma de producir grandes cantidades de materiales con la rapidez, la uniformidad y la precisión que ningún artesano podía lograr individualmente.

Comienza la producción en masa
En este tiempo las avanzadas de pobladores y colonizadores de zonas lejanas estaban en plena marcha hacia el oeste de los Estados Unidos. Había que preparar las fronteras (que es como se llamaba a los límites entre civilización y regiones incultas) y construir viviendas.

El hacha era la herramienta predilecta del pionero. Pero éste a menudo tenía que esperar meses a que el herrero le forjara un hacha. Cada mango exigía un tallado cuidadoso. Cada hoja de hacha requería un largo y lento proceso de templado y pulimento.

Lo que Whitney había hecho para el fusil, otros entusiastas de la mecánica lo aplicaron al hacha. Las fábricas las hicieron a millares. Se colocaban en tambores giratorios y pasaban por las llamas de un horno en un proceso de calentamiento uniforme. Luego un martinete de fragua les daba rápidos golpes sucesivos, que hacían perforaciones de una medida exacta, por donde entrase a la perfección el mango.

De la noche a la mañana dejaron de faltar hachas. Corrió si se tratase de celebrar la intensificación de la producción fabril, empezaron a salir en cantidad los relojes de las fábricas. Con máquinas se perforaban miles de piezas por día y se montaban tan rápidamente que todo el mundo pudo tener reloj por muy bajo precio.

El hecho de que las máquinas pudieran hacer cosas mejores y con mayor rapidez produjo una conmoción creciente que todo lo inyadió. Elias Howe descubrió la parte esencial de la idea de una máquina de coser un día en que puso el ojo de una aguja en la punía en lugar de la cabeza.

De esta manera fue posible hacer que el hilo atravesase la lela sin necesidad de que la aguja la pasase de lado a lado. Otro hilo que salía de una lanzadera pasaba por dentro del lazo. Cuando la primera aguja retrocedía nuevamente, con un punto de cadeneta se apretaban los dos hilos. Esto resultó cien veces más rápido que coser a mano.

Singer introdujo mejoras. Mediante un pedal consiguió que las manos de la costurera quedasen libres y pudiesen guiar la tela. Se dio a la aguja movimiento vertical, subiendo y bajando, en vez de moverse Imrizontalmente como la aguja de Howe.

Al poco tiempo la máquina de coser pasó del hogar a la fábrica. La producción en masa hizo bajar los precios. Todos pudieron adquirir desde entonces mi traje nuevo, un vestido nuevo. Las máquinas construyeron nuevas máquinas despúes de cada nuevo invento. La lenta salida de los productos manufacturados, parecida a un goteo se transformó en un diluvio.

PARA SABER MAS…
Cadena de Montaje en Ford

La producción dependió de la rapidez con que el hombre pudiese servir a la máquina. En la línea de montaje, cada hombre agregaba una pieza al armazón desnudo que iba avanzando por esa línea. A medida que el magneto, por ejemplo, se desplazaba sobre un medio transportador, los hombres le añadían algo cada uno, hasta que finalmente salía terminado al cabo de trece minutos. Levantando el transportador del magneto veinte centímetros, para que los hombres no tuvieran que agacharse, el tiempo disminuyó a siete minutos. Imprimiendo al transportador un poco más de velocidad, ese tiempo se redujo a cinco minutos.

Con métodos similares, en la línea del ehassis se redujo el número de estaciones, hasta que fue sólo de cuarenta y cinco, y de la última operación salía el auto armado. Fue éste un ejemplo sensacional del método nuevo de producción. En 1915, un coche se terminaba en noventa y tres minutos. Una década después, luego de haberse vendido 16 millones de automóviles del modelo T, cada quince minutos salía un coche nuevo. Lo más sorprendente de todo es que el precio se pudo reducir de 850 a 295 dolores.

Frederick Taylor fue el primero que concibió la idea de que el propio hombre pudiera convertirse en un mecanismo. Taylor es el ingeniero que descubrió un acero de aleación nueva capaz de cuadruplicar la velocidad de las herramientas cortantes. Imaginó que el propio hombre podía llegar a ser igual de eficiente que una máquina si se eliminaban movimientos superfluos. Utilizando un cronógrafo, determinó el tiempo que tardaban distintos obreros y el que se requería en distintos movimientos para concluir una operación.

Otros ingenieros siguieron estudiando los movimientos de los obreros con el propósito de llegar al máximo de producción posible por minuto. Todos estos estudios sobre la forma de lograr que las piezas y los materiales saliesen en forma uniforme y fija; con la velocidad mayor con que las máquinas pudieran producirlas, desembocaron en una sorprendente conclusión: nunca se conseguiría que el hombre fuese una máquina eficiente.

Ver: Henry Ford y su Producción

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer «la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en «V», puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en «V», grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en «V», el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en «V» próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación «vuela» sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en «V», la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Aviones Convertibles Primeros Modelos y Tipos Historia

Aviones Convertibles Primeros Modelos y Tipos

INTRODUCCIÓN: El día 2 de noviembre de 1954 constituye un hito en la historia del aeroplano. Dicho día, en la base de pruebas de la casa Convair, el piloto J. K. Coleman realizó el primer vuelo en un avión que despegó verticalmente desde su posición de partida, basculó en el aire, voló horizontalmente a más de 800 kilómetros por ahora y aterrizó de nuevo en posición vertical hasta quedar apoyado sobre la cola.

El Faire-Rotodyne, convertible para pasajeros, de velocidad superior a los 300 kilómetros por hora.

El avión era un monoplano de ala en delta Corvair XFY-1 equipado con un turbopropulsor Allison de 5.500 HP. Dos hélices tripalas contrarrotativas proporcionan, junto con el empuje del chorro del reactor, la fuerza de sustentación necesaria para el despegue vertical. Se trata de un nuevo tipo de avión, que los norteamericanos designan VTOL (Vertical Take oíi Landing: despegue y aterrizaje vertical) y que en Europa se conoce por «convertible».

En el año 1950, con ocasión de la guerra de Corea, el Gobierno de los Estados Unidos se dio cuenta de la necesidad de disponer de aviones de caza capaces de despegar en cualquier clase de terreno, sin necesitar aeródromos y pistas de aterrizaje.

En efecto, el peso cada vez mayor de los aviones de caza obligó a hacer pistas y campos de aterrizaje de mayor extensión y resistencia, y, por otra parte, el terreno montañoso no ofrecía lugares a propósito para la instalación de tales campos y pistas. Asimismo había que pensar en aviones de caza capaces de despegar de la cubierta de los buques de guerra y de transporte y que pudiesen aterrizar de nuevo en ellos, evitando tener que acompañar las escuadras y convoyes con costosos y vulnerables portaaviones.

A partir de dicho año los proyectos se suceden, la mayoría irrealizables por fantásticos; pero algunos ofrecen posibilidades constructivas, y al cabo de cuatro años se consigue que vuele el primer «convertible».

Qué se entiende por avión convertible:

Un avión convertible es un avión capaz de despegar y aterrizar como un helicóptero, es decir, verticalmente, y una vez alcanzada la altura suficiente, volar como un avión.

Aunque el helicóptero resuelve muchos problemas, como son los del salvamento en zonas difíciles de acceso, vigilancia y enlace, así como transporte del aeropuerto al centro urbano y de ciudad a ciudad con helicopuertos centrales, las misiones de tipo militar, en campaña, quedan limitadas en estos aparatos por su reducida velocidad.

En dos décadas de desarrollo el helicóptero sólo ha alcanzado una velocidad máxima de 251 kilómetros por hora (récord mundial, septiembre de 1953, helicóptero Sikorsky XH-39, piloto Wester, de los Estados Unidos), y no es previsible ni probable que llegue a alcanzar nunca las velocidades sónicas, ya alcanzadas y hasta rebasadas por algunos tipos de aviones de caza.

El 5 de enero de 1959 el Fairey-Rotodyne, primer convertible comercial para pasajeros, ya logró alcanzar en sus vuelos de ensayo los 307 kilómetros por hora sobre un circuito de 100 kilómetros, batiendo con ello la marca de velocidad máxima alcanzada por los helicópteros.

Si motivos militares son los que han impulsado el rápido desarrollo del convertible, no debe olvidarse el problema de la seguridad, que queda ampliamente resuelto con este tipo de avión. Por consiguiente, no deberá extrañar que, una vez puestos a punto los convertibles militares, se construyan paralelamente los convertibles civiles, tanto para el transporte de viajeros como para el turismo o el avión particular.

Tipos de aviones convertibles:

Los convertibles se clasifican en tres grandes grupos:
1.° Los que disponen de rotores, hélices o reactores distintos para la sustentación como helicópteros y para la propulsión como aviones.
2.° Los que tienen un mismo rotor, hélice o reactor para la sustentación y la propulsión, y el eje del propulsor ha de girar 90° al pasar de una a otra clase de vuelo.
3.° Los que se sustentan y avanzan sobre una columna de aire creada por sus elementos propulsores. Son las plataformas volantes.

En el primer grupo, los aparatos reúnen las características del helicóptero combinadas con las del aeroplano: alas y hélices o reactores de avión para el vuelo horizontal, y rotor de helicóptero o reactores para el vuelo vertical. La ventaja principal de estos convertibles estriba en la seguridad de su pilotaje, ya que el paso de vuelo helicóptero al vuelo avión es continuo, conservando siempre el mando del aparato. El grupo primero se subdivide en tres subgrupos:

a)    Los convertiplanos cuyo rotor de despegue se para en el vuelo horizontal, de manera que las palas ofrezcan una resistencia mínima al avance.
b)    Los convertiplanos en que las palas del rotor de sustentación vertical se colocan de manera que en vuelo horizontal actúan como las alas fijas de los aviones normales.
c)    Los combinados de avión y helicóptero, es decir, los helicoplanos o helicópteros combinados, con fuselaje y alas de avión provisto de rotores sustentadores.

Entre los proyectos correspondientes al grupo primero, subgrupo a), destaca el convertiplano de Wilford, con rotor monopala contrapesado, de propulsión por reacción, a tase de chorro de gases comprimidos por el motor y eyectados e inflamados en el extremo acodado de la pala.

En el subgrupo b) merece citarse el convertiplano de Herrick, HV-1, que realizó sus primeros ensayos en 1931, prosiguiendo sus estudios en años posteriores (el HV-2 voló en 1937).

avion convertible herridyne

Modelo norteamericano «Helidyne», convertible, con dos rotores coaxiles y dos motores para vuelo horizontal. Ofrece, en su conjunto, las ventajas del helicóptero, el autogiro y del avión clásico.

Convertiplano de Herrick. Es un biplano con una ala fija y otra giratoria, a voluntad, dotada de turborreactores en sus extremos. Para el despegue y aterrizaje el plano superior actúa como un rotor de helicóptero; este rotor se convierte en plano cuando navega en vuelo horizontal.

El subgrupo c) está formado por los helicópteros «combinados», de los cuales constituye un precursor el autogiro español La Cierva, cuyos primeros vuelos datan del año 1923. El notable ingeniero Juan de la Cierva, con su revolución genial de la articulación de las palas del rotor y el descubrimiento del fenómeno de autogiración, hizo posible el desarrollo posterior del helicóptero y, como consecuencia, el del convertiplano.

Como se sabe, el autogiro primitivo era un avión de alas reducidas en las que una hélice tractora proporcionaba la velocidad suficiente para que el rotor entrase en autogiración, suministrando la fuerza de sustentación necesaria al vuelo. El rotor permitía una velocidad de vuelo muy reducida y el aterrizaje prácticamente vertical, y en los últimos modelos se lograba el despegue vertical acelerando el rotor mediante una transmisión desde el motor.

Soluciones parecidas, aunque no pueden clasificarse   estrictamente   como  convertibles,   son:

El «helicoplano» Hamilton, que se ensayó en los Estados Unidos en 1929, formado por un avión monoplano de ala alta Hamilton con dos hélices de eje vertical de 5,50 metros de diámetro situadas bajo el ala y a ambos lados del fuselaje.

Tipo de avión convertible que despega sobre un trípode, proyectado por L. H. Leonard. Una vez que el aparato ha despegado, gira sobre sí mismo un ángulo de 90 grados, las aletas estabilizadores se reducen por retracción (alas delanteras) y el aparato queda convertido en un cigarro puro volante de grandes alas.

El «giróptero» del francés Chauviére, construido en 1929, provisto de rotor sustentador y hélice tractora.El «clinógiro» de Odier Bessiére, ensayado en Francia en 1932, no es más que un monoplano Caudron 193, con motor de 95 HP, al que se le ha añadido una ala superior giratoria formada por un rotor de cuatro palas. Un proyecto posterior de A. Flettner prevé un avión clásico con cuatro hélices verticales para asegurar despegue y aterrizaje verticales.

Entre los «combinados» modelos pueden citarse los siguientes:

El helicóptero birrotor americano de la «Gyro-dyne Co.» Helidyne 7 A, con alas fijas reducidas de avión y dos motores con hélices propulsoras que le permiten volar a 140 kilómetros por hora con una carga útil de 1.340 kilogramos. Se trata de una adaptación del helicóptero Bendix. Sus primeros vuelos tuvieron efecto en noviembre de 1949. Un nuevo tipo, el Helidyne, destinado al transporte militar, presenta un peso en vuelo de 11.300 kilogramos.

Parecido a éste es el aparato experimental francés Farfadet SO-1310, helicóptero con un rotor de reacción a base de aire comprimido suministrado por una turbina «turbomeca» de 260 HP y alas fijas de superficie reducida, así como una hélice tractora accionada por una segunda turbina. En vuelo horizontal el rotor entra en autogiración. Sus ensayos dieron comienzo en el año 1953.

El Fairey-Rotodyne, que ya se ha citado, corresponde a este subgrupo.
En el grupo segundo, convertiplanos de rotor sobre eje que bascula en 90° para pasar del vuelo vertical al horizontal, también se distinguen dos subgrupos:

a)    Convertiplanos en que el rotor y el fuselaje basculan simultáneamente al pasar del vuelo en helicóptero a vuelo en avión, o sea eje del rotor invariable respecto al fuselaje.

b)    Convertiplanos con rotores o reactores de eje basculante respecto al fuselaje que permanece siempre en posición horizontal.

Los aparatos correspondientes al grupo segundo se caracterizan por tratarse en general de aparatos de alas fijas cuyas hélices son de diámetro mucho mayor al que normalmente sería necesario para el vuelo horizontal. En efecto, en este tipo de convertiplano las hélices, que trabajan con eje vertical, han de proporcionar la fuerza de sustentación necesaria para elevar vertical-mente el aparato.

El Hillar X-18 Propelloplane, avión convertible de ala basculante que despega en vertical.

Entre los aparatos del grupo segundo, subgrupo a), figuran los primeros convertibles de realización práctica y cuyos vuelos permitirán la solución del problema para los aviones de caza. Es el VTOL Convair XFY-1, ya citado, y otros como el Coleóptero, que más adelante describiremos con mayor detalle.

Este subgrupo a) es mecánicamente el de más fácil realización;  en cambio, presenta  otros inconvenientes que la práctica indicará la forma en que deberán solucionarse. Son éstos la difícil maniobra del paso de vuelo vertical a horizontal, y viceversa, basculando todo el aparato.

El embarco de los tripulantes y del material en el fuselaje en posición vertical tampoco será fácil. Por último, la estabilidad en el momento de aterrizaje si sopla viento algo fuerte parece precaria dada la altura del centro de gravedad con relación a la reducida base de apoyo sobre la cola.

Como primeros proyectos y realizaciones, merecen citarse los siguientes:
El de Focke-Wulf, que durante la segunda Guerra Mundial proyectó un convertible a base de substituir las alas por un gran rotor tripala situado tras la cabina de mando, accionado por estatorreactores en el extremo de las palas. Esto obligaba a utilizar cohetes de despegue. Los empenajes de tipo normal soportaban el tren de aterrizaje, sobre el cual se apoyaba el aparato en posición vertical para el despegue y aterrizaje.

Parecido al anterior, pero más atrevido, es el proyecto de L. H. Leonard, en el cual dos grandes rotores impulsan un fuselaje en cuya proa se halla la cabina de mando y los empenajes, y en la popa el tren de aterrizaje que, replegado en vuelo, se despliega para el aterrizaje vertical sobre la cola.

Un convertiplano correspondiente a este grupo, que fue construido por encargo de la Marina de los Estados Unidos, es el ala volante semicircular «Chance Vought» XFSU-1, de Zimmerman. En los extremos del ala dos grandes hélices tractoras despegaban el aparato colocado en ángulo de 45° y el aterrizaje se efectuaba en un espacio muy limitado, lo que permitía su utilización sobre las cubiertas de los buques. Fue rescindido el contrato de construcción en serie debido a la precaria estabilidad en el aterrizaje, defecto que, como indicamos, es inherente a este grupo.

Los aparatos del grupo segundo, subgrupo b), se reducen en general a aviones clásicos en los que, bien los motores, bien las alas, pueden bascular en 90° para lograr la posición vertical de las hélices.

Entre éstos pueden citarse el Bell XV-3, monoplano bimotor con dos rotores de 7 metros de diámetro en los extremos de las alas, cuyos ejes giran a la posición vertical para el despegue y a la horizontal para la propulsión. En el Bell-VTOL, monoplano de ala alta del año 1955, son los turborreactores situados bajo el ala los que basculan.

Otro tipo interesante de convertiplano es el Hiller X-18 Propelloplane, de 18 toneladas, cuyos primeros vuelos se realizaron en 1958. El ala, que gira solidariamente con los propulsores, colocándose en posición vertical para el despegue y horizontal para el avance, soporta dos turborreactores provistos de hélices contrarrotativas.

Una disposición análoga presenta el Vertol 76, cuyo primer vuelo completo se llevó a cabo el 15 de julio de 1958. El Kaman 16-B es un aparato anfibio construido según las mismas directrices.

Fuente Consultada:
Enciclopedia Cultural UNIVERSITAS Tomo N°17 -Los Aviones Convertibles-

Procesos Para Obtener Metales desde Minerales

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos. El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros. La cantidad de metales que existen en la corteza terrestre es relativamente pequeña. Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos. Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral. Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas. La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %. Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—. Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado. Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero. El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.   El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

METALURGIA: El campo de acción que abarca la metalurgia es verdaderamente amplio. Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características. En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales). El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre. Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

Minerales de Hierro

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado. En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado. Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente. Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición. Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente. Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente. Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos. En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables. Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza. El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación. Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada. Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación. También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.
El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia. Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable. Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción. También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta. Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos. Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales. La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia. La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año. En el- futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Grandes aviones comerciales Historia de los aviones Tupolev 144

Grandes aviones comerciales
Historia de los aviones Tupolev 144

Tupolev Tu-144: La fascinante carrera para la construcción del supersónico civil tuvo en el Tupolev Tu-144, soviético, uno de los principales protagonistas, vencedor, a partes iguales, con el Concorde. El prestigio en juego era inmenso y la URSS no escatimó esfuerzos después de recoger el reto de la industria aeronáutica occidental: su Tu-144 fue el primero en volar, el 31 de diciembre de 1968, pero fue también el primero en abandonar el servicio de línea, diez años después, sin que se aprovechasen plenamente sus potencialidades.


El supersónico soviético fue presentado, en forma de modelo, en el Salón de París, de 1965, y, tras el histórico bautismo del aire del primer prototipo, inició una larga fase de evolución, que duró, por lo menos, cinco años, antes de la aparición de las unidades de producción inicial.

En el curso del ciclo de las evaluaciones, no obstante, el Tu-144 marcó otras importantes etapas en la historia de la aviación. Tras superar la velocidad del sonido, por primera vez, el 5 de junio de 1969 (a una altitud de 11.000 metros, después de media hora del despegue), el 26 de mayo de 1970 el avión llegó a ser el primer aparato comercial del mundo que superó Mach 2.

Esta velocidad (2.150 km./h., exactamente) fue mantenida durante varios minutos a una altitud de 16.300 metros. Posteriormente, se registró una velocidad máxima de Mach 2,4.

De todos modos, fue en 1973, también en el Salón Aeronáutico de París, cuando el supersónico de Tupolev fue exhibido en la configuración de producción inicial. Bastante semejante al anglofranees Concorde (respecto al cual, no obstante, tenía mayor capacidad), el avión apareció completamente modificado respecto a los prototipos, sobre todo en el ala, en la posición de los motores y en el tren de aterrizaje; por primera vez, en aquella ocasión, aparecieron, además, las dos aletas retráctiles en el morro, necesarias para mejorar las características de vuelo a baja velocidad.

La unidad presentada (la segunda de serie) se destruyó en un accidente de vuelo, pero, al menos oficialmente, no se reconocieron fallos del avión. El progreso de la producción (el Tu-144 fue construido en 13 unidades por lo menos) evidenció otras modificaciones, estructurales y de equipamiento.

El servicio con la compañía Aeroflot, aunque en forma experimental, comenzó el 26 de diciembre de 1975, entre Moscú y Alma-Ata (Kazajstán) en una distancia de 3.520 km.; por otro lado, se activó una conexión, el 22 de febrero de 1977, entre la capital soviética Jabarovsk y, en total, se efectuaron entre las tres ciudades unos cincuenta vuelos, antes de que, el 1 de noviembre de 1977, comenzase el servicio regular de pasajeros entre Moscú y Alma-Ata. En aquella ocasión, extrañamente, el Tu-144 voló semivacío, con tan sólo 80, de los 140 asientos, ocupados. Paulatinamente, no obstante, la actividad siguió adelante y, hasta el 1 de junio de 1978.Aeroflot efectuó 102 conexiones, antes de que llegase la orden de suspender la iniciativa.

Sobre las causas de esta decisión, han sido muchas las hipótesis y las ilaciones: aparentemente, el final de la actividad comercial del Tu-144 tuvo lugar después de un accidente acaecido a una do las unidades en vuelo experimental. Según muchos expertos y técnicos, el supersónico soviético no alcanzó nunca una fase satisfactoria de puesta a punto; según otros fue la baja rentabilidad del avión, medida en términos económicos, la quo indujo u las autoridades soviéticas a ponerlo aparte.

Probablemente, se trató de un conjunto de todos estos factores, sobre todo considerando que también la actividad del Concorde resultó un fracaso desde el principio, en términos de gestión operativa, y que aquél, por el contrario, se mantuvo por puro prestigio de Francia y de Gran Bretaña.

De todos modos, el 23 de junio de 1979, la URSS anunció el primer vuelo de una versión mejorada del Tu-144, designada con el sufijo D y dotada de nuevos motores más económicos y «limpios» y de mejores características de autonomía. Según las fuentes soviéticas, este avión estaba preparado para entrar en producción de serie.

Características Avión: Tupolev Tu-144
Constructor: Industrias del Estado
Tipo: Transporte civil
Año: 1968
Motor: 4 turborreactores Kuznetsov IMK-144, de 20.000 kg. de empuje cada uno
Envergadura: 28,80 m. Longitud: 65,70 m.
Altura: 12,85 m.
Peso al despegar: 180.000 kg.
Velocidad de crucero: 2.500 km./h. a 18.000 m. de altitud
Techo máximo operativo: 18.000 m.
Autonomía: 6.500 km.
Tripulación: 8 personas
Carga útil: 140 pasajeros

   Volver Arriba 

Tupolev 134 Medidas de Aviones de Linea Rusos Historia Fabricacion

Tupolev 134 Medidas de Aviones de Linea Rusos
Historia y Fabricación

Tupolev Tu-134: Después del Tu-104 de 1956 y del Tu-124 de 1960, el tercer proyecto de transporte comercial de reacción del grupo de trabajo de Tupolev fue el Tu-134, empezado a construir a principios de 1968 en base a determinadas peticiones de Aeroflot, que quería un avión para el corto y medio radio de acción, que fuese competitivo con los occidentales de igual clase.

Desde este punto de vista, aunque derivado evidentemente de sus directos predecesores, el Tu-134 acabó por parecerse a los que eran sus más próximos competidores construidos en Gran Bretaña y en los EE.UU.: el BAC One-Eleven y el DC-9.

Las semejanzas más evidentes entre los tres aviones estaban, en efecto, en la cola estructurada en forma de T y en la instalación de los dos propulsores en la parte posterior, a los lados del fuselaje. Esta configuración —introducida, por primera vez, por el birreactor francés Caravelle, a principios de los años cincuenta— permitía una considerable reducción del ruido en la cabina (al menos en las partes anterior y central) y una mayor «limpieza» de las superficies del ala, con mejor rendimiento general. Sin embargo, pese a estas diferencias, el nuevo proyecto de Tupolev calcaba de nuevo el anterior.

Efectivamente, prescindiendo del fuselaje, el Tu-134 adoptaba, fundamentalmente, la misma ala que el Tu-124, modificada en su parte central (no sólo para eliminar los dos motores de aquél, sino también para aumentar su longitud) y en las extremidades: en esencia, la envergadura había sido aumentada en casi tres metros y medio.

Los primeros detalles y las primeras informaciones referentes al Tu-134 llegaron a Occidente en septiembre de 1964, después de que el prototipo y otras cinco unidades de pre-serie hubieran llevado a cabo una fase consistente de pruebas, con más de 100 vuelos efectuados, y más o menos simultáneamente con el comienzo de la producción de serie. Debieron pasar otros tres años, antes de que Aeroflot completase el ciclo de evaluaciones operativas mediante una serie de conexiones interiores: el 12 de septiembre de 1967, el Tu-134 inauguró el servicio internacional en la ruta Moscú-Estocolmo.

Estos aviones —con capacidad de 64 a 72 pasajeros— conocieron un gran éxito de exportación, ya que fueron solicitados y adoptados por las compañías aéreas de Bulgaria, Alemania Oriental, Polonia, Hungría y Yugoslavia. De todos modos, en otoño de 1970, Aeroflot puso en servicio una nueva versión del birreactor, designada Tu-134A. Éstos tenían el fuselaje alargado en 2,10 metros, nuevos motores Soloviev D-30 de 6.800 kg. de empuje cada uno y dotados de inversores, tren de aterrizaje nuevo y más robusto, turbina de potencia auxiliar, y equipo electrónico de navegación y comunicación modernizado. Por otro lado, se había reforzado toda la estructura y se había aumentado la capacidad a 76-80 pasajeros.

Con el avance de la producción, desapareció también la que había sido una do las características estéticas de los aviones iniciales: la extremidad del morro acristalada (que, como en muchos aviones comerciales soviéticos, estaba destinada a alojar al navegante), por debajo do la cual un vistoso carenado contenía oí radar meteorológico.

En efecto, los Tu-134A de serie avanzada fueron dotados do un morro convencional, y de esta modificación pudo disponerse también, a petición, en los aviones que estaban ya en servicio.

En conjunto, la producción del Tu-134, en ambas versiones, se estimaba en cerca de 300 unidades a finales de 1980. De éstas, más de 200 estaban en servicio con los emblemas de la compañía Aeroflot, y los restantes con los colores de compañías pertenecientes a países del bloque oriental.

En particular, los Tu-134A fueron solicitados por la compañía checoslovaca CSA, por laInterflug germano-oriental, por la húngara Malev, por la polaca LOT, por la yugoslavaAviogenex y por la búlgara Balkan Bulgarian Airlines. El rendimiento operativo de estos aviones fue juzgado muy positivamente, sobre todo en términos de prestaciones y de economía de explotación.

Características  Avión: Tupolev Tu-134A
Constructor: Industrias del Estado
Tipo: Transporte civil
Año: 1970
Motor: 2 turborreactores Soloviev D-30, de 6.800 kg. de empuje cada uno
Envergadura: 29,00 m. Longitud: 37,10 m.
Altura: 9,02 m.
Peso al despegar: 47.000 kg.
Velocidad máxima: 870 km./h. a 11.000 m de altitud
Techo máximo operativo: 12.000 m.
Autonomía: 2.400 km.
Tripulación: 5 personas
Carga útil: 76-80 pasajeros

   Volver Arriba

Historia del Globo Aerostático Viaje al Polo en Globo y Dirigible

Historia del Globo Aerostático
Viaje al Polo en Globo

HISTORIA DE LA ÉPOCA: En 1782, a los hermanos Joseph-Michel (1740-1810) y Jackes-Etienne Montgolfier (1745-1799) se les ocurrió pensar que si se calentaba el aire, se expandía y se hacía más liviano que el aire frío. Para demostrarlo, introdujeron aire caliente en una bolsa de papel y comprobaron que se elevaba.

Aprovecharon, entonces, este mismo principio para construir el primer globo aerostático. Después de numerosos ensayos elevaron en Annonay, su ciudad natal en Francia, un globo fabricado con papel y tela de embalaje.

El 19 de septiembre de ese mismo año, en Versalles, ante los reyes de Francia, repitieron la experiencia, pero en esta ocasión del globo pendía una barquilla en la que ubicaron un cordero, un gallo y un pato. El aeróstato recorrió 3 kilómetros y aterrizó sin novedad. Dos meses después, el 21 de noviembre, tuvo lugar el primer vuelo tripulado por el hombre, el físico francés Jean Francois Pilatre de Rozier (1756-1783) y un compañero; los tripulantes recorrieron alrededor de 9 kilómetros en 25 minutos.

Primer Globo Aerostatico

Primer Globo Aerostático

Rápidamente se fueron perfeccionando los aeróstatos, y en los primeros años del siglo XIX se efectuaron ascensiones hasta cerca de 10.000 metros. En algunas de ellas, los navegantes murieron por asfixia. Los dirigibles aparecieron a fines del siglo pasado (Santos Dumont), y en esos mismos años se alcanza la altura de 18.500 metros con un globo portador de aparatos registradores, que anotaron una temperatura de 60 grados bajo cero. Todos esos aparatos se basan en el principio de Arquímedes, y, por lo tanto, se los infla con gases menos densos que el aire (si se los inflase con aire, ninguno subiría un solo metro).

Otro francés, el físico Jacques Alexander César Charles (1746-1823) alargó la duración de los vuelos al colocar una hoguera en la barquilla que mantenía el airecaliente por más tiempo. También construyó, el 27 de agosto de 1783, el primer globo de hidrógeno. El reemplazo del aire por este gas, mucho más liviano, mejoró la capacidad de ascensión de los globos.

Restaba, ahora, encontrar la manera de dirigir el rumbo de los globos. El ingeniero francés Henry Giffard construyó en 1852 el primer aeróstato fusiforme. Impulsado por una máquina de vapor y alimentado con hidrógeno como gas sustentador, el aeróstato se elevó sobre el hipódromo de París y alcanzó una velocidad de 10 km/h.

En este sentido trabajó el inventor alemán Ferdinand Adolf August Heinrich von Zeppelin (1838-1917), quien confirió a los globos una forma aerodinámica. Para lograrlo, utilizó aluminio, que es un material resistente y liviano. Su primer dirigible parecía un gran cigarro del cual pendía la barquilla con el motor y una hélice, hoy recordado como Zeppelin. Los dirigibles dejaron de usarse sobre todo por los grandes desastres que ocasionaron.

El más impactante fue la célebre explosión del Hindenburg en Nueva Jersey, el 6 de mayo de 1937. Actualmente se utilizar, para publicidad, transporte de carga pesada y para investigación. En este sentido, los globos meteorológicos funcionan de un modo curioso: un globo de hidrógeno se eleva transportando una radiosonda.

En la ascensión, la sonda emite señales a la estación terrestre donde éstas son decodificadas y convertidas en valores de presión temperatura y humedad. Al cabo de 90 minutos, el globo ha alcanzado una altitud de 27 a 30 km. Allí, la presión atmosférica es muy baja, e globo estalla, y la sonda desciende a tierra suspendida de un paracaídas.

Los observatorios meteorológicos sueltan diariamente varios globos, para sondear la atmósfera y determinar la dirección y velocidad de los vientos a distintas alturas. Una de las finalidades de esta operación es informar a los aviones sobre las condiciones del tiempo que deben afrontar.

También se envían los llamados radiosondas, que son globos-portadores de instrumental para explorar las altas capas de la atmósfera. Como a medida que el globo asciende, la presión exterior es cada vez menor, el volumen del globo se hace cada vez mayor, al dilatarse el gas interior. Llega un momento en que la dilatación es mayor que la que puede soportar el material, y el globo estalla. Los aparatos caen con paracaídas, y así es posible recuperar el instrumental (aunque a veces cae en lugares despoblados).

Últimamente se ha desarrollado una nueva técnica en la exploración de las más altas capas de la atmósfera, a las que hasta hace unos pocos años ni se soñaba en llegar. Se hace mediante cohetes y satélites artificiales. El instrumental, que se acondiciona cuidadosamente en su interior, recoge datos valiosísimos sobre las condiciones del aire en tan altas regiones.

BREVE HISTORIA DE LA AEROSTACIÓN.
Después de los experimentos de Montgolfier, los ensayos se sucedieron con rapidez. El día 21 de noviembre de 1783 tuvo lugar la primera ascensión de un globo tripulado por el hombre. Pilatre de Rozier y el marqués de Arlandes mostraron gran valor al subir a «La Montgolfiera», construido por su inventor. La envoltura era de algodón y tenía unos 15 m de diámetro.

En su parte inferior el globo estaba dotado de una pequeña galería circular desde donde los aeronautas alimentaban y cuidaban un pequeño hornillo destinado a mantener caliente el aire que proporciona la fuerza ascensional. En nuestros días causa asombro considerar el hecho de que dos hombres se atreviesen a tripular un globo que si se mantenía en el aire era gracias al auxilio de un simple brasero.

Pocos días después, de diciembre de 1783, Charles y Robert efectuaron una magnífica ascensión en un globo muy perfeccionado pues constaba de una envoltura impermeabilizada hinchada con hidrógeno, red y barquilla. Además, y en previsión de cualquier posible contingencia, instalaron válvula de seguridad y se proveyeron de lastre, cuerda-freno y áncora. A partir de entonces fueron numerosísimas las ascensiones que*se llevaron a cabo con fines deportivos o científicos. El célebre físico Gay-Lussac llegó hasta 6.500 m de altura y llevó a cabo mediciones y observaciones relativas a la composición del aire, humedad, variaciones de la aguja magnética, «etcétera.

El día 13 de junio de 1784, Pilatre de Rozier y Romain perecieron al intentar cruzar el Canal de la Mancha. El globo que tripulaban estaba lleno de hidrógeno y en su interior se hallaba un lóbulo con aire caliente. El hornillo destinado a mantener constante la temperatura provocó la explosión del globo y ocasionó la primera catástrofe aérea de la Historia.

Mejor suerte cupo a Blanchard y a su compañero Jefries, quienes lograron efectuar la travesía del Canal de la Mancha desde Dover a Calais. El propio Blanchard llevó a cabo la primera ascensión sobre suelo americano, cubriendo en forma admirable el trayecto de Filadelfia a Nueva Jersey, donde entregó un mensaje para Jorge Washington. Otro récord memorable fue el conseguido por Carlos Green, quien en 1836 logró recorrer a través del aire los 700 km. que separan Londres de Nieder-hausen (Alemania). El día 2 de septiembre de 1894, un globo tripulado por Francisco Arban sobrevoló por vez primera el macizo de los Alpes.

El inglés Tomás Harris fue el protagonista de una historia de amor desarrollada en las alturas. Durante una ascensión efectuada en compañía de su novia, se produjo un pequeño desgarrón en la envoltura del globo, el cual comenzó a descender. Cuendo Tomás Harris tras arrojar todo el lastre vio que la caída era inevitable, se lanzó al vacío en un desesperado intento de aligerar así el peso del globo y salvar la vida de su amada.

La ascensión que con carácter científico efectuó Tissandier en 1875 terminó también trágicamente puesto que si bien logró alcanzar la altura de 9.000 m, la falta de oxígeno ocasionó la muerte por asfixia a dos amigos que le acompañaban.

Ante los frecuentes accidentes que se producían surgió la necesidad de contar con un medio eficaz que amparase al aeronauta y le permitiera saltar del globo.

La invención del paracaídas se debe a J. Garnerín, quien lo ensayó por primera vez el día 22 de octubre de 1797. El acontecimiento tuvo lugar ante el público de París que contempló lleno de asombro el lento descenso del audaz inventor sujeto a una gigantesca sombrilla.

Viaje en Globo aerostatico

Henri Giffard (1825-1882) exhibe su diseño de globo, cuya canasta tiene capacidad para albergar a 50 personas, en el Jardín des Tuileries, durante la Exposición Universal de París 1878. El ingeniero francés realizó, además, el primer vuelo controlado de un dirigible, el 24 de septiembre de 1852: un recorrido de 24 kilómetros desde Paris de donde partió su nave, llena con hidrógeno, a 8 kilómetros por hora, e impulsada por un pequeño motor a vapor.

LA EXPEDICIÓN ANDRÉE AL POLO NORTE. De entre los numerosos vuelos realizados mediante globos, destaca el llevado a cabo por el ingeniero sueco Andrée, quien en compañía de sus amigos Frankel y Strindberg planeó una arriesga-dísima expedición al Polo Norte en la que los tres iban a perecer de frío e inanición.

En el año 1896 iniciaron los preparativos trasladándose a la Isla de los Daneses, en Spitzberg, donde colocaron el globo Oernen, de 4.500 metros cúbicos, los instrumentos y los víveres. Sin embargo, no pudieron emprender la ascensión hasta junio del año siguiente, con bastante mala suerte pues al ascender se rompieron la mitad de las cuerdas-freno dispuestas para ahorrar lastre y facilitar la dirección del globo. En las primeras horas, los exploradores enviaron noticias mediante palomas mensajeras; unos días más tarde, fueron halladas un par de boyas. Después, el silencio más absoluto corroboró la suposición de que habían sufrido un grave accidente.

El mundo ignoró los detalles de la tragedia por espacio de 34 años, hasta que en 1930 los tripulantes de un buque cazafocas hallaron en la Isla Blanca restos de la expedición. En aquellas inmensas soledades y bajo la lona de-una tienda abatida se hallaban los cadáveres de los héroes junto a los cuales estaban el libro de notas de Andrée, la carta de navegar de Strindberg y unas películas. Un poco más allá y cubiertos por la nieve, aparecían los trineos y la canoa. Las fotografías y los escritos han permitido conocer con detalle el desarrollo de la tragedia.

Consiguieron llegar a los 82° 55′ y 7″ de latitud (800 Km. del Polo), después de un accidentadísimo vuelo de 65 horas que acabó al abatirse el aeróstato debido al peso de la capa de hielo que se formó sobre la envoltura. Desembarcaron el día 14 de julio, y el 21 emprendieron la retirada hacia el Sur. La marcha, como muy bien puede suponerse fue difícil y penosa. A pesar del intenso frío y de la carencia de alimentos consiguieron llegar a la Isla Blanca el día 5 de octubre. Su capacidad de resistencia fue verdaderamente extraordinaria ya que la última nota escrita lleva fecha del 17 de octubre.

DESCRIPCIÓN DE LA TRAGEDIA EN EL POLO NORTE: A fines del siglo XIX la exploración polar creaba fascinación y curiosidad a toda la comunidad científica de la época. Los buques expedicionarios habían partido uno tras otro hacia el helado silencio del Ártico, y no se había vuelto a saber mas de ellos durante meses o años. Cuando al final regresaban derrotados y maltrechos, los exploradores contaban sus aventuras en la impenetrable inmensidad de hielo, hablaban de los témpanos, traidores y movedizos, que imposibilitaban la navegación.

«De vez en cuando se aireaba la idea de que tal vez una expedición aérea tuviera éxito donde previamente habían fracasado las marinas, pero la cosa no pasaba del comentario porque, después de todo, no había globo que hubiera permanecido en el aire el tiempo que un viaje polar requeriría, y mucho menos en latitudes en que la capa de hielo que se formaría en la superficie del aeróstato, podía provocar un aterrizaje forzoso y, con mucha probabilidad, catastrófico. Pero existía también el problema de los vientos dominantes.

Salomón August Andrée.Las expediciones aerostáticas que se dirigieran al Polo tendrían que confiar con optimismo en que una de las corrientes del sur llevaría el globo hasta aquella región, para luego proseguir la marcha hasta los poblados más septentrionales. Los obstáculos parecían insuperables para cualquiera que no tuviera el entusiasmo del sueco Salomón August Andrée.

Andrée había visitado a Estados Unidos durante su mocedad y se había hecho amigo del aeronauta norteamericano John Wise. Posteriormente había formado parte de la expedición que estudió los fenómenos polares en Spitsbergen, junto a la costa norte de Noruega. Más tarde había trabajado como ingeniero jefe en la oficina sueca de patentes. Era enérgico, valiente y con voluntad de hierro. Tanto por sus estudios como por su temperamento, Andrée estaba formidablemente dotado para la aventura que se había propuesto.

En 1895 Andrée dio a conocer el plan de su expedición polar, en globo, en una serie de conferencias, bien recibidas, en las que mezclaba la ciencia con el patriotismo. Los suecos, decía en ellas, se han «caracterizado durante siglos por el más intrépido valor», estaban acostumbrados a los caprichos del clima polar «y la propia naturaleza les había enseñado a soportarlos». Esta llamada al orgullo nacional y la excelente reputación de Andrée, contribuyeron a que se recaudaran las ayudas necesarias para financiar la expedición entre ellas la del Rey Osear de Suecia y del filántropo Alfred Nobel.

El globo que iba a transportar a Andrée y a dos compañeros cuidadosamente seleccionados, estaba hecho ex profeso para el viaje. La meticulosa especificación que Andrée había preparado para el aeróstato -al que puso el nombre de Ornen (Águila)- preveía una envoltura de 4.814 m3, hecha de seda china doble, para proporcionarle resistencia y durabilidad. El globo no tenía válvula en la parte superior, al objeto de que la nieve no la atascara, pero llevaba dos en la zona inferior de la envoltura. Por encima de la red había otra capa de seda para proteger más al aeróstato contra la nieve y el hielo.

Andrée pensaba regular la altitud con tres cuerdas de arrastre, unidas por secciones, cada una de las cuales tendría 335 m de longitud. Llevaría también otras sogas más cortas. De la barquilla sobresalían tres palos horizontales, a los que iban sujetas tres velas cuadradas, con las cuales se esperaba poder modificar hasta 30° la derrota.

La góndola de mimbre era cerrada, cilíndrica, de 1,60 m de profundidad. En ella irían tres trineos, un barco de lona, tres literas, herramientas, armas, otros artículos y comida suficiente para cuatro meses. La partida sería en el verano de 1896, desde un lugar situado en el extremo noroeste de Spitsbergen, a unos 1.297 km del Polo. Andrée calculaba con optimismo que el viento constante del sur los llevaría al Polo en tres días.

El aterrizaje, como dependía de la dirección del viento, podría realizarse en cualquier lugar de Siberia, Canadá o Alaska. El Ornen fue inflado con hidrógeno y quedó alojado en «un hangar para globos», de 30 m de alto, esperando a que soplara la brisa deseada. Pero no sopló ni en todo el mes de julio ni en todo el mes de agosto, con lo que terminó el efímero verano ártico y se hizo tarde para comenzar la expedición.

En 1897, Andrée, que entonces tenía 43 años, y sus tripulantes Nils Strindberg y Knut Fraenkel volvieron a Spitsbergen para volver a probar fortuna. El entusiasta Strindberg, de 24 años, era profesor de educación física en la universidad de Estocolmo y un consumado fotógrafo. Fraenkel, de 27 años, era musculoso, de profesión ingeniero y aficionado al alpinismo. Para prepararse para la expedición ambos hombres habían ido a París, a aprender aerostación. El 11 de julio, después de seis semanas de espera, empezó a soplar el tan largamente esperado viento del sur. El momento había llegado y, en consecuencia, se procedió a sacar el globo de su cobertizo. Los tres exploradores subieron a bordo, mientras la tripulación de tierra esperaba órdenes sosteniendo las maromas de amarre.

A la 1:46 de la tarde, Andrée dio la señal para soltar al Ornen y éste comenzó a subir perezosamente por encima del puerto y fue flotando hacia el nordeste. De repente, la nave bajó de modo imprevisto y tocó el agua para luego rebotar y volver a subir ayudada por la tripulación que arrojó más de 200 kilos de lastre. Los ayudantes de tierra estuvieron mirando con emoción al globo hasta que éste no fue más que un punto en el horizonte del Norte.

Todo parecía ir bien, pero Andrée ya sabía que no era así. Las secciones de la parte inferior de las tres largas maromas de arrastre -que en el plan de Andrée eran vitales para regular la altitud y la dirección -se habían desprendido, no se sabía por qué, y yacían en la costa como grandes serpientes enroscadas. El Ornen continuó su vuelo libre hacia lo desconocido.

Los millones de personas que, en todas las partes del mundo, habían seguido ávidamente a través de los periódicos los preparativos de la expedición, quedaban ahora a la espera de noticias de los exploradores. Estas no podrían llegar más que, o con palomas mensajeras o metidas en las boyas que arrojara el globo. La expedición no disponía de otros medios de comunicación.

Cuatro días después de la salida del Ornen, el capitán de un buque noruego mató a una paloma que se había posado en las jarcias de su velero. En un pequeño cilindro atado a la pata del animal había un mensaje de Andrée. Había sido escrito el 13 de julio, al mediodía, en un punto situado a unos 370 Km. al norte del lugar de despegue. «Buena velocidad hacia el E. 10° S.

A bordo todos bien. Este es el tercer mensaje por paloma mensajera», decía la nota.

Las otras dos no llegaron, y el verano transcurrió sin que se supiera más de los expedicionarios. Después llegó el otoño y, tras él, la larga noche del invierno ártico. Siguió sin saberse nada de Andrée y su tripulación.

Si continuaban vivos tendrían que estar matando osos para alimentarse, y metidos en algún improvisado refugio para poder soportar el frío.

Por supuesto, era posible sobrevivir en aquellas condiciones, porque otros ya habían sobrevivido. El padre de Strindberg se mostraba optimista: «Habrá que esperar un año, por lo menos», escribió, «para empezar a preocuparse, e incluso entonces no habglobo aerostaticorá que ponerse demasiado pesimista».

Pasó más de un año. Salieron barcos en busca de los exploradores y volvieron sin encontrar ni rastro de ellos. En febrero de 1899 llegaron noticias trágicas: los miembros de una tribu nórdica habían encontrado los cadáveres de tres suecos al norte de Siberia.

La noticia era falsa. Tres meses después salió a la costa de Islandia una boya con un mensaje de Andrée, pero había sido escrito 12 horas después de la partida de los desaparecidos. Al año siguiente  apareció un mensaje parecido en una playa noruega. Para entonces ya habían transcurrido tres años y la creencia de que los exploradores habían perecido era cada vez más firme.

Durante 33 años no se supo nada del Ornen, pero en el verano de 1930, un par de cazadores de morsas, de un buque noruego tropezaron con los esqueletos de los tres exploradores en el sombrío corazón ártico de la isla de White, a unos 450 Km. de donde había despegado el globo.

Los diarios, los cuadernos de notas y las cartas que los tres hombres habían escrito eran aun legibles y según constaba, el Ornen, que al perder accidentalmente las cuerdas de arrastre se había visto aligerado en 540 kg, había subido la primera tarde del vuelo a 700 m, mucho más de lo que Andrée tenía previsto.

El viento había impulsado al globo hacia el noroeste el primer día, luego hacia el oeste y después hacia el este de nuevo. Había permanecido 13 horas inmovilizado, al quedar trabada una de las cuerdas que colgaban de él de un gran trozo de hielo.

La densa niebla impedía la visibilidad y el agua nieve había recubierto la superficie del globo de una carga tal de hielo, que había hecho descender varias veces a la nave y a la atestada góndola chocar contra los salientes helados del terreno. Y esto había ocurrido 8 veces en 30 minutos.

En la ropa interior llevaba cosida una A, y en el bolsillo, un diario. En él aparecían las últimas palabras escritas por Salomón August Andrée, el aeronauta sueco, que junto con Knut Frankel y Nils Strindberg, había desaparecido en 1897, cuando trataban de llegar al Polo Norte. Se aclaraba así el misterioso final de la expedición salida 33 años antes de Spitsbergen.

Junto a los restos de Andrée se encontraban los de sus acompañantes y varios cilindros metálicos que contenían negativos fotográficos impresionados. Un experto fotógrafo de Estocolmo consiguió revelar 20 negativos. Algunas de las fantasmales fotografías, deterioradas por los años de permanencia en la humedad y el frío árticos.»

OTRA HISTORIA, PERO CON DIRIGIBLES
AL POLO EN DIRIGIBLE. Durante el año 1926 el explorador noruego Amundsen efectuó una expedición polar que tuvo gran resonancia. Gracias a la munificencia del norteamericano Ellswort que financió la empresa, pudo adquirirse el dirigible N-i construido por Nobile. Tenía 19.000 m3 y 106 m de longitud e iba provisto de tres motores de 240 HP, dispuestos en barquillas independientes y desarrollaba la velocidad de 100 km/h.

El N-i, adquirido por Noruega y bautizado con el nombre de Norge, partió de Roma, llegó felizmente a Oslo y siguió luego hasta Spitzberg. El día n de mayo la aeronave emprendió el vuelo desde Kingsbay hacia el Polo Norte, que fue alcanzado al cabo de 15 horas de navegación, sobre deslumbrantes blancuras. Aunque el viaje de regreso se vio dificultado grandemente por la sobrecarga debida a la costra helada que se formó en la parte superior de la envoltura, el Norge consiguió aterrizar en Teller (Alaska) después de 71 horas de lento vuelo.

El general italiano Nobile, que había participado en la expedición dirigida por Amundsen, quiso organiza* por su cuenta un vuelo al Polo. El día 15 de abril de 1928, el dirigible Italia salía de Milán, ciudad que patrocinaba la empresa, para dirigirse a Spitzberg. Una vez allí y tras unos vuelos de exploración sobre las tierras de Francisco José, Nicolás II y Nueva Zembla, el 23 de mayo el Italia se dispuso a cubrir la última etapa hasta el Polo, del que no iba a regresar jamás.

En efecto, después de 16 horas de vuelo, la aeronave alcanzó el Norte geográfico de la Tierra, en cuyo lugar lanzó la cruz ofrecida por el Papa y la bandera de Italia. Durante el regreso se desataron fuertes borrascas de viento y nieve. Sobre el Italia se formó una espesa capa de nieve helada que le hizo perder altura, hasta que una ráfaga de viento huracanado le estrelló contra un banco de hielo. A consecuencia del golpe el dirigible se partió en dos, y mientras el sector donde se hallaban Nobile y ocho tripulantes más quedaba sobre los hielos, la otra sección con el resto de la dotación, se remontó de nuevo y desapareció para siempre.

El sobrecogedor silencio que siguió a los desesperados «SOS» lanzados por el radiotelegrafista de la aeronave tuvo la virtud de movilizar a numerosos equipos de salvamento que partieron en busca de los accidentados. Amundsen voló inmediatamente en auxilio de Nobile y pereció.

El día 20 de junio, ante la expectación del mundo entero, el comandante italiano Maddalena, que participaba en la búsqueda, consiguió localizar con su hidroavión a los supervivientes del dirigible que fueron auxiliados con víveres y medicamentos, lanzados en paracaldas. Tres días después, el aviador escandinavo Lundborg logró aterrizar con su avioneta provista de skis, sobre el banco de hielo donde se hallaba el grupo. Nobile, en forma todavía incomprensible y ante el estupor unánime del mundo civilizado, abandonó a sus compañeros y se salvó con el avión de Lundborg.

Para colmo de desgracias, y con ocasión de efectuar un segundo viaje sobre el improvisado campo, el avión de Lundborg capotó al aterrizar, quedando a su vez prisionero de los hielos hasta el 6 de julio en que fue salvado por otro aviador que también tuvo la audacia de aterrizar sobre el banco de hielo.

A consecuencia de diferencias surgidas entre los náufragos, éstos se dividieron en dos grupos. El encabezado por Malmgren, inició una marcha dantesca entre aquellas frías soledades, hasta alcanzar el rompehielos ruso Krasin (13 de julio). El drama no había terminado, ya que Malmgren rendido por el frío y la fatiga, había pedido a sus compañeros que le abandonasen y prosiguieran el camino hacia la salvación. Nobile, caído en desgracia y abrumado por el peso de tanta responsabilidad, se trasladó a vivir a Rusia.

Fuente Consultada:
Grandes Épocas de la Aviación Tomo 40 Los Aeronautas II
Química I Polimodal  de Alegría-Bosack-Dal Fávero-Franco-Jaul-Rossi

La Teoria del Flogisto La Quimica Moderna Teoria de Combustión

TEORÍA DEL FLOGISTO

Según las antiguas concepciones griegas, todo lo que puede arder contiene dentro de sí el elemento fuego, que se libera bajo condiciones apropiadas.

Las nociones alquímicas eran semejantes, salvo que se concebían los combustibles como algo que contenía el principio de «azufre» (no necesariamente el azufre real). (imagen: Ernst Sthal)

Una preocupación central de la química en el siglo XVIII era el proceso de combustión. Cuando las sustancias se calentaban hasta el punto de incandescencia, los científicos vieron que emitían algo —vapores o humo—, y lo interpretaron como una pérdida de la sustancia original.

Ese «algo» que supuestamente se perdía en el proceso de combustión se llamó flogisto, una palabra acuñada en 1697 por el químico alemán Ernst Stahl. Pero qué era exactamente ese flogisto seguía siendo materia de debate.

Para algunos, era un elemento en sí mismo; para otros, era una esencia contenida en los materiales combustibles, sin la cual la combustión era imposible.

Georg Ernst Stahl (1660-1734), siguiendo a su maestro Becher (1635-1682), creyó que las sustancias estaban formadas por tres tipos de “tierra”, más el agua y el aire. A una de las tres tierras, aquella que Becher había llamado “combustible”, la rebautizó como flogisto (del griego, que significa “quemado” o “llama”), al que le asignó el noble y supremo propósito de ser el agente y el sostén de la combustión. La combustión, según Stahl, consistía en un intercambio de flogisto, que fluía entre los materiales con la soltura (aunque con más calor) del éter; quemarse era dejar escapar flogisto (que como un humo invisible se mezclaba con el aire), y lo que un químico moderno llamaría reducción consistía en incorporar el flogisto flotante como para tenerlo listo para una nueva combustión.

El concepto del flogisto dio lugar a algunas anomalías. Si fuera un componente de los materiales combustibles, al perderse durante la combustión, los residuos tenían que pesar menos de lo que pesaban las sustancias antes de quemarse, y ése era el caso de algunas, como la madera.

Pero ciertos metales, cuando se calentaban, se convertían en una sustancia blanda llamada calx; en estos casos, el residuo pesaba más que el metal original. Esta anomalía fue ignorada por muchos defensores de la teoría del flogisto.

Otros la racionalizaban sugiriendo que el flogisto tenía un peso negativo, provocando que el residuo pesase más cuando el flogisto se había consumido.

Algunos historiadores afirman que la teoría del flogisto puede considerase como la primera gran teoría de la química moderna. A principios del siglo XVIII, el médico Georg Ernst Stahl (1660-1734) siguiendo las ideas de su maestro J.J.Becher (1635-1682), propuso una explicación conjunta de la calcinación de los metales, la combustión de los cuerpos combustibles y la respiración de los animales, basada en la existencia de un «principio de la combustibilidad» que denominó «flogisto». De acuerdo con sus ideas, los metales estaban formados por flogisto y la cal correspondiente, de modo que, cuando se calcinaban, el flogisto se desprendía y dejaba libre la cal. Del mismo modo, para obtener el metal a partir de la cal, era necesario añadirle flogisto, el cual podía obtenerse a partir de una sustancia rica en este principio, como el carbón.

La gente que creía fehacientemente en la existencia del flogisto —la esencia del calor— era consciente de que una vela colocada en un recipiente sellado se apagaba pronto.

Ellos lo interpretaban como una prueba de que el aire del recipiente se había saturado con el flogisto de la vela era incapaz de recibir más y la combustión ya no era posible. Aplicando este razonamiento, en químico inglés Priestley concluyó que su gas era aire que contenía poco flogisto o ninguno, y por consiguiente se sentía «hambriento» del flogisto de la vela. Por tanto, llamó a su nuevo gas «aire deflogistizado».

Mirando retrospectivamente, cuando la mayoría de las personas educadas hoy día comprende el papel del oxígeno en la combustión y todos los estudiantes de química saben que la combustión es un proceso de cambio químico, cuyo resultado no produce pérdidas o ganancias significativas de masa, es fácil sentirse superior a aquellos tempranos buscadores de la verdad. Pero eran personas capaces, y sus razonamientos tenían sentido bajo la luz del limitado conocimiento que poseían.

Fuente Consultada: Historia de las Ciencias Desiderio Papp

Problemas Tecnicos en los Primeros Ferrocarriles Argentinos Historia

La idea de aplicar la máquina de vapor al transporte se llevó por primera vez a la práctica ya en 1769 bajo la forma de un complicado artefacto, destinado a correr sobre railes, construido por un francés, Nicolás Cugnot.

Posteriormente, el inglés Richard Trevithick fabricó locomotoras (1801-1808), si bien estas últimas habían sido pensadas sólo para el servicio de las minas de hulla y tenían una aplicación limitada.

Sin embargo, a pesar de la victoria de Stephenson, hubo que resolver muchos problemas de ingeniería antes de que los caminos de hierro pudieran desempeñar un papel importante en el comercio. Primeramente, por ejemplo, las ruedas con pestañas que se usaban para mantener los vagones, en la vía se subían sobre los railes en las curvas, y tuvo que transcurrir algún tiempo antes de descubrirse que las ruedas debían quedar holgadas sobre los carriles. y que podían acoplarse a dispositivos giratorios debajo de los coches.

También los frenos dejaban mucho que desear presionaban contra las ruedas, y no fueron seguros y de fácil manejo hasta que George Westinghouse perfeccionó el freno de aire comprimido (1886). Además los enganches tenían tanto juego que al arrancar el tren los vagones recibían tan fuertes .sacudidas, sobre todo los últimos, que los viajeros eran violentamente proyectados hacia atrás.

El tendido de puentes y la perforaci6n de túneles planteó a su vez dificultades a los primeros constructores de líneas férreas. Los puentes de piedra no resistían bien la vibración; los de ‘madera estaban expuestos a la acción de la intemperie y del fuego; además, abrir agujeros en el suelo con barrenas de mano era, por no darle un calificativo más duro, un trabajo agotador.

Sin embargo, con el tiempo los puentes fueron construyéndose de hierro y acero (el de Brooklyn, colgante, de acero y de 486 m de longitud, quedó terminado en 1883); la excavación de túneles se simplificó con el invento de la barrena de aire comprimido… Por si estas dificultades técnicas no hubieran bastado, produjese cierta hostilidad del público hacia los ferrocarriles en sus primeros años de existencia. No sólo los campesinos residentes a lo largo de las líneas férreas se quejaban de que las máquinas calentadas con leña, espantaban con su chisporreteo a caballos y vacas, sino que se aducían toda suerte de argumentos contra la nueva forma de transporte.

Algunos militares llegaron a creer que el traslado de la tropa por ferrocarril Volvería a los hombres tan muelles que no servirían ya para la lucha. Varios médicos de renombre temieron que los pasajeros contrajesen enfermedades pulmonares por efecto del aire húmedo de los túneles y algunos moralistas advirtieron que los tramos oscuros ofrecían a los hombres groseros una ocasión irresistible de besar a las señoras, e incluso llegaron a aconsejar a las presuntas víctimas de tales abusos que se pusieran alfileres entre los dientes cuando el tren penetrase en un túnel.

 Fuente Consultada:

Shepard B. Clough, en «La Evolución Económica de la civilización occidental”

Historia de los Primeros Faros Marinos Tipos Materiales Construcion

Historia de los Primeros Faros Marinos
Tipos Materiales y Construción

El encanto de la vida del mar no perdería sus atractivos si no existieran, entre otros peligros, el de embarrancar en las rocas de la costa, los bancos de arena y los profundos remolinos. Desde que los primitivos navegantes lanzaron sus naves a través del mar, atentos vigilantes, desde tierra, trataron de auxiliarles facilitándoles medios de llegar al puerto.

En aquellos remotos tiempos, indudablemente, se valían para ello de hogueras, que encendían en los puntos elevados de la costa; y ya, en una antigua poesía, se hace mención de un faro—el de Segeum, en Troad—, que fue quizá el primero que, mantenido con regularidad, sirvió de guía a los marineros.

La más famosa de estas construcciones destinadas a señales se construyó en el año 275 antes de Jesucristo, en la pequeña isla de Pharos, en la entrada del puerto de Alejandría. Se dice tenía 182 metros de altura, y su nombre quedó para denominar otras semejantes. Fue destruida en el siglo XIII por un terremoto. Los romanos construyeron muchas torres de esta clase, una de las cuales, de sección cuadrada, con cerca de 39,50 metros de altura, construcción de piedra que data probablemente del siglo IV, se conserva todavía en La Coruña.

El Estado español la restauró, preservándola con una protección exterior de granito y poniéndola en condiciones de servicio después de cientos de años de estar apagada. Es el faro más antiguo que existe.

Todos estos antiguos faros, y muchos de los modernos, se han establecido en tierra; generalmente en una elevación, fuera del alcance de las olas. El más antiguo de los faros cimentados en el mar es la hermosa torre de Cordouan, asentada sobre el fondo de roca en la desembocadura del río Oironda, a 100 kilómetros de Burdeos, en Francia. Comenzó su construcción en el año de 1584 y se terminó en 1611.

La primitiva cúpula fue reemplazada por una alta torre de 63 metros de altura, con un fanal a 59,75 metros sobre la marea alta. Hasta el siglo XVIII la luz se producía por una hoguera, alimentada con troncos de roble, y, después, hasta ser modernizada, con fuego de carbón.

Durante los siglos XVII y XVIII se construyeron en Europa muchos faros que, como el descrito, quemaban leña o carbón en cestillos de hierro.

El primer faro que se construyó en Norteamérica fue el de la isla de Little Brewster en 1716, a la entrada del puerto de Boston. En él se instaló un gran cañón para hacer señales en tiempo de nieblas espesas. La primitiva torre fue destruida durante la revolución, siendo reconstruida en 1783.

Durante el período colonial, diez torres más se elevaron en la costa del Atlántico, pero todas ellas han sido destruidas o derribadas, excepto cinco, que son: Sandy Hook, cabo Henlopen, del promontorio Portland, Tybee y cabo Henry. Las primitivas torres de Sandy Hook y cabo Henlopen se utilizan todavía; de las demás, unas están abandonadas y otras medio derruidas. El faro de Sandy Hook es el más antiguo de América.

DIVERSOS TIPOS DE FAROS

TIPOS DE FAROS

Los faros, como hemos dicho, pueden establecerse en tierra firme, o sobre rocas o bancos de arena, y expuestos directamente a los embates del mar. Los primeros varían muchísimo en cuanto a su altura y disposición general. Si el edificio está situado en un punto elevado de la costa, la torre no precisa tener gran altura, como se puede ver en el grabado del faro de Punta Reyes, de California, o en el cabo Mendocino, del mismo Estado. La torre de este último sólo tiene seis metros de altura, pero está sobre un cantil que se eleva 128,60 m. sobre el mar y es el faro situado a mayor altura en los Estados Unidos. (hasta 1930)

En la costa del Atlántico, sin embargo, como en su mayor parte es baja, se hace preciso que los faros, construidos en tierra, sean por sí mismos de gran elevación, si han de ser eficaces. Ejemplo de éstos es el de cabo Hatteras; tiene 61 metros de altura y es, por tanto, el más alto, de Norteamérica. Otros de estructura notable son los de cabo Henry y cabo Charles, en Virginia, y la bellísima torre de Punta Pigeon, en California. El pequeño faro de Manan, sobre la costa de Maine, es también una hermosa edificación de granito de 35 metros de altura.

El faro de Tillamook, en la costa de Oregón, está colocado sobre una gran roca, expuesta a las furias del mar y separado una milla de tierra firme; dicha roca, alta y acantilada, hace muy difícil y peligroso el desembarque. La torre se eleva 41,45 metros sobre marea alta, y, a pesar de ello, en 1887, las olas, rompiendo contra la estructura, causaron averías de consideración, y en 1912, el aprovisionamiento del faro estuvo suspendido durante siete semanas, porque los encargados por el Gobierno para realizar la operación no pudieron aproximarse a la roca, a causa de un violento temporal.

También el faro del arrecife de St. George, separado de tierra unas seis millas en la costa norte de California, se encuentra en las mismas condiciones. Se terminó en 1892, y su coste fue de unos 700.000 dólares, resultando la obra, de esta clase, más cara de los Estados Unidos. Muchas de las construcciones en la costa no son más que sencillas estructuras bien estudiadas para instalar el fanal y los aparatos acústicos necesarios en caso de niebla, además de las indispensables viviendas para los torreros y sus familias.

Los faros enclavados directamente en el mar son siempre más interesantes que los de tierra firme, no tanto por las particularidades de su estructura, sino, tal vez, por la simpatía que inspiran sus servidores, expuestos, constantemente, a toda clase de peligros. Son muy numerosos los faros de este género, pero el de las rocasEddystone, a 22 kilómetros de Plymouth, Inglaterra, es, entre ellos, el más famoso. Este peligroso arrecife, expuesto a los violentos temporales de sudoeste, queda completamente sumergido durante las mareas equinocciales. Él faro primitivo que se construyó sobre dichas rocas en 1695-1700 fue arrastrado por el mar, pereciendo sus ocupantes.

El segundo, construido en gran parte de madera, bajo la dirección del ingeniero Juan Smeaton, era una estructura de sillares de piedra, que pesaban, próximamente, una tonelada cada uno, y cuyas hiladas estaban engatilladas entre sí por medio de espigas de madera, y el que, en 1881, ha substituido a éste, descansa sobre una base de 13 metros de diámetro y 6,70 metros de altura, apoyándose directamente sobre el mismo arrecife, en el cual se hace firme mediante fuertes pernos de bronce. Pesa 4.668 toneladas, y su luz se eleva 55,70 metros sobre el nivel de la marea alta.

La obra de cantería de esta singular construcción está ejecutada de manera que existe una trabazón completa de todos los sillares por el corte especial de ellos. Otros faros de este mismo género son el de la roca Bell ySkerryvore, sobre la costa de Escocia, y el de la roca Bishop, en las islas Scilly.

Entre los faros de América, enclavados en el mar, el más conocido es el del arrecife de Minots, frente a Cohasset, en la bahía de Massachusetts. La primera luz que señalaba estos bajos, y que aparecía sólo en la baja marea, estaba instalada sobre pilastras metálicas fijas en excavaciones practicadas en la misma roca; se terminó este faro en 1848, y, nueve años después, una galerna lo llevó mar adentro, ahogándose los torrerosque le ocupaban.

El faro actual, de fina estructura, se terminó en 1860, y su ejecución fue empresa de las más difíciles en su clase. Las hiladas inferiores van asentadas cuidadosamente sobre la roca y fijos a ella los sillares mediante sólidos pernos. Tiene su torre 32,60 metros de altura, y, en ella, se ha dispuesto las habitaciones de lostorreros solamente, habiéndose construido viviendas para sus familias frente al faro y en la costa próxima.

En los Grandes Lagos hay dos excelentes modelos de faros que, como los anteriores, están construidos sobre bajos fondos. El que marca el escollo Spestade, en el extremo norte del lago Hurón, es una torre de piedra, sumergida 3,35 metros en el agua, a diez millas de la orilla, y expuesta a la acción de los grandes témpanos de hielo. Para cimentar esta torre, se construyó un gran cajón o ataguìa alrededor del lugar de emplazamiento, agotándose después el agua por medio de bombas, quedando al descubierto, a 3,35 metros bajo el nivel del lago, la roca sobre la que se cimentó cuidadosamente la torre de mampostería. Terminada en 1874, aquel mismo invierno soportó valientemente las embestidas de los hielos.

El faro de la roca Stannard, terminado en 1882, marca el bajo más peligroso del Lago Superior. Está situado a 24 millas (38,4 kilómetros) de la orilla, siendo el que dista más de tierra en los Estados Unidos. Como el del arrecife Spectacle, este faro descansa sobre un fondo cubierto por 11 pies de agua, y fue construido por el mismo procedimiento que aquél.

faro

El problema que se presenta al proyectar una obra de esta índole varía mucho si la cimentación sumergida descansa sobre arena o grava, o ha de levantarse sobre fondo de roca. La más notable construcción sobre arena es la de Rothersand, a diez millas de la costa de Alemania, en la desembocadura del río Weser. Este banco de arena está cubierto por 20 pies de agua, y el primer intento que se hizo para cimentar, con un cajón sumergido, fracasó por completo.

En 1883, sin embargo, se ideó un cajón de palastro de 14,30 metros de largo, 11,27 metros de ancho y 18,89 metros de profundidad, que fue remolcado hasta el banco de arena y sumergido unos 23,27 metros, a contar desde la baja mar. A 2,45 metros sobre el borde inferior, había un diafragma que, cerrándolo por la parte superior, formaba la cámara de trabajo, provista de un tubo cilíndrico, en el que se dispuso un cierre de aire estanco, y permitía entrar y salir a los obreros.

faros

La arena se desalojaba por presión neumática, y, a medida que el cajón bajaba, se iba prolongando, por la parte superior, con nuevas planchas de hierro. Cuando el cajón llegó a profundidad conveniente, se rellenó de mampostería y hormigón. La torre es una construcción metálica, protegida de bloques, en la que está montado el reflector a 23,75 metros sobre la marea alta. Se ilumina con luz eléctrica, estando alimentado este faro por cables submarinos que transmiten la corriente desde la costa próxima.

El faro del banco Fourteen-Foot, en la bahía de Delaware, se construyó por este mismo procedimiento en 1887. En éste, sin embargo, el cajón fue de madera, con un borde cortante de siete pies de altura. Sobre esta especie de balsa, se colocó un cilindro de hierro de 10,66 metros de diámetro y 5,50 metros de altura, y todo así dispuesto, se remolcó al lugar donde se sumergió, llenándole de agua.

Cuando estuvo bien asentado sobre el fondo, se agotó la cámara inferior, excavándose después la arena, que era transportada al exterior por una tubería. Conforme se profundizaba la excavación, los bordes cortantes de la cámara se hundían en la arena, y esta acción era favorecida por la carga del cilindro de hierro, cuyo interior iba rellenándose de hormigón.

El faro del bajío Diamond, frente al cabo Hatteras, trató de fundarse siguiendo este mismo sistema, pero no pudo conseguirse debido a la fuerza de las olas y violentas corrientes del Océano.

Estos problemas de cimentación sobre fondos de poca consistencia pueden resolverse, en muchos casos, por el empleo de pilotes a rosca o barreno, que consisten en fuertes columnas de hierro provistas, en su extremo inferior, de una especie de rosca de paso muy largo, que permite, literalmente, atornillarse en el fondo arenoso del mar, armándose después, sobre estas columnas, la estructura superior. La primera construcción de esta clase fue la de Brandywine Shoai, en la bahía de Delaware, en 1,80 metros de agua.

En lugar de construir los faros, como hasta ahora se ha venido haciendo, con piedra, ladrillo y cemento armado, parece que existe la tendencia de substituir estos materiales por el hierro; las nuevas construcciones en que interviene casi exclusivamente este último ofrecen mucha más seguridad y son más ligeras. El faro de Punta Arena, en California, fue el primero que se construyó en los Estados Unidos con cemento armado, habiéndose empleado este mismo sistema en todos los faros a lo largo del canal de Panamá. También se ha utilizado el cemento armado en el faro de la isla de Navassa, entre Haití y Jamaica; fue construido a expensas del Gobierno norteamericano, sobre aquella isla rocosa, porque situada, precisamente, en la ruta natural desde Colón a la entrada del canal de Panamá, constituye un peligro constante para la navegación. La elegante torre se ha construido con el mayor cuidado, teniendo en cuenta los violentos huracanes frecuentes en aquellos lugares, y tiene una altura de 45,70 metros. Su luz es de 47.000 bujías, con un radio de 50 kilómetros.

La lente Fresnel y otros progresos:

Hacia el año de 1822, un físico francés, llamado Agustín Fresnel, señaló una nueva era en los sistemas de iluminación de faros, creando unas curiosas lentes, al propio tiempo reflectoras y refractoras, que se colocan alrededor de una luz única, situada en el centro. El todo constituye un aparato que consiste en «una lente polizonal» encerrando una semilla lámpara central. Esta lente está formada por prismas de cristal, dispuestos en planos o tableros, de los cuales, la parte central es dióptrica o refractora solamente, y la superior e interior son, a la vez, refractoras y reflectoras, como en el sistema «catadióptrico».

Eas ventajas de este sistema son las de aumentar el brillo de la luz, por el hecho de que una gran parte de ella, que procede de la lámpara, se concentra, mediante los prismas, en rayos que se distinguen mejor desde el mar, consiguiéndose también una economía en el aceite o el medio iluminante empleado. Una lente Fresnes, del tipo más perfecto, da un rendimiento efectivo de un 60 por 100 próximamente de la luz de que se trata; el resto representa la pérdida en la parte superior e inferior de la linterna y la absorbida por el cristal de las lentes.

Estas lentes Fresnel se clasifican por su orden o tamaño, y dicho tamaño se mide por la distancia desde el centro de la luz hasta la superficie interna de la lente. Así, en una luz de «primer orden» la referida distancia es de 905 milímetros; en una de «segundo orden», 690 milímetros, y en una luz de «sexto orden», 147 1/2 milímetros.

I,a primera lente Fresnel que se instaló en los Estados Unidos fué montada en el faro de Navesink en el año 1841, en la entrada de la bahía de Nueva York, y la mayor de este tipo, instalada a expensas del mismo país, es la de la Punta Makapuu, Oahu, Hawai, y es la primera luz que divisa el marino al aproximarse a aquellas islas, desde los Estados Unidos. Es mayor que las clasificadas como de primer orden; tiene 1,30 metros de radio y, por lo tanto, el diámetro interior es de 2,75 metros, aproximadamente, estándo encerrada en una linterna de 4,87 metros de diámetro, también interior. Una lente Fresnel de gran tamaño es uno de los aparatos ópticos más hermosos; el perfecto pulimento de las lentes, con sus múltiples facetas brillantes y su gran armadura de metal, le dan la atractiva apariencia de una enorme joya.

Con objeto de diferenciar un faro con respecto a otro, se asigna a cada uno características especiales. Los distintivos de color se emplean generalmente para pequeños faros de orden inferior, en los que se usan por lo común lentes de color rojo. El empleo de lentes coloreadas supone, sin embargo, una gran pérdida en potencia lumínica, pues se calcula que con el rojo, que es el más eficaz, dicha pérdida alcanza un 60 por 100.

En muchos casos no se necesita más que una luz fija, aunque haya peligro de confundirla con otras de la costa o de buques que pueda haber en las inmediaciones. Ea construcción de ellas consiste en una lámpara central y una sola lente que dirige su haz luminoso sobre un determinado sector del horizonte. Los faros importantes son, o del tipo de «destellos» o de «eclipses». En los primeros gira toda la lente, y cada une de los bastidores o lentes parciales aparece como reflejo intenso a la vista del espectador. Con objeto de conseguir un movimiento suave y rápido, la lente entera se apoya sobre flotadores en un depósito de mercurio; de esta manera, lentes que pesan siete toneladas, dan fácilmente una revolución completa en medio minuto.

La lente de Punta Ki-lauea, Hawai, construida en Francia, a un coste de 12.000 dólares, pesa cuatro toneladas. Está montada, por medio de flotadores, sobre mercurio, da una revolución completa cada veinte segundos, y produce un doble destello de 940.000 bujías cada diez segundos. Este doble destello se consigue disponiendo simétricamente cuatro lentes dos a cada extremo de un mismo diáme tro. Como es natural, variando la dis^ posición de las lentes, su forma y su color, puede obtenerse una gran variedad de faros.

Fuente Consultada:
Historia de las Comunicaciones Transportes Terrestres J.K. Bridges Capítulo «Puentes en la Antigüedad»
Colección Moderna de Conocimientos Tomo II Fuerza Motriz W.M. Jackson , Inc.

Lo Se Todo Tomo III

Vuelo sin escalas alrededor del mundo Burt Rutan y su Voyager

Vuelo sin Escalas Alrededor del Mundo: Burt Rutan y su Voyager

Amelia Earhart
Cruzar El Canal de la Mancha
Exploración de África

BURT RUTAN

Nacido en Estacada, Oregon (unos 50 Km. al sureste de Portland) y criado en Dinuba, California, Rutan demostró desde edad temprana un interés agudo en aeronaves. Antes de cumplir los ocho años, diseñaba y construía modelos de aviones.

Elbert R. Rutan, más conocido por Burt, comenzó a volar  en 1959, se graduó de ingeniero aeronáutico en 1965, trabajó en la base Edwards de la Fuerza Aérea de California hasta 1974 en que armó su propia empresa y diseñó y construyó numerosos aviones de formas no convencionales usando materiales compuestos.

En 1982 formó Scaled Composites en el desierto de Mojave para diseñar nuevos aviones: uno de los primeros fue el Beechcraft Starship en 1983

En 1984 presentó su Voyager construido para dar la vuelta al mundo sin reabastecerse. Tras dos años de puesta a punto, logró la hazaña en 1986, al mando de su hermano Dick Rutan y Jeana Yeager.

avión Voyager

Datos del Voyager diseño canard bimotor en tandem. Costo: U$S 2.000.000 El motor principal, un Teledyne Continental de 100 HP refrigerado a agua y de uso permanente; el secundario a aire y de uso solo en los momentos necesarios con 139 HP.

Peso del planeador: 420 Kg.. Peso de los 2 motores: 400kgr. Peso total vacio 820 Kg.. Peso del combustible al despegar: 3.200 Kg. en 17 tanques. Peso total al despegue: 4200 Kg.

Datos del viaje: el despegue tomó 5500m. Tardó tres horas en ascender 8000 pies. Recorrido: 40.200 Km. Duración: nueve dias y cuatro minutos. Combustible remanente al aterrizar: 48 Kg.; Vel. media 214 kph.

Rutan hizo también el Space Ship One con el que llevó en junio de 2004, pasajeros civiles al espacio exterior (más de 100 km. de altura) y luego repitió el viaje varias veces, en lo que parece el inicio de una nueva posibilidad de turismo aventura.

El británico Richard Branson patrocinó la vuelta al mundo en solitario, que cumplió Steve Fosset en 2005 con máquina construida por Rutan, y anuncia para 2007 viajes comerciales al espacio exterior a 130 Km. de altura, a un precio de U$S 200.000 con 4 minutos carentes de gravedad.

Naufragio del Monte Cervantes Hundimiento buque en Canal Beagle

Naufragio del Monte Cervantes – Hundimiento en el Canal Beagle

Tragedia Buque Presidente RocaRompehielos IrizarTragedia Principessa MafaldaTragedia del Kursk

La mayoría de los 1.500 pasajeros que llevaba el Monte Cervantes en su crucero de turismo por los canales fueguinos, se hallaba sobre cubierta en la tarde del 22 de enero. Nadie quería perderse el maravilloso espectáculo que se ofrecía a medida que la nave avanzaba hacia el Este, proa al faro de Les Eclaireurs.

De improviso, el paquebote, orgullo de la industria naviera alemana, se sacudió, crujió fuertemente y se escoró hacia babor. Había chocado contra una roca. Una fuerte detonación seguida de espesa humareda, al estallar el tanque de combustible de proa, hizo cundir el pánico. Parecía a punto de epilogar trágicamente el alegre viaje iniciado en Buenos Aires, de donde procedía la casi totalidad del  pasaje.

Barco Monte Cervantes Hundido
Con las hélices hacia arriba, se observan los últimos minutos del Monte Cervantes, orgullo
de la industria alemana. También fue tumba del capitán Dreyer.

El capitán Dreyer, ante el naufragio inminente, ordenó una arriesgada maniobra: procurar que el barco calzara en las rocas para dar tiempo al salvamento. La maniobra dio resultado, e inmediatamente los botes insumergibles y las lanchas a motor de que estaba provisto el buque, comenzaron a dirigirse hacia la costa cercana.

Mientras tanto, desde Ushuaia, un vigía observó lo acontecido y pronto el telégrafo vibró llevando la angustia a centenares de hogares. Buenos Aires vivió horas de tremenda incertidumbre, apenas atenuada por el anuncio de que el transporte Vicente Fidel López, llegado al lugar,, estaba recogiendo a los últimos náufragos. Finalmente, la consoladora noticia de: «No hay victimas entre los pasajeros».

En ese mismo momento, el Monte Cervantes, con sus hélices fuera del agua y con grandes rumbos en la quilla, agonizaba lentamente. El suntuoso palacio flotante iba desapareciendo para convertirse en tumba del capitán Dreyer. El bravo marino, ya salvados todos,- cumplió el código de honor de los hombres de su estirpe, prefiriendo perecer con su barco.

Más tarde, la ciudad alborozada recibió a los que habían sido rescatados de una muerte casi segura. Pero aquel sacrificio no fue olvidado. Y hasta la mole gigante llegaron manos piadosas a rendir homenaje al valor que siempre o casi siempre, alcanza resonancia espiritual.

Naufragio Principessa Mafalda Hundimiento Crucero Historia Tragedia

Naufragio Principessa Mafalda: Su Hundimiento

Tragedia Buque Presidente RocaRompehielos IrizarTragedia Montes CervantesTragedia del Kursk

El 25 de octubre de 1927 se produjo una de mas importantes tragedias marítimas que se recuerda en época de paz, se produjo el naufragio del Principessa Mafalda, una lujosa y enorme nave que usaban las familias mas adineradas de Sudamérica para viajar al viejo continente.  Se decía que seria  su último viaje, porque los armadores consideraban que el barco estaba ya obsoleto.

 buque mafalda

El honor del nombre del buque le correspondía por la segunda hija del rey de Italia,
la princesa Mafalda María Elisabetta Anna Romana, nacida en Roma el 19 de noviembre de 1902.

A comienzos del siglo XX, Italia ingresó en un notable período de industrialización, singularmente en ciudades del norte, como Turín o Milán. Los astilleros comenzaron a producir sofisticadísimos transatlánticos, compitiendo en la ruta a Sudamérica con la Hamburg South American Line, (Hamburg-Sudamerikanische Dampfschifffahrts-Gesellschaft), propietaria del deslumbrante Cap Arcona, botado en 19071. El Italia (1905) y el Garibaldi (1906), nada tenían que envidiarle a los grandes transatlánticos alemanes. Los astilleros de Riva Trigoso, en Génova, construyeron, a partir de 1896, naves prodigiosas para la época: con mayor tonelaje, más imponentes y veloces.

Principessa Mafalda,  de la empresa  Navigazione Generale Italiana era un vapor de lujo, con desplazamiento de 9.200 toneladas, 147 metros de longitud, 16,80 m de ancho o manga y  podría llegar a 18 millas por hora de velocidad. Había 158 cabina de primera clase, 835 segunda y tercera, con 715 dormitorios para los inmigrantes.

Su viaje inaugural al Plata fue motivo de encandilados comentarios: era el primer paquete de gran lujo que uniría estas costas con el Mediterráneo, y poseía el privilegio de ser uno de los buques más veloces de su tiempo. A partir de ese momento fue la nave predilecta de las familias pudientes argentinas, uruguayas y brasileñas que viajaban al viejo continente, y un constante introductor de inmigrantes en sus travesías de regreso.

Ovidio Lagos en el primer capítulo de su libro «Principessa Mafalda » describe así al interior de este elegante crucero italiano:

Además de doscientos noventa tripulantes, el salón comedor de la clase de lujo tenía una notable cúpula de cristal, sostenida por cuatro columnas, y ventanas que se asomaban al mar. Eran tan grandes como las de una residencia, lo cual constituyó la primera modificación revolucionaria, ya que las embarcaciones solían tener ventanas pequeñas.

Imaginemos, entonces, al gran salón comedor, iluminado por centenares de luces, y a las mujeres ingresando de noche con los inevitables tocados de aigrettes o de aves del paraíso y los hombres de riguroso frac. Una orquesta probablemente interpretaba un vals o una galopa. Esa estética en apariencia tan espontánea exigía no solo un guardarropa, sino un ejército de silenciosos sirvientes. El menú no quedaba librado a ningún chef de a bordo, sino que era supervisado por el hotel Excelsior, de Roma y de Nápoles, y por el hotel National, de Lucerna, Suiza.

La sala de música parecía salida del Petit Trianon: enormes espejos, cúpula de cristal, mesas y sillas Luis XVI y un ventanal donde no hubiera sido difícil imaginar a María Antonieta contemplando su bucólico jardín. Los niños, considerados por las clases adineradas como little horrors, podían potrear a su antojo en su correspondiente sala, férreamente controlados por niñeras inglesas o francesas.

Los camarotes de la clase de lujo no le iban a la zaga: eran de enormes dimensiones, con las clásicas camas de bronce. Tenían, además, teléfono. Con solo levantar el auricular, se podía pedir toda clase de exquisiteces, o la presencia de una coiffeuse o de una manicura, hablar con personas amigas room to room y enterarse, por ejemplo, de los chismes de a bordo, o, también, criticar el vestuario ajeno.

Esta suerte de microcosmos que era el Principessa Mafalda, un perfecto muestrario de clases sociales, de ricos y pobres, de elegantes y humildes, zarpó de Génova hacia esa panoplia de oportunidades que era Sudamérica y, en particular, al “granero del mundo” como habitualmente se denominada a la Argentina. A pesar del diseño revolucionario del barco, de la asombrosa cantidad de nudos que le permitía una velocidad inusual y de ese fabuloso invento de Guillermo Marconi que era la radiotelegrafia, hubo problemas en su viaje inaugural. Presagio, acaso, de los que tendría en octubre de 1927, durante su último viaje.

A principios de octubre, el Principessa Mafalda dejó Génova para su 90º viaje a América del Sur. Llevaba  embarcado un suculento cargamento de 250.000 liras en oro, celosamente custodiadas por cinco fornidos policías, que el gobierno italiano enviaba al argentino.

La mañana de la partida ascendieron por la planchada 62 pasajeros de primera clase; 5 de ellos iban a Río, 16 a Santos y 41 a Buenos aires. 83 pasajeros ocuparon camarotes de segunda clase, 10 con destino a Río de Janeiro, 20 a Santos y 53 aBuenos Aires. A ello se sumaba un pequeño hormiguero de 838 pasajeros de tercera, casi todos inmigrantes, la mayoría con destino a la capital argentina, buena parte de los cuales pertenecían al tipo “golondrina” que llegaba para levantar la cosecha, juntar unos pesos y volver a la patria. A los 973 pasajeros se sumaban 288 tripulantes, lo que ascendía a 1261 el número de personas a bordo del “Principessa Mafalda”.

Pero tan pronto como zarpó y dejó el Mediterráneo empezaron los problemas: en Barcelona, varias horas de retraso en la salida, y luego al cruzar el Atlántico, el tiempo de inactividad de la máquina de babor por muchas horas, pero no se dio explicación alguna a los pasajeros. Además que la capacidad de navegación se veía comprometida y parte del viaje que el buque navega escorado a babor, las condiciones a bordo tampoco eran buenas. Los cuartos de baños no funcionaban y la refrigeración era defectuosa, lo que ponía en peligro la conservación de los alimentos.

Como la máquina de babor no se pudo arreglar, el capitán se vio obligado a cambiar de rumbo y dirigirse al puerto de San Vicente en Dakar, explicándole a los pasajes que tal cambió obedecía a la necesidad de cargar mas carbón para las calderas. En ese puerto subieron dos nuevos pasajeros, que habían sido rescatados días antes del buque «Matrero» que también iba con rumbo a Buenos Aires, pero que a medio camino le explotó una caldera y quedaron a la deriva hasta que un «ángel salvador» los detectó y los dejó sanos y salvos en el puerto de San Vicente.

Arreglada la máquina, el “Mafalda” dejó las islas portuguesas y se dirigió a las costas brasileñas, iniciando el cruce atlántico. Las vibraciones seguían; pisos, techos y mamparas trepidaban visiblemente. Las deficiencias se hicieron evidentes a los pasajeros, especialmente a los acostumbrados a navegar. En la primera clase la preocupación fue en aumento, hasta desembocar en la idea de solicitar formalmente al comandante Guli la interrupción del viaje. Se intentó juntar firmas para hacer una petición mas formal, pero el plan no prosperó.

El día 25 de octubre cerca de las 19:00 horas, ya en los comedores los camareros tenían las mesas listas, los cocineros daban los últimos toques y ya se disponía a hacerse el primer llamado para cenar, cuando un extraño ruido sacude al barco y el Mafalda queda detenido en el mar. Casi al instante los oficiales explican y tratan de calmar, mientras el comandante Guli reúne datos concretos sobre el accidente sufrido por el “Mafalda”.

No tarda en tenerlos: se ha partido el árbol de la hélice izquierda, que en esos momentos giraba a 92 ó 93 revoluciones por minuto. Las enormes palas continuaron el movimiento giratorio al desprenderse, chocaron con el casco y abrieron un enorme desgarrón en las planchas metálicas, por donde en esos momentos se precipitaba el agua dentro del buque.

Grandes cantidades de agua comenzó a inundar la parte posterior de la Principessa Mafalda, llegando a la sala de máquinas. Las alarmas se dispararon y el pánico acongojó a todos los pasajeros, que inclusive algunos armados efectuaron disparos entre la gente. Guli ordena parar las máquinas, disminuir la presión de válvulas y apagar las calderas.Abajo los tripulantes trabajan afanosamente por cerrar la brecha del casco. Chapas de hierro, cemento, se fueron aplicando contra la abertura. Por un momento pareció que el daño sería subsanado y todo peligro aventado, pero la enorme presión del agua embarcada pudo más que los esfuerzos de los marinos y una de las planchas laterales cedió y la furia del agua ya no pudo mas detenerse. El Mafalda estaba perdido!.

El buque se hunde de popa muy despacio, había tiempo para iniciar el salvataje, el cual comenzó bien y ordenadamente hasta que llegaron en forma salvaje todos los inmigrantes italianos que viajaban en tercera clase, invadiendo los botes salvavidas y sembrando el pánico a su paso.Atropelladamente se arrojaron sobre los botes, tropezando entre si, zambulléndose unos encima de otros, hasta colmar la capacidad de las frágiles embarcaciones más allá del límite de seguridad.

Así fue como algunos de esos botes se hicieron pedazos al tocar el agua. El pánico seguía en ascenso, incontenible. A la tercera se plegó la segunda clase. En cuanto a la primera, que hasta el momento conservara la calma, cuando intentó ponerse a salvo se encontró bloqueada por las otras dos.

Encerrado en su cabina, el radiotelegrafista Luis Reschia no cesaba de insistir: “Vengan todos. Vengan pronto”.

Dos barcos recibieron de inmediato el primer SOS del “Mafalda”. Ambos estaban a la vista, si bien distantes, y pusieron proa hacia el buque italiano. Eran el “Alhena”, que navegaba a babor del “Mafalda”, y el “Empire Star”, nave inglesa que bordeaba a estribor del trasatlántico, con destino a Londres. A 36 millas de distancia captó el llamado el “Mosella”, de bandera francesa, que iba de Río de Janeiro a Burdeos.Hacia las 20:15 se acercó otro buque al lugar del naufragio. Era el “Formose”, que llegaba a toda velocidad.

El salvataje continuó a medida que avanzaba la noche, mientras que a bordo de los buques de rescate se atendía a los sobrevivientes (el “Alhena” rescató 531, el “Empire Star” 180, el “Formose” 200, el “Mosella” 22 y el “Rosetti” 27). A la una de la mañana del 26 de octubre el “Alhena” fue el primer buque en dejar el lugar. Dos horas después llegó el “Avelona”, tras navegar casi 300 millas, y los brasileños “Bagé”, “Ayurnoca”, “Manaos” yPurós”, quien no recogieron ningún sobreviviente.

Después de la tragedia, dos versiones  trataron de explicar el accidente: la primera versión supone que una pala de la hélice se rompió, y la rotación de la hélice excéntrica empezó a golpear, sucesivamente, en el casco, y se abre una ranura en el lado del puerto, que hizo naufragar al barco. La otra versión que aparece en el informe del comandante de Voltair, establece que: el tubo del eje de la hélice se rompió, abriendo un agujero en el casco. Posiblemente, los dos efectos se hayan producido en la secuencia, la ruptura del eje de rotación de la hélice excéntrica causado por los choques en el casco. Muchos misterios rodean todavía el hundimiento delPrincipessa Mafalda, incluida su posición real.

Dos Marinos Argentinos: Cuando el buque escuela argentino Fragata Sarmiento pasó por Génova , desembarcó al cabo principal José Santoro y al conscripto Anacleto Bernardi, convalecientes ambos de neumonía. Había sido una decisión del capitán para que regresen a reponerse a Argentina, aprovechando que allí se encontraba elMafalda con rumbo a Bs.As.

A partir del inicio del naufragio estos dos expertos marinos tuvieron una conducta ejemplar frente a todos los pasajeros, ayudándolos a desembarcar y mantener la calma para abordar a los botes salvavidas. Además se destacó el conscripto Bernardi con una actitud heroica salvando gente en el agua entre tiburones para acercarlos a nado a los barcos de rescate. Lamentablemente el murió por el ataque de los hambrientos escualos, su compañero Santoro llegó a Argentina donde vivió hasta 1977. Ambos marinos fueron condecorados.

El diario ‘Clarín’, en su sección de información general, página 14, del martes 26 de octubre de 1976 expresó que «se conmemoró [el 25 de octubre] en Puerto Belgrano el Día del Conscripto Naval. . En su transcurso se destacó la labor de los conscriptos. «Como se sabe, la institución del 25 de octubre como fecha recordatoria se debe a que un día como ése, en 1927, al naufragar el vapor italiano ‘Principessa Mafalda’, un conscripto argentino, clase 1906, Anacleto Bernardi, posibilitó con su actitud heroica salvar numerosas vidas, a costa de la suya. En la ceremonia se descubrió un busto del conscripto Bernardi y se guardó un minuto de silencio en homenaje a los conscriptos fallecidos».

Fuente Consultada: «Principessa Mafalda» de Ovidio Lagos y Sitio Web: www.histamar.com.ar

Historia y Futuro del Concorde Accidente aereo del Concorde

Historia y Futuro del Concorde – Accidente Aéreo

el concorde frances, ultimo vuelo

datos del concorde

Datos Principales

  • Capacidad: hasta 144 pasajeros y 11.340 kg. de carga
  • Autonomía 7.582 Km.
  • Motores: 4 Rolls-Royce / SNECMA Olympus 593 Mk 610 que producen 38.000 lbs (169,1 KN) de empuje.
  • Velocidad de despegue: 402 Km/h
  • Velocidad de crucero: 2.179 Km/h (Mach 2.2) a 16.765 M de altura.
  • Velocidad de aterrizaje: 300 Km/h
  • Longitud total: 62,10 M
  • Envergadura (longitud de las alas): 25,55 M
  • Superficie alar: 358,25 m2
  • Altura: 11.40 M
  • Anchura del fuselaje 2,9 M
  • Techo máximo: 61.000 pies (18.300 m)
  • Capacidad de combustible: 119.500 L / 95.600 kg
  • Consumo de combustible: 25.629 L / 20.500 kg
  • Peso máximo de despegue: 185.066 kg
  • Peso máximo al aterrizaje: 111.130 kg
  • Peso en vacío: 78.698 kg
  • Tren de aterrizaje: 2 neumáticos en el delantero y 8 en el trasero
  • Tripulación de vuelo: 2 pilotos y un ingeniero de vuelo
  • Tripulación de cabina: 6 azafatas
  • Rutas:
    • París – Nueva York (3 horas y 54 minutos)
    • Londres – Barbados

La Caída de un Grande….

Punto final para el famoso Concorde, el avión supersónico que cruza el  cielo a velocidad del sonido: desde el 1 de noviembre de 2002 dejó de volar.  Así lo decidieron las dos líneas aéreas que tienen estos aviones entre su flota, Air France y la British Airways.  Las empresas anunciaron el retiro de estos aparatos por los altos costos de mantenimiento que tienen y porque ya no hay suficientes pasajeros dispuestos a pagar casi 10.000 dólares por un viaje de ida y vuelta.

Oficialmente, la suspensión de los vuelos estaba prevista para el año 2009, pero la guerra en Irak parece haber acelerado los tiempos.  Apenas se inició el conflicto, la ruta París-Nueva York que hace el Concorde llegó a despegar con sólo 20 pasajeros y los asientos disponibles son cien.

Las dos empresas sostuvieron que en estas condiciones ya no tenía sentido seguir operando.  El presidente de la British Airways, Rod Eddington, anunció que los siete aviones Concorde que tiene la compañía ya fueron prometidos a varios museos que los exhibirán como atracciones.

En muchos aspectos, este es un día triste – declaró.  Eddington-.  El Concorde cambió la naturaleza de la aviación comercial.  Revolucionó el modo en que la gente viaja por el mundo.  Es el final de una era fantástica en el mundo de la aviación’.

Su colega jean Cyril Spinetta, presidente de Air France, precisó que la suspensión de los vuelos tendrá un costo de entre 30 y 50 millones de euros en pérdidas.  La compañía francesa interrumpió  los vuelos de sus cinco aparatos el 31 de mayo, pero hasta noviembre se realizaron algunos vuelos individuales.  Este avión no va a morir, porque continuará viviendo en la imaginación humana’, dijo el presidente de Air France.

Es el final de los 27 años de historia del elegante jet blanco, la única aeronave supersónica pasajeros que navega a  dos veces la velocidad del sonido (2200 Km/h a 18.000 m de altura)

El recorrido entre Londres y Nueva York -que hace la British Airways- dura 3 horas y 20 minutos.  Y como entre las dos ciudades hay cinco horas de diferencia, se da la curiosidad de que el Concorde llega a destino antes del horario de salida.

Acaso el fin de estos vuelos haya comenzado en el mismo momento de los atentados a las Torres Gemelas de Nueva York, el 11 de setiembre de 2001. la drástica caída del número de pasajeros por temor a los a terroristas disminuyeron en todas aéreas.

Pero además en    el caso del  los Concorde eso se suma al recuerdo de la tragedia de julio de 2000 cuando uno de estos aviones se estrelló apenas despegó del aeropuerto parisino Charles de Gaulle.(ver más abajo)   Ese día hubo 113 muertos: toda la tripulación y los pasajeros.  Un mes después se suspendieron las salidas, que recién se retomaron al año siguiente.

Por otro lado, las compañías dueñas de los Concorde también apuntaron a los crecientes costos de mantenimiento que tienen estos aviones (se calcula que es cinco veces más que las aeronaves comunes).  Y otros motivos que contribuyeron a sacarlos de circulación, fueron los problemas técnicos que presentaban. Scientist informó    sobre una inspección encargada por la British Airways,donde se detectaron 55 ‘riesgos de en estos aviones.  ‘El Concorde es tan sensible como una bailarina rusa.  Con la menor la de temperatura empieza a toser’, describió un técnico en un periódico francés.

Lo cierto es que en los últimos meses los vuelos estaban saliendo casi vacíos. Un viaje del Concorde de Air France levantó vuelo de París a Nueva York, con sólo 12 pasajeros.  Y sólo había 16 reservas par cubrir todas las plazas del avión.

Esta decisión está motivada por el deterioro económico observado en los último meses y que se aceleraron desde comienzos de año», esgrimió la empresa Al France en un comunicado.

Una realidad muy lejana de los buenos viejos tiempos, cuando estos aviones supersónicos tenían entre sus pasajeros a personajes notorios como la Princesa Diana, estrellas del rock como Mick jagger y Elton john, actores famosos como joan Collins y Sean Connery., modelos, políticos y altos ejecutivos.

Pero esos eran otros tiempos.  ‘Si en una empresa están despidiendo trabajadores y pidiendo al personal que se ajuste el cinturón, los ejecutivos no consideran adecuado ir al aeropuerto y tomarse un Concorde’, opinó el presidente de la British.  Estos aviones fueron concebidos en 1956, cuando se fundó, en Gran Bretañia el Comité de Aviones de Transporte Supersónico.

La idea era investigar las posibilidades de construir un avión de esas características.  En 1962, los gobiernos de Francia e Inglaterra fue un acuerdo para desarrollar el proyecto’ Y al aflo siguiente, el presidente francés Charles de Caulle, usó por primera vez el término ‘Concorde’ para referirse al primer avión que volaría a la velocidad decido.

El servicio comercial se inició en enero de 1976.  Desde entonces volaron más de 2 millones de pasajeros que degustaron exquisitas comidas y vinos finos durante el viaje.  Hoy es Concorde es una leyenda.

Un Lujoso Proyecto:

Desde su primer vuelo regular, el 21 de enero de 1976 -desde París hasta Río de Janeiro-, el Concorde simbolizó la misma expresión de lujo y refinamiento en la industria aerocomercial, con sus azafatas vestidas por Goulle y cuatro chefs a bordo.

Pero detrás de las líneas elegantes del avión estaba el primer proyecto de cooperación aeroespacial entre dos países europeos, Francia (Aeroespatiale) y Gran Bretaña (British Aircraft), cuyos ingenieros comenzaron a trabajar en forma conjunta a fines de los años 60.

El proyecto costó 3.000 millones de dólares y conjugó el encuentro entre dos culturas: los planos franceses estaban diagramados según el sistema métrico decimal, en tanto el de los ingleses lo hicieron según su propio sistema.  El Concorde fuel la génesis de la cual surgió posteriormente el Airbus, el único avión capaz de hacerle frente hoy a la poderosa Boeing estadounidense.  Eso sí: para el Airbus, se dejaron de lado las mediciones en pulgadas, pies y yardas.

El Concorde aterrizó tres veces en suelo argentino: primero en 1971 (era aún un prototipo) y luego para el Mundial ’78, como transporte de la Selección francesa.  Afíos más tarde, el 8 de didembre de 1999, un Concorde charteado trajo a Ushuaia a 100 turistas que pagaron US$ 52.000 por un tour sudamericano.

Siete meses más tarde, en París, sobrevino el único accidente fatal en la historia del Concorde.  Fue el punto de inflexión en la historia de la única aeronave comercial desde cuyas ventanillas se podía observar la curvatura de la Tierra.


Conclusiones Finales de la Investigación

Luego de seis meses de investigaciones se ha llegado a la siguiente conclusión, respecto a las causas del accidente:

Un avión DC10 con destino a EE.UU. despegó pocos minutos antes de la salida del Concorde. Este avión que había sido reparados mecánicamente, pierde un elemento metálico de forma rectangular bien alargado que cae sobre la pista. Al despegar el Concorde, y cuando llevaba una velocidad de unos 330 km/h, uno de los neumáticos de goma inflados a alta presión pisa esta chapa filosa produciéndole un corte profundo a la cubierta de caucho.

El neumático explota y uno de los pedazos  (que salen expulsados a gran velocidad) , impacta en la parte inferior del ala  creando una gran onda de choque que desprende un sello hermético del tanque de combustible. El combustible comienza a fugarse, pero hasta ese instante no hay problemas porque existen sistemas de seguridad para esas situaciones.

Pero fue aquí cuando sucede la peor, porque otro trozo de cubierta corta unos cables del tren de aterrizaje, que al rozarse producen chispas eléctricas, que en contacto con el combustible que se escapa, crea una combustión que en segundo se expande por todo el fuselaje, hasta su caída sobre un hotel cercano al aeropuerto.

Fuente Consultada: National Geographic

El aparato cayó en parte sobre un hotel, a unos cinco kilómetros del aeropuerto de Roissy-Charles de Gaulle, de donde había despegado pocos minutos antes. Es el primer concorde que se estrella en sus treinta años de historia.

DATOS DEL VUELO:

Día: Martes 25 de Julio del 2000

Hora: 14:44 GMT

Marca-Modelo: Aérospatiale / BAC Concorde 101

Propietario: Air France Matrícula: F-BTSC Serial: 203 Año: 1975

Tripulación: 09

Pasajeros: 100

Total de personas abordo: 109 (todos fallecieron)

Personas fallecidas en tierra: 05

Total de personas fallecidas: 114

Sitio del accidente: Gonesse (Francia) Plan de vuelo: Roissy-Charles de Gaulle de París – New York- John F. Kennedy IAP, NY, Vuelo número: 4590

Puedes leer un libro sobre esta maravilla aérea del autor Roberto Blanc, que lo ha enviado para que sea compartido con los navegantes interesados en el tema:

libro sobre el concorde

Boeing 767 Principales Aviones de Linea Historia de su Fabricación

Boeing 767 – Principales Aviones Comerciales

Boeing B-767
El 26 de septiembre de 1981, con el bautismo del aire del primer Boeing B-767, la industria aeronáutica norteamericana y Boeing, en particular, volvieron a tener en la mano, firmemente, el mercado mundial del transporte civil y comercial.

Efectivamente, el B-767 es el primero de los dos aviones de línea de la nueva generación (el otro es el más pequeño B-757) construidos por Boeing para responder al desafío de los costes —sobre todo, los del combustible— que ha producido la gran crisis del transporte aéreo desde finales de los años setenta y comienzos del decenio posterior. El B-767 está destinado a reemplazar al B-707 y, seguramente, a volver a ofrecer el éxito de este verdadero cabeza de serie de toda una generación de aviones de línea.

El B-767

En la fecha del primer vuelo, los pedidos acumulados ascendían a un total de 173, más otras 135 opciones por parte de 17 de las principales compañías internacionales y norteamericanas. El comienzo de la actividad operativa se fijó, para agosto de 1982, con los colores de la compañía United.

Fue precisamente esta compañía norteamericana, en julio de 1978, la que dio comienzo al comprometido programa de producción del B-767, con un pedido inicial de 30 unidades. En aquella fecha, Boeing tenía dispuesto, prácticamente, el proyecto para el nuevo y revolucionario avión de línea de medio radio de acción, resultado de doce años de estudios, de avanzada tecnología, elevada capacidad y, sobre todo, alta economía de explotación.

La crisis petrolífera y el consiguiente aumento vertical del coste del combustible eran los enemigos más temibles que combatir y el proyecto preparaba para las compañías una arma particularmente idónea para contrarrestar, también en el futuro, estos problemas, ya que el B-767 prometía, además de una disminución general de los costes operativos, una reducción del consumo de combustible igual al 35 por 100.

Estos brillantes resultados podían conseguirse gracias, sobre todo, al empleo de una nueva ala caracterizada por una excepcional reducción de la resistencia inducida y de la parásita, mediante una estructura más I4gera, con amplio recurso a materiales compuestos, de propulsores particularmente avanzados (más económicos y más silenciosos) y de una aviónica especialmente sofisticada.

La construcción del prototipo B-767 fue iniciada el 6 de julio de 1979. El avión tomó la forma de un gran birreactor de fuselaje considerablemente más ancho (1,24 metros) que el del B-757 y capaz de proporcionar en su interior una distribución de los pasajeros en filas de asientos separadas por dos pasillos centrales.

La de la capacidad fue una característica que no permaneció constante antes de la elección de la configuración definitiva, ya que, inicialmente, la versión base debía ser la 767-100, con una capacidad de 180 plazas; posteriormente, se pasó a la variante 767-200MR, de 255 pasajeros; finalmente, se decidió adoptar una capacidad variable de 211 a 289 pasajeros, y la versión fue designada 767-200.

La compañía Boeing ha subcontratado una amplia serie de trabajos para el programa, que comprenden incluso importantes componentes estructurales: Grumman Aerospacees responsable de la construcción de la sección central del ala, de la parte inferior adyacente al fuselaje y de los mamparos; Vought construye los planos de cola horizontales, y Canadair, la parte posterior del fuselaje.

Además, Aeritalia es responsable de las superficies móviles de las alas, de los timones de profundidad, de la deriva y del timón de dirección (todo construido en fibras compuestas); las compañías japonesas Fuji, Kawasaki y Mitsubishi, asociadas a la Civil Transpon Development Corporation, construyen, finalmente, otros componentes menores, tales como paneles, puertas y carenados diversos.

De los 173 pedidos en firme en la fecha del 26 de septiembre de 1981, 66 habían sido cursados por compañías estadounidenses, 20 por Canadá y 46 por transportistas de otros estados; en Europa sólo dos, por parte deBritannia Airways.

Características  Avión: Boeing B-767
Constructor: Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1981
Motor: 2 turborreactores Pratt & Whitney JT9D-7R4D, de 21.773 kg. de empuje cada uno.
Envergadura: 47,55 m. Longitud: 48,51 m.
Altura: 15,85 m. Peso al despegar: 136.080 kg.
Velocidad de crucero: Mach 0,80
Techo máximo operativo: 11.920 m.
Autonomía: 5.058 km.
Tripulación: 6-8 personas
Carga útil: 211-289 pasajeros

Fuente Consultada: Aviones de Todo el Mundo de Enzo Angelucci – Paolo Matricardi

Historia de Boeing 757 Principales Aviones de Lineas Comerciales

Historia de Boeing 757 – Principales Aviones

Boeing B-757
La segunda carta ganadora de la compañía Boeing para los años ochenta se llama B-757, un birreactor de corto y medio radio de acción desarrollado al mismo tiempo que el mayor B-767 y con las mismas características tecnológicas muy avanzadas.

Historia del Boeing 757

El impacto que este nuevo avión producirá en el mercado internacional, se demuestra con pocas cifras: 6 meses antes del bautismo del aire del prototipo (febrero de 1982), los pedidos acumulados por Boeing ascendían a más de 136 unidades, más unas 60 opciones. Desde el momento de la entrada en servicio, fijada para enero de 1983, el B-757 permite un ahorra de combustible por asiento a ocupar igual al 47 por 100 respecto al trirreactorB-727, al que sustituirá.

El anuncio del proyecto B-757 fue dado por Boeing en los primeros meses de 1978 y la respuesta de las compañías no se hizo esperar mucho: el 31 de agosto, Eastern Air Lines y British Airways anunciaron la intención de adquirir un gran lote de los nuevos aviones (21 y 19, más 24 y 18 en opción, respectivamente).

En marzo de 1979, estos pedidos iniciales fueron formalizados (entretanto, British había aumentado el pedido a 27 unidades) y Boeing estuvo, por lo tanto, en condiciones de dar el visto bueno oficial al programa de construcción. La fecha fue el 23 de marzo, y nueve meses después, el 10 de diciembre, se inició el trabajo en fábrica. Con el avance de la actividad, llegaron pedidos sucesivos por parte de otras compañías aéreas, y, entre éstas, las principales fueron Delta, American, Monarch y Trans Brasil.

En el transcurso de la construcción, los técnicos de la compañía Boeing no escatimaron esfuerzos para poner en práctica un riguroso programa de reducción de peso, con miras también a la economía de explotación. Aunque basado en el fuselaje del modelo 727, el B-757 presenta, en efecto, muchas modificaciones estructurales (gracias, sobre todo, al empleo de materiales compuestos) derivadas de la necesidad de aligerar el avión sin perjudicar por esto su robustez. Las propuestas de tal reducción fueron más de 5.200, y más de un millar de ellas ha encontrado aplicación concreta, con ventajas individuales que van de pocos gramos a un máximo de 77 kilos, distribuidos en muchísimos detalles del avión.

En total, Boeing ha logrado reducir en el 5,2 por 100 el peso total, en vacío, del proyecto, y los resultados de este esfuerzo se prevén particularmente brillantes. Según los técnicos, efectivamente, suponiendo 1.400 vuelos al año, cada uno de 1.795 kilómetros, se podrá llegar a un ahorro de combustible igual más de 85.000 litros por avión.

Naturalmente hay también otros factores que determinarán la consecución de estas excepcionales prestaciones operativas por ejemplo, el ala, complementaria proyectada de nuevo respecto  a la del B-727 y caracterizada por un elevado rendimiento aerodinámico; o los propulsores de alta eficacia y bajo consumo. A este respecto, Boeing prevé la instalación de una amplia gama de grupos motores, a elección del cliente.

En particular los B-757 destinados a British Airways y a Eastern (designados B-757-200) estarán dotados de turbo insufladores Rolls-Royce RB.211 (por primera vez este caso, Boeing ha utilizado propulsores no norteamericanos para un nuevo avión), mientras que los aviones posteriores tendrán motores Pratt & Whitney y serán entregados a finales de 1984.

También en el programa 757, la compañía Boeing ha subcontratado una amplia serie de trabajos. En particular, Rockwell International es responsable de las secciones centrales del fuselaje; Vought, de los planos de cola y de la sección posterior; Fairchild Republic, de la cabina de pasajeros en la parte situada sobre el ala y sobre los hipersustentadores del borde de ataque; Grumman, de los «spoilers» (frenos aerodinámicos), y CASA, española, de los hipersustentadores posteriores externos.

Características  Avión: Boeing B-757
Constructor: Boeing Commercial Airplane Co.
Tipo: Transporte civil
Año: 1982
Motor: 2 turborreactores Rolls-Royce RB 211 -535, de 16.965 kg. de empuje cada uno
Envergadura: 37,95 m. Longitud: 47,32 m.
Altura: 13,56 m.
Peso al despegar: 108.860 kg.
Velocidad de crucero: Mach 0,80
Techo máximo operativo: 11.703 m.
Autonomía: 4.336 km.
Tripulación: 6-8 personas
Carga útil: 178-233 pasajeros

Fuente Consultada: Aviones de Todo el Mundo de Enzo Angelucci – Paolo Matricardi