Bac VC 10

Los Satélites Artificiales Argentinos Historia Plan Espacial

SATELITE ARTIFICIAL ARGENTINO
HISTORIA PLAN ESPACIAL

Los vehículos espaciales, como por ejemplos los satélites artificiales,  resultan instrumentos impresindibles para el avance científico y tecnológico de la imanidad. Son numerosos los fines con que se utilizan; ellos, cabe destacar los fines científicos, medioambienles, de comunicaciones, de navegación y militares. Mientras ue los satélites giran en órbita alrededor de nuestro planeta, las sondas se han liberado de la atracción gravitatoria de la Tierra y se desplazan en trayectorias variadas.

Los satélites recorren distintos tipos de órbitas, a diferentes alturas con respecto a la superficie terrestre. Tienen tamaños muy variables; algunos pueden llevar tripulantes a bordo.

Los de mayor envergadura se ubican en órbitas bajas entre 250 y 450 km, como por ejemplo, el transbordador espacial norteamericano y la estaciónespacial Mir, que permiten transportar astronautas, satélites y equipos de mantenimiento y reparación.  También se encuentra el telescopio espacial Hubble, que estudia la luz procedente de los objetos más alejados del Universo.

https://historiaybiografias.com/linea_divisoria4.jpg

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio. Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos. En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

Mono Juan Enviado al Espacio Por Argentina, Murió en el zoologico de Córdoba.

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio. El tripulante, de la especie caí, había nacido en Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja. Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal. En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD
A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas. En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos. Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones. La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas. El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social. El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información. La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos. La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES: La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida. En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre. Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó.

En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador. Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite. Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento.

Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta.

En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete. El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

Los satélites geoestacionarios se mantienen a una distancia de 38.500 km girando a la misma velocidad que la Tierra, por ello siempre se observan en el mismo punto sobre el ecuador terrestre. Se utilizan para establecer comunicaciones telefónicas y televisivas.

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:
Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro. Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica. Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se creala Sociedad Argentina Interplanetaria, la primera en América latina, en 1949. Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II. Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro «La Ciencia Argentina», explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II. Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario. La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B. Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita. En febrero 1994, el New York Times se refería a la empresa argentina como «una pequeña versión argentina de una compañía de Silicon Valley» y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial «Argentina en el Espacio 1995-2006». Varotto cuenta que este programa «fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo». Y agrega: «Se decidió concentrar los recursos en ir arriba para mirar para abajo». El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, «contribuya a la optimización de actividades de determinadas áreas socio-económicas». Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

SATÉLITES SAC-A Y SAC-B
La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita. Mejor suerte tuvo la misión SAC-A, que se concretó en 1998. El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C
Argentina en su Plan Espacial Nacional – «Argentina en el Espacio 1995-2006» , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae). Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de «proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes».

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7. Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales. Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la Conae llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino. Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites. El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la Conae- y varias empresas del país, que son las que construyeron el satélite. El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP. Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane
Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas. El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la «sugerencia» de EE.UU.
Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.
Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990. Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat). Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio. El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales. Fabricó el «bus», o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE. Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina. A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche. De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica. Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre d 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia. La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales. El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
«La Ciencia Argentina» de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario «La Nación»

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del «empleado bancario» ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos «bigotes» de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla Disputa

Historia del Uso de la Corriente Alterna
Disputa de Edison Vs. Tesla

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el «príncipe de los experimentadores». Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar.

Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: «Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética«. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad. En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las «resplande cientes herraduras que brillaban dentro de los globo en forma de peras».

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno y consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

iluminador electrico de gran potencia

PROYECTOR ELÉCTRICO DE 1,50 METROS, QUE ILUMINA LOS OBTETOS SITUADOS A 16 KILÓMETROS DE DISTANCIA

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

generadores de corriente electrica

Con su sala de turbinas de vapor construida a orillas del rio, completo aislamiento de todo el equipo eléctrico, disposiciones hidráulicas para eliminar las cenizas, instalación de calderas con recalentadores de vapor formados de seis tubos colocados sobre la cámara de combustión, extenso empleo de motores para llevar a efecto las operaciones precisas con las válvulas y perfecta maquinaria para facilitar el transporte del carbón, esta estación central de «Hell Gate», Nueva York, de la Compañía United Electric Light y Power, no tiene rival.

La Corriente Alternada

Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  «impulsar» a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

https://historiaybiografias.com/linea_divisoria3.jpg

LECTURA COMPLEMENTARIA:
La importancia de la electricidad como medio de transportar energía: Es difícil encontrar aplicación de la electricidad que demuestre más claramente su completa sumisión al hombre como la que se relaciona con el transporte de la energía o fuerza motriz. Desde tiempo inmemorial el hombre ha utilizado recursos que reemplazasen al esfuerzo que puede producir su brazo; el empleo de la fuerza de los animales es muy antiguo, y hay muestras evidentes de que también aprovechó la energía producida al caer el agua.

de todas maneras, en cada caso, siempre coincidían el lugar de producción y el de aplicación de la energía. La rueda hidráulica y el molino de nuestros antepasados estaban instalados al lado mismo del salto de agua. De este modo, muy pocos de nuestros grandes recursos hidráulicos podían ser aprovechados, pues la mayoría de los grandes saltos de agua están situados en lugares inaccesibles de las regiones montañosas, a los cuales sería imposible, o por lo menos muy costoso, transportar las primeras materias.

La fuerza motriz, invisible, va desde la escarpada montaña a la populosa ciudad Los progresos y desarrollo de la máquina de vapor y su creciente importancia han hecho se piense en buscar un medio de transmitir la energía al lugar del consumo desde el punto donde pueda producirse económicamente, ya por estar próximo el combustible o ser más fácil el acarreo desde la mina.

generador de energia electrica

UN GRAN GENERADOR ELÉCTRICO DE TURBINA: Uno de los generadores, de 55.000 caballos de fuerza, en la instalación hidroeléctrica de Queenston-Chippawa. Las turbinas de esta clase reposan sobre una especie de cojinetes o almohadillado de agua, tan delicadamente dispuesto, que si no se frena, tarda doce horas en pararse por completo, a contar desde el momento en que se corta la marcha.

Cuando la instalación de una máquina de vapor puede hacerse a la orilla de un estuario o un puerto, el carbón se transporta por mar a un coste relativamente bajo; pero dentro de las ciudades la conducción es carísima. El mismo agente que permite al hombre hablar a gran distancia con sus semejantes, puede ahora emplearse para transmitir la energía desde los saltos de agua en las montañas o las minas de carbón a la distante ciudad o centro consumidor. Las empresas industriales pueden así establecer las fábricas en aquellos lugares donde los jornales son menos elevados y la primera materia más abundante, puesto que es factible producir la energía necesaria a cientos de kilómetros.

De esta manera también pueden elegirse locales propios y convenientes para las fábricas y las centrales eléctricas donde se genera la energía, ligándose los dos centros por una línea de transmisión que abastece de fuerza eléctrica de un extremo a otro. Pero todavía la ingeniería moderna no es capaz de suministrar por este medio la fuerza motriz a las distancias que envía la voz humana.

La longitud a que puede transmitirse la energía económicamente en la actualidad es de 440 kilómetros en números redondos, y el alcanzar mayor distancia es uno de los grandes problemas que estudian los técnicos en nuestro siglo.

La transmisión eléctrica ha hecho posible la centralización de las grandes instalaciones productoras de fuerza motriz, y de este modo se ha conseguido convertir mucho más económicamente la energía química del carbón en eléctrica a bajo coste. La posibilidad de transportar la energía a grandes distancias permitió la instalación de enormes centrales conteniendo máquinas generatrices y convertidores de tal tamaño, que el coste de la producción por unidad de energía es tan bajo que permite sea consumido por las personas de recursos más modestos.

Debido precisamente a la con solidación y seguridad de estas grandes centrales, transmitiendo la energía a cualquier punto de la zona que las rodea por medios económicos y eficaces, ha sido posible la utilización de la electricidad en las fábricas, talleres y las viviendas.

En las instalaciones industriales más modernas se han suprimido los antiguos ejes, poleas y correas, acoplando motores eléctricos a los diversos mecanismos. La gran cantidad de energía economizada por esta disposición, sin duda mucho más apropiada y flexible para transmitir el movimiento, se emplea en aumentar el número de máquinas trabajando.

El coste de los edificios es así menor, y pueden construirse agrupados o separadamente, segrtn se quiera o convenga, sin tener que ajustarse a la posición del eje transmisor, lo que permite instalar las máquinas en la mejor posición, para disminuir acarreos innecesarios con el producto manufacturado, La eliminación de las correas deja mayor espacio libre, facilita el trabajo de los puentes-grúas o transbordadores, evita el polvo que se removía durante la marcha y, finalmente, también permite un alumbrado mejor.

La ausencia de cojinetes y aparatos para la lubricación de los mismos libra del goteo continuo de aceite, y todo esto trae consigo una mayor limpieza en las operaciones, mejorando, por consiguiente, las condiciones de salubridad durante el tiempo de estancia de los obreros en el trabajo y disminuyendo además múltiples daños al producto acabado.

La electricidad, aplicada al movimiento de la maquinaria, da mayor rendimiento, produce la fuerza con más flexibilidad que con el antiguo sistema de ejes transmisores, de tal suerte que pueden ponerse en marcha o hacer parar individualmente los aparatos sin que se note el menor cambio en la velocidad de los otros.

Pueden llevarse a efecto muchas operaciones delicadas que necesitan una velocidad igual. La sencillez con que puede regularse ésta, así como ampliar la fuerza motriz, facilita el aumento de producción y hace disminuir el coste de la materia elaborada. Son mucho menos frecuentes los accidentes donde se ha adoptado este sistema. Este hecho, unido a la disminución de ruido, mejor iluminación y mayor espacio, son de gran importancia para patronos y obreros, pues éstos tienen que encontrarse así en mejor disposición para el trabajo.

Las fábricas ya no se ven obligadas a esparcir el humo que lanzan sus chimeneas o el polvillo de sus ventiladores sobre las casas que las rodean, desde que aparatos eléctricos pueden evitarlo, o recoger, como por ejemplo, el polvo, de tanto valor en las fábricas de cemento.

El ozonizador eléctrico instalado en los tubos de salida de vapores que producen mal olor los evita, y permite ejecutar estas operaciones, molestas y desagradables, en locales situados dentro de la población, sin temer a que se opongan sus habitantes. En las fábricas donde es preciso mover hierros de varias formas, grandes y potentes electroimanes, instalados dentro o fuera de los talleres, transportan los materiales de un lado a otro en todo tiempo, ya llueva o nieve, aumentando así su capacidad productora.

Una de las aplicaciones más importantes de la fuerza eléctrica es la que se relaciona con la tracción. Al presente hay dos medios para poder hacer marchar los trenes en nuestros ferrocarriles: la máquina de vapor y la locomotora eléctrica. Necesariamente, la locomotora de vapor se irÁ abandonando poco a poco, debido a su limitado espacio para generar la fuerza precisa con la amplitud y rendimiento conveniente, mientras que
en el tractor eléctrico la energía llega de una estación central capaz de producirla en la cantidad que se requiera.

Una instalación móvil de vapor está sujeta a rápida y elevada depreciación, necesitando un coste de conservación mayor que la sencilla locomotora eléctrica. El molesto humo y el vapor desaparecen con el tractor eléctrico, y esto, que es de la mayor importancia en el caso de las líneas subterráneas de las grandes ciudades, fué frecuentemente la principal razón del cambio de la tracción de vapor por la eléctrica.

El empleo de la tracción eléctrica por todas partes en las líneas de tranvías y metropolitanos subterráneos se debe, como hemos dicho, principalmente a esta propiedad especial de no producir humo, y  también a la de poder establecer motores encada coche y así mover uno o varios, formando trenes según las necesidades del tráfico.

Las aplicaciones eléctricas han hecho incalculables beneficios mejorando las condiciones de la vida, pues por ellas, en muchas ciudades industriales, los s obreros pueden habitat en la parte más sana de los alrededores, sin perder demasiado tiempo en trasladarse desde su casa al almacén, tienda o taller donde prestan sus servicios.

Aquellos que viven en poblaciones extremadamente densas, por otro lado, pueden salir económicamente al campo para deseansar del torbellino de la ciudad. Las relaciones sociales, el cambio comercial, el mismo paisaje, todos ellos perderían extraordinariamente sin el motor sin humo. Las rápidas líneas de tranvías interurbanas, en regiones menos pobladas, transportan pasajeros y mercancías a las granjas situadas en su ruta. De este modo se tienen medios económicos y convenientes para efectuar las diversas transacciones entre los productores y los que consumen en las ciudades.

El transporte de pasajeros y mercaderías por medio de las líneas eléctricas, el teléfono y el telégrafo, acortan las distancias de tal suerte, que los habitantes del campo están en íntima comunicación entre sí, pudiendo aprovecharse de estas grandes mejoras.

Fuente Consultada:
Colección Moderna de Conocimientos Universales – La Era de la Eléctricidad – Tomo II – Editores W.M. Jackson, Inc.

 

Historia de la Produccion en Serie La Cadena de Montaje

Historia de la Producción en Serie – La Cadena de Montaje

CADENA O LÍNEA DE MONTAJE: Cuando pudieron hacerse formas metálicas exactamente iguales, fue lógico pensar en ellas como piezas intercambiables. Eli Whitney fue quien por primera vez montó piezas intercambiables como un nuevo método de fabricación. Se pudo hacer las piezas en un lugar y luego armarlas en otro. Whitney pensó que en esta forma los productos manufacturados podrían producirse en cantidad mayor con más rapidez y a menor costo.

Ely Whitney

En los primeros años de su juventud, Whitney se ganó la vida batiendo clavos en un yunque. Nunca podía dar a los clavos formas exactamente iguales. Años después, cuando ya había inventado la desmotadora de algodón, en una ocasión en que observaba cómo con un martillo pilón se hacían miles de clavos idénticos, se convenció de que las máquinas tendrían que sustituir a la mano del hombre.

Por esa época, en 1789, Francia estaba en plena revolución, y los Estados Unidos temían que su mejor amiga pudiera volverse contra ellos. Se necesitaban fusiles para la defensa de las costas de América. Para fabricarlos a mano se requerirían años. No es de extrañar que el Departamento de Guerra se alegrase cuando Whitney propuso entregar 10.000 mosquetes en el término de dos años al bajo precio de $ 13,40 cada uno. Se celebró contrato con Whitney, adelantándole una suma para que comenzara la fabricación.

El joven inventor, sin embargo, tropezó con gran dificultad para encontrar hombres que poseyeran la pericia mecánica necesaria para hacer las máquinas cortadoras que reemplazasen al viejo martillo, el escoplo y la lima. Al igual que antes Watt, Whitney tuvo que hacerse las herramientas requeridas y adiestrar en el manejo a los obreros que él tomaba en las fundiciones y talleres de maquinaria.

Su primera tarea fue construir un elemento mecánico que reemplazara a las, manos humanas en la aplicación y dirección del movimiento de un instrumento cortante. No había maquinistas cuyas manos fuesen suficientemente firmes o fuertes como para sostener un instrumento de raspado contra una pieza de hierro que gira más de unos pocos minutos cada vez.

Se necesitaba una presión constante y exacta. Resolvió el problema con una especie de plantilla mecánica, que viene a ser un molde de madera o metal, a lo largo del cual se mueve una herramienta que hace piezas iguales.

Cada pieza del mosquete se sujetaba en una posición prefijada antes que las fresas la cortaran. De esta manera se repetía cada una con precisión absoluta. No sólo se empleaban piezas uniformes, sino que los bancos de trabajo se ubicaban de manera que las piezas pudieran pasarse de un obrero al otro.

La fábrica se dividía en departamentos, cada uno con su máquina especial unida por correa a un eje que impulsaba y hacía todas las herramientas cortantes.

Con esto la fábrica ya estaba preparada para ponerse en marcha, y todas las máquinas comenzaron a trabajar al mismo tiempo. Una máquina daba forma a la caja de madera del fusil, con sus superficies planas y curvadas. En hojas metálicas se hacían agujeros en lugares precisos, a fin de que sirviesen de guías para la producción en masa de trabajo de perforación.

Con grapas se sujetaban hojas metálicas contra los bancos, mientras las fresas las cortaban. Interruptores automáticos-detenían la acción de la herramienta. El mecánico sólo necesitaba agrapar las barras metálicas, las cuales eran cortadas, cepilladas, conformadas, taladradas, lustradas y esmeriladas automáticamente.

Los obreros solamente tenían que reunir las diversas piezas y llevarlas a la sala de montaje, donde se armaban los fusiles en tiempo record.

Finalmente, se dispuso de una forma de producir grandes cantidades de materiales con la rapidez, la uniformidad y la precisión que ningún artesano podía lograr individualmente.

Comienza la producción en masa
En este tiempo las avanzadas de pobladores y colonizadores de zonas lejanas estaban en plena marcha hacia el oeste de los Estados Unidos. Había que preparar las fronteras (que es como se llamaba a los límites entre civilización y regiones incultas) y construir viviendas.

El hacha era la herramienta predilecta del pionero. Pero éste a menudo tenía que esperar meses a que el herrero le forjara un hacha. Cada mango exigía un tallado cuidadoso. Cada hoja de hacha requería un largo y lento proceso de templado y pulimento.

Lo que Whitney había hecho para el fusil, otros entusiastas de la mecánica lo aplicaron al hacha. Las fábricas las hicieron a millares. Se colocaban en tambores giratorios y pasaban por las llamas de un horno en un proceso de calentamiento uniforme. Luego un martinete de fragua les daba rápidos golpes sucesivos, que hacían perforaciones de una medida exacta, por donde entrase a la perfección el mango.

De la noche a la mañana dejaron de faltar hachas. Corrió si se tratase de celebrar la intensificación de la producción fabril, empezaron a salir en cantidad los relojes de las fábricas. Con máquinas se perforaban miles de piezas por día y se montaban tan rápidamente que todo el mundo pudo tener reloj por muy bajo precio.

El hecho de que las máquinas pudieran hacer cosas mejores y con mayor rapidez produjo una conmoción creciente que todo lo inyadió. Elias Howe descubrió la parte esencial de la idea de una máquina de coser un día en que puso el ojo de una aguja en la punía en lugar de la cabeza.

De esta manera fue posible hacer que el hilo atravesase la lela sin necesidad de que la aguja la pasase de lado a lado. Otro hilo que salía de una lanzadera pasaba por dentro del lazo. Cuando la primera aguja retrocedía nuevamente, con un punto de cadeneta se apretaban los dos hilos. Esto resultó cien veces más rápido que coser a mano.

Singer introdujo mejoras. Mediante un pedal consiguió que las manos de la costurera quedasen libres y pudiesen guiar la tela. Se dio a la aguja movimiento vertical, subiendo y bajando, en vez de moverse Imrizontalmente como la aguja de Howe.

Al poco tiempo la máquina de coser pasó del hogar a la fábrica. La producción en masa hizo bajar los precios. Todos pudieron adquirir desde entonces mi traje nuevo, un vestido nuevo. Las máquinas construyeron nuevas máquinas despúes de cada nuevo invento. La lenta salida de los productos manufacturados, parecida a un goteo se transformó en un diluvio.

PARA SABER MAS…
Cadena de Montaje en Ford

La producción dependió de la rapidez con que el hombre pudiese servir a la máquina. En la línea de montaje, cada hombre agregaba una pieza al armazón desnudo que iba avanzando por esa línea. A medida que el magneto, por ejemplo, se desplazaba sobre un medio transportador, los hombres le añadían algo cada uno, hasta que finalmente salía terminado al cabo de trece minutos. Levantando el transportador del magneto veinte centímetros, para que los hombres no tuvieran que agacharse, el tiempo disminuyó a siete minutos. Imprimiendo al transportador un poco más de velocidad, ese tiempo se redujo a cinco minutos.

Con métodos similares, en la línea del ehassis se redujo el número de estaciones, hasta que fue sólo de cuarenta y cinco, y de la última operación salía el auto armado. Fue éste un ejemplo sensacional del método nuevo de producción. En 1915, un coche se terminaba en noventa y tres minutos. Una década después, luego de haberse vendido 16 millones de automóviles del modelo T, cada quince minutos salía un coche nuevo. Lo más sorprendente de todo es que el precio se pudo reducir de 850 a 295 dolores.

Frederick Taylor fue el primero que concibió la idea de que el propio hombre pudiera convertirse en un mecanismo. Taylor es el ingeniero que descubrió un acero de aleación nueva capaz de cuadruplicar la velocidad de las herramientas cortantes. Imaginó que el propio hombre podía llegar a ser igual de eficiente que una máquina si se eliminaban movimientos superfluos. Utilizando un cronógrafo, determinó el tiempo que tardaban distintos obreros y el que se requería en distintos movimientos para concluir una operación.

Otros ingenieros siguieron estudiando los movimientos de los obreros con el propósito de llegar al máximo de producción posible por minuto. Todos estos estudios sobre la forma de lograr que las piezas y los materiales saliesen en forma uniforme y fija; con la velocidad mayor con que las máquinas pudieran producirlas, desembocaron en una sorprendente conclusión: nunca se conseguiría que el hombre fuese una máquina eficiente.

Ver: Henry Ford y su Producción

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer «la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en «V», puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en «V», grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en «V», el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en «V» próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación «vuela» sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en «V», la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Procesos Para Obtener Metales desde Minerales

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos. El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros. La cantidad de metales que existen en la corteza terrestre es relativamente pequeña. Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos. Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral. Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas. La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %. Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—. Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado. Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero. El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.   El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

METALURGIA: El campo de acción que abarca la metalurgia es verdaderamente amplio. Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características. En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales). El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre. Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

Minerales de Hierro

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado. En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado. Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente. Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición. Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente. Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente. Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos. En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables. Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza. El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación. Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada. Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación. También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.
El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia. Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable. Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción. También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta. Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos. Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales. La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia. La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año. En el- futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Mensaje y Sonidos En El Disco de Oro de la Sonda Voyager

Mensaje y Sonidos En El Disco de Oro de la Sonda Voyager

La era espacial nos ha mostrado fenómenos asombrosos, tanto dentro del Sistema Solar como más allá. Las sondas espaciales han viajado a la Luna, a los planetas principales y a varios mundos menores, y los telescopios orbitales nos han ofrecido imágenes deslumbrantes del universo profundo. Las dos naves espaciales interestelares Voyager, las máquinas más rápidas que se hayan lanzado nunca desde la Tierra, se están desplazando ahora a una diez milésima parte de la velocidad de la luz. 

Necesitarían 40.000 años para situarse a la distancia de la estrella más próxima. ¿Tenemos alguna esperanza de abandonar la Tierra y de atravesar distancias inmensas para llegar aunque sólo sea a Próxima Centauri al cabo de períodos convenientes de tiempo? ¿Podemos hacer algo para aproximarnos a la velocidad de la luz? ¿Estaremos algún día en disposición de ir a velocidad superior a ella?

La sonda espacial Voyager 2 fue lanzada el 20 de agosto de 1977 desde Cabo Cañaveral, en un cohete Titán-Centauro. Es idéntica a su sonda hermana, la Voyager 1. Ambas sondas habían sido concebidas inicialmente como parte del programa Mariner con los nombres de Mariner 11 y Mariner 12, respectivamente.  A diferencia de su predecesora, la Voyager 2 adoptó una trayectoria diferente en su encuentro con Saturno, sacrificando la cercanía a Titán, pero adoptando un mayor impulso gravitacional en su viaje hacia Urano y Neptuno. La sonda alcanzó su mayor cercanía con estos planetas en los años 1986 y 1989, respectivamente.

Explorar el Sistema Solar en un tiempo razonable plantea alguno retos difíciles. Desde la década de 1970, los ingenieros de la  NASA han usado una ingeniosa técnica para reducir el tiempo del viaje sin recurrir a combustible adicional. Una «honda gravitatoria» supone dirigir la nave espacial  directamente hacia un planeta, girar en torno a él y partir en la misma dirección de su desplazamiento obteniendo así una aceleración significativa.

Esta técnica se utilizó por primera vez para ajustar la órbita de la sonda Mariner 10, que sobrepasó Venus en su viaje hacia Mercurio en 1973, pero su aplicación más famosa fue en las sondas Voyager 1 (abajo), que aprovecharon un raro alineamiento planetario para recorrer todo; los gigantes gaseosos entre las décadas de 1970 y 1980.

exploracion del universo

En enero de 2015, las dos sondas Voyager, las naves espaciales que más lejos han llegado, sobrepasaron los 14.000 días de operación. Su historia es la de un gran éxito, que comenzó siendo un viaje a los planetas gigantes más alejados y se ha convertido en la primera misión interestelar humana.

Las dos sondas Voyager fueron lanzadas en 1977, El 20 de agosto partió la Voyager 2, y el 5 de septiembre, la Voyager 1. Esta sonda fue la primera en enviar una fotografía de la Tierra y la Luna vistas desde el espacio.

Durante el viaje, la Voyager I tomó la delantera, y fue la primera en aproximarse a Júpiter (5 de marzo de 1979). Continuó su viaje hacia Saturno, planeta al que llegó en noviembre de 1980, Después, abandonó el Sistema Solar.

La Voyager 2 llegó a Júpiter en julio de 1979 y a Saturno en agosto de 1982, En aquel momento se consideró necesario mejorar las antenas que recibían los datos de las sondas, con el objetivo de poder seguirlas en su viaje a tan larga distancia, Cuatro años después, la Voyager 2 se convirtió en el primer vehículo espacial que visitó Urano.

El 24 de junio de 1986 llegó al tercer planeta gaseoso y comenzó a enviar imágenes. Tres años después, el 25 agosto de 1989, alcanzó Neptuno y salió del Sistema Solar bajo el plano de la eclíptica.

En 1990, la misión Voyager de exploración planetaria se convirtió oficialmente en la primera misión interestelar. El 14 de febrero se recibió la última imagen de una sonda Voyager, el retrato del Sistema Solar en su conjunto.

Entre la información enviada, se grabaron en un disco laminado en oro,  fotografías de hombres de todas las partes del mundo que cuidan de sus semejantes, que aprenden, que fabrican herramientas y arte, y que se enfrentan con problemas.

Hay una hora y media de música exquisita procedente de muchas culturas, música que expresa nuestra sensación de soledad cósmica, nuestro deseo de acabar con nuestro aislamiento, nuestras ansias de entrar en contacto con otros seres del Cosmos. Y hemos enviado grabaciones de los sonidos que se habrían oído en nuestro planeta desde los primeros días, antes del origen de la vida, hasta la evolución de la especie humana y de nuestra más reciente tecnología, en pleno crecimiento. Es, como los sonidos de cualquier ballena yubarta, una especie de canción de amor lanzada a la vastitud de las profundidades. Muchas partes de nuestro mensaje, quizás la mayoría, serán indescifrables. Pero lo hemos enviado porque era importante intentarlo.

De acuerdo con este espíritu incluimos en la nave espacial Voyager los pensamientos y sensaciones de una persona, la actividad eléctrica de su cerebro, corazón, ojos y músculos, que se grabaron durante una hora, se transcribieron en sonido, se comprimieron en el tiempo y se incorporaron al disco. En cierto sentido hemos lanzado al Cosmos una transcripción directa de los pensamientos y sensaciones de un ser humano en el mes de junio del año 1977 en el planeta Tierra.

Explica Carl Sagan, en su famoso libro «COSMOS»,

El mensaje Voyager se desplaza a una lentitud desesperante. Es el objeto más rápido lanzado nunca por la especie humana, pero tardará decenas de miles de años en recorrer la distancia que nos separa de la estrella más próxima. Cualquier programa de televisión atraviesa en horas la distancia que el Voyager ha cubierto en años. Una transmisión de televisión que acaba de estar ahora mismo en el aire, en unas cuantas horas dará alcance a la nave espacial Voyager en la región de Saturno, y más allá, y continuará su carrera hacia las estrellas. Si va en la correspondiente dirección alcanzará Alpha Centauri en algo más de cuatro años.

Si dentro de unas décadas o de unos siglos alguien en el espacio exterior oye nuestras emisiones de televisión, espero que piense bien de nosotros, porque somos el producto de quince mil millones de años de evolución cósmica, la metamorfosis local de la materia en consciencia. Nuestra inteligencia nos ha dotado recientemente de poderes terribles. No está todavía claro que tengamos la sabiduría necesaria para evitar nuestra propia destrucción. Pero muchos, de nosotros están luchando duro por conseguirlo.

Confiamos que muy pronto, en la perspectiva del tiempo cósmico, habremos unificado pacíficamente nuestro planeta con una organización que respete la vida de todo ser vivo que lo habita, y que esté dispuesta a dar el siguiente gran paso, convertirse en parte de una sociedad galáctica de civilizaciones en comunicación.»…

LOS SONIDOS DEL PLANETA TIERRA:

¿CÓMO HACER comprender a un habitante de un planeta lejano lo que son y cómo viven los seres humanos en la Tierra? Ésta fue la pregunta que se  planteó a un comité de expertos en 1977, cuando las naves espaciales de EUA Voyager 1 y 2 iban a ser lanzadas en un viaje al espacio con un saludo para cualquier forma de vida inteligente con que se toparan.

Para sorpresa de muchos, los expertos coincidieron en que uno de los mejores modos de comunicarse con extraterrestres sería no con palabras o imágenes, sino con música. Dedicaron los 87 minutos del videodisco de los Voyager a una selección de los “grandes éxitos musicales de la Tierra”. ¿Por qué la música?.

Disco de oro The Sounds of Earth (arriba), protegido por un estuche de aluminio con chapa de oro, es instalado en el Voyager 2. Con éste se envió al espacio exterior, donde los científicos esperan que lo reciba alguna forma de vida inteligente no humana.

En primer lugar,  porque su estructura —desde un blues de ocho compases hasta una compleja fuga de Bach— se basa en números, y la armonía es de fácil análisis matemático. Las matemáticas son el lenguaje más universal, por lo que era más probable que los extraterrestres comprendieran la estructura matemática de nuestra música más que cualquier otra cosa sobre nosotros.

Además, expresa los sentimientos humanos mejor que otros medios y podría representar la variedad de culturas. No ha habido sociedades sin su música típica para expresar tristeza y dolor, alegría y tranquilidad. Al seleccionar la música que representaría a la humanidad en el universo, la clave fue la variedad. 

Se eligieron canciones aborígenes de Australia, el Night Chant de los navajos y una canción de boda peruana; música de gamelán de Java, de zampoñas de las islas Salomón y de Perú, un raga de la India y música ch’in de China; piezas para gaitas de Azerbaiyán, flautas de bambú de Japón y percusiones del Senegal.

También se incluyeron canciones de Georgia, Zaire, México, Nueva Guinea y Bulgaria; el blues Dark Was the Night con Blind Willie Johnson, Melancholy Blues con el trompetista de jazz Louis Armstrong y Johnny B. Goode con el cantante de rock Chuck Berry. De la tradición culta occidental se seleccionó música para flauta renacentista, tres obras de Bach y dos de Beethoven, un aria de La flauta mágica de Mozart y La consagración de la primavera de Stravinsky.

¿Son éstos los éxitos musicales de la Tierra? Al menos son hoy los que más podrían persistir. El videodisco, de cobre con chapa de oro, fue fabricado para que dure 1.000 millones de años.

INSTRUMENTOS DE GUERRA:

EL SONIDO estridente de las gaitas ha acompañado a los escoceses de laS Tierras Altas en las batallas cuando menos durante los últimos 400 años, dando nuevos ánimos a los ardientes guerreros de las montañas y provocando miedo en el corazón de sus enemigos. Según registros, en la Batalla de Pinkie (1549), “los violentos escoceses se incitaban a la guerra con el sonido de las gaitas”. Y éstas se escucharon también en 1942, cuando tropas de las Tierras Altas escocesas avanzaron por campos minados del desierto contra el Afrika Korps de Rommel, en la batalla de El Alamein.

Desde Suecia hasta Túnez

Las gaitas simbolizan a Escocia tanto como el haggis y el whisky. Pero los escoceses no pretenden ser los inventores de la gaita. Es casi seguro que haya surgido en el Imperio Romano durante el siglo 1. Se cree que el emperador Nerón la tocaba, y es más probable que estuviera practicando este instrumento, no el violín, mientras Roma ardía.

Hacia 1300, gaitas de un tipo u otro zumbaban y chillaban desde Inglaterra hasta la India, y de Suecia a Túnez casi en cualquier parte, menos en Escocia. Fue un siglo después, cuando ya el resto del mundo había empezado a cansarse del instrumento, que los escoceses lo adoptaron.

Llamado a la gloria En 1915, el gaitero Laídlaw (foto izquierda) incitó a las tropas británicas para que continuaran el avance a través de una nube de gas mostaza en el frente occidental. Su valentía lo hizo merecedor de la Cruz de Victoria.

Las gaitas fueron populares en parte porque podían fabricarse con materiales que se conseguían en la sociedad rural. Sólo se requería la piel de una oveja o el estómago de una vaca para hacer el odre, y unas pocas cañas perforadas para los canutos. El principio del instrumento es ingenioso, pero sencillo. El gaitero sopla en el odre, que actúa como depósito para mantener la circulación constante de aire a los canutos. Estos son de dos tipos, caramillo y roncón. En una versión sencilla de dos canutos, el gaitero ejecuta la melodía en el caramillo, mientras el roncón produce el bajo continuo característico del sonido de la gaita. En algunas variantes, el aire para el odre proviene de un fuelle.

Las gaitas aún se emplean en la música folklórica de muchos países. Por ejemplo, acompañan las danzas tradicionales de los bretones, en el noroeste de Francia. Muchas personas relacionan con regimientos escoceses el sonido de las gaitas entremezclado con el estruendo de una batalla. Pero los escoceses no tienen exclusividad al respecto: durante siglos los irlandeses también las han usado para llamar a las armas.

EL VIOLIN STRADIVARIUS:

Los violines Stradivarius son los más preciados instrumentos musicales del mundo. Entre los cerca de 600 ejemplares que aun se conservan hay algunos valorados en más de un millón y medio de euros, es decir, más de cien veces de lo que costaría el más perfecto ejemplar artesano moderno y más de diez mil veces que los procedentes de fabricaciones industrializadas.

Un violín hecho en el siglo XVIII por Antonio Stradivarius, de Cremona, Italia, puede costar hasta un millón de dólares. Los stradivarius se cotizan a tan altos precios porque todavía se los cataloga como los violines más finos que se hayan producido.

Stradivarius fue un genio tranquilo, un artesano asentado en Cremona, donde residió toda su vida en una modesta casa taller del barrio antiguo. A crear esta aureola de misterio ha contribuido el hecho de no conocer apenas datos biográficos de su vida, a lo que hay que sumar las extrañas circunstancias en las que se perdió su cadáver.

No se sabe con certeza en que año nació ni en que ciudad exactamente, pues no queda registro del hecho. Se piensa por otras fechas posteriores que pudo nacer en torno a los años 1640-1645. Se conoce mejor su estancia en la ciudad Italiana de Cremona donde desarrolló toda su carrera como constructor de violines. En total construyó más de mil violines, de los que se conservan cerca de la mitad.

Stradivarius enseñó a sus dos hijos el arte de hacer instrumentos de cuerda y, aunque ellos no lograron alcanzar la misma calidad mágica del padre, su trabajo fue notable. Ha sido un misterio qué confiere a un stradivarius su calidad única; las conjeturas se han centrado en el barniz empleado en estos instrumentos. Stradivarius escribió su fórmula del barniz en la guarda de la Biblia familiar; mas, por desgracia, uno de sus descendientes la destruyó.

El italiano Antonius Stradivarius (1644-1737) introdujo una geometría y un diseño que se convirtieron en los modelos a seguir por todos los fabricantes de violines. De los 1.100 instrumentos que construyó, aún sobreviven unos 650. El extremadamente alto valor de estos instrumentos quedó demostrado en una subasta realizada en el mes de abril en Londres. El violín Stradivarius ‘Lady Tennant’ vendido en esa oportunidad, batió un récord en el mundo de las subastas de instrumentos musicales, con un precio astronómico de un millón y medio de euros.

Madera veneciana:

Pese a lo anterior, Joseph Nagyvary, profesor de bioquímica y biofísica en la Universidad de Agricultura y Mecánica de Texas, cree haber descubierto el secreto de Stradivarius: la madera de abeto que éste usó procedía de Venecia, donde se guardaba junto al mar. Esto producía diminutos agujeros en la madera, sólo visibles con un microscopio electrónico de 2 000 amplificaciones. La madera curada en seco de los violines modernos no tiene estos orificios. Según Nagyvary, esto confiere riqueza y resonancia especiales al sonido.

Nagyvary también descubrió, al examinar el barniz, que incluía diminutos cristales de mineral. Infirió que procedían de piedras preciosas molidas, que añadían los alquimistas al preparar el barniz en la creencia de que las piedras tenían propiedades mágicas. En un violín, estos cristales filtran los armónicos agudos y producen un sonido más puro y terso.

Nagyvary puso a prueba su teoría al fabricar un violín con madera curada en la humedad y recubierta de un barniz que contenía polvo de piedras preciosas. Un experto calificó el resultado como “el mejor violín nuevo que jamás he escuchado”. La famosa violinista Zina Schiff quedó tan impresionada que tocó el instrumento en conciertos públicos.

¿Se percataban Stradivarius u otros famosos violeros de Cremona —como los Amati y los Guarnen— de la singular calidad de los materiales que utilizaban? Al respecto, Nagyvary dice: “Sinceramente pienso que los antiguos violeros no sabían, acerca de la fabricación de violines, más de lo que saben los actuales artesanos… Solamente fueron los afortunados beneficiarios de una feliz coincidencia histórica.”

Silos violeros actuales usaran los descubrimientos de Nagyvary, ¿disminuiría el valor de un stradivarius? Es casi indudable que no, pues no parece haber nadie capaz de revivir su ingrediente mágico: su genialidad.

Fuente Consultada: Sabia ud. que….? Editorial Reader Digest

Yeager rompio la barrera del sonido Bell X1 Velocidad del sonido

Yeager rompió la barrera del sonido, el Bell X1

Dos días antes de que intentara romper la barrera del sonido, el capitán Charles “Chuck’ Yeager, (foto izquierda) de la Fuerza Aérea de Estados Unidos, casi perdió el conocimiento en un accidente ecuestre y se rompió dos costillas.

A la mañana siguiente un médico de la localidad le vendó el cuerpo, pero ni siquiera así pudo mover el brazo derecho debido al dolor. No obstante, sabía que si sus superiores se enteraban de su estado, pospondrían el proyecto secreto programado para el 14 de octubre de 1947.

El avión cohete Bell X-1 se dejaría caer del compartimiento de bombas de un Superfortaleza B-29, y después de planear brevemente comenzaría a ascender cuando Yeager encendiera los cuatro cohetes en rápida sucesión.

Para salir del vientre del B-29 y entrar en la pequeña cabina del X-1 (conocido también como XS- 1), Yeager tenía que deslizarse hacia abajo por una pequeña escalera. Después había que bajar la puerta de la cabina por medio de una extensión desprendible del compartimiento de bombas.

Una vez que la puerta estuviera colocada en la forma debida, Yeager debía cerrarla desde el lado derecho. Era ésta una operación que resultaba muy simple, mas no para quien tenía dos costillas fracturadas y el brazo derecho sin poder moverlo. Entonces, su ingeniero de vuelo, Jack Ridley, tuvo una idea genial: el piloto podía quizá usar una especie de bastón con la mano izquierda, y utilizarlo para elevar la manija de la puerta y asegurarla.

La velocidad del sonido es la velocidad de propagación de las ondas sonoras, un tipo de ondas mecánicas longitudinales producido por variaciones de presión del medio. Estas variaciones de presión (captadas por el oído humano) producen en el cerebro la percepción del sonido. El sonido no se transporta por el vacío porque no hay moléculas a través de las cuales transmitirse.

En general, la velocidad del sonido es mayor en los sólidos que en los líquidos y en los líquidos es mayor que en los gases.

La velocidad del sonido en el aire (a una temperatura de 20 ºC) es de 340 m/s (1.224 km/h)

En el aire, a 0 ºC, el sonido viaja a una velocidad de 331 m/s y si sube en 1 ºC la temperatura,
la velocidad del sonido aumenta en 0,6 m/s.

En el agua es de 1.600 m/s, En la madera es de 3.900 m/s, En el acero es de 5.100 m/s

“Echamos un vistazo alrededor del hangar y descubrimos una escoba, rememoró en cierta ocasión Yeager. “Jack cortó un palo de escoba de unos 25 cm., que se ajustó a la manija de la puerta. Luego me escurrí dentro del X-1 e intentamos probar el remedio. Él sostuvo la puerta contra el fuselaje y, usando el palo de escoba para elevar la manija, me di cuenta de que podía yo maniobrar para asegurarla como se requería», añadió.

Hacia las 8:00 a.m. del 14 de octubre, el B-29 despegó de la Base Aérea Muroc (ahora Base Edwards) en el desierto de Mojave, al sur de California. A pesar del dolor que sentía, Yeager, de 24 años de edad, tenía un tranquilo optimismo.

Ya había hecho vatios vuelos de prueba en el avión cohete y quería ser el primer hombre en volar a una velocidad supersónica, a unos 1.126 km/h y alrededor de 12.200 m sobre el nivel del mar.

La velocidad de un gavión comparada con la del sonido se conoce como número mach, por el, físico austriaco Ernst Mach (1838-1916). Cuando un avión vuela a la velocidad del sonido se dice que viaja a 1 mach.

A menos que un avión esté diseñado para el vuelo supersónico, las fuertes ráfagas de viento lo golpean al acercarse a 1 mach y lo vuelven inestable; el X-1, con su nariz y sus líneas aerodinámicas, en teoría no sería afectado por ese fenómeno. Sin embargo, la inercia del avión lanzaba al piloto por la cabina con tanta fuerza, que éste corría el riesgo de golpearse y quedar inconsciente. Para protegerse, Yeager llevaba una gorra de cuero encima de su casco de aviador.

Cuando el B-29 se acercaba a 2100 m de altura, Yeager se dirigió al compartimiento de bombas, donde había unas barandillas que descendían junto al X- 1; empujó la escalera de aluminio y se deslizó con los pies por delante en la cabina del X-1.

Allí tuvo que soportar un. frío intenso. 1’Aás tarde relataría: “Tiritando, uno se frota las manos con todo y guantes y se pone la mascarilla de oxígeno. El frío de los centenares de litros de oxígeno líquido que lleve la nave hace que uno se paralice. No hay calefactor ni descongelador; no se puede hacer nada más que apretar las mandíbulas y dejar correr los minutos… es como tratar de trabajar y concentrarse dentro de un congelador.”

Durante los vuelos de prueba la transpiración de Yeager avía formado una capa de escarcha en el parabrisa. Para evitarla el jefe de mecánicos había puesto un revestimiento de champú sobre el vidrio. «Por alguna razón desconocida», dijo Yeager, «funciono como anticongelante y continuamos usándolo incluso después de que el gobierno compro un producto químico especial que costaba 18 dólares la botella.”

Barrera rota De sólo 9.5 m de largo y con una envergadura de 8.5 m, el Bell X-1 piloteado
por el capitán “Chuck Yeager rompió la barrera del sonido a 1126 km/h.

Los dos aviones, todavía uno dentro y del otro, volaban a unos 4.570 m y seguían ascendiendo. A los 6.100 m, el piloto del B-29, el mayor Bob Cárdenas, comenzó la cuenta regresiva; al terminar apretó el botón de apertura y el X-1 quedo libre con una sacudida, cayendo con la nariz hacia arriba.

Cayó aproximadamente 150 metros, mientras Yeager luchaba desesperadamente con los controles. Por fin logró poner la nariz del aparato hacia abajo y entonces encendió los cuatro cohetes; sabia que el combustible podía estallar al. conectar el encendido, pero todo funcionó conforme a lo planeado y el avión comenzó a traquetear y a tragarse una tonelada de combustible por minuto”, según relató.

El X-1 ascendía a una velocidad de 0.88 mach y comenzó a balancearse. Yeager accionó de inmediato el interruptor del estabilizador y el avión se niveló a los 11.000 m de altura. Apagó dos de los cohetes y a los 12.200 m subía a 0.92 mach; de nuevo niveló el aparato, esta vez a 12.800 m. Encendió el cohete número tres e instantáneamente llegó a 0.96 mach… y la velocidad seguía en aumento.

“¡Volamos a velocidad supersónica!”, exclamó. “Y todo estaba tan suave como la piel de un bebé; mi abuela podría sentarse aquí a beber limonada. Yo elevé entonces la nariz del avión para reducir la velocidad. Estaba atónito. Después de toda la ansiedad, romper la barrera del sonido resultó como correr en una pista perfectamente pavimentada.”

Para conservar intacta su carga de 2 00 metros de oxígeno liquido y alcohol, el X-1 iba sujeto en el compartimiento de bombas de un Superfortaleza B-29. Para iniciar su vuelo, el X-l se dejó caer del avión nodriza como si fuera una bomba.

Para eliminar el riesgo de una explosión en el momento de aterrizar el X-1, Yeager dejó escapar el resto del combustible y siete minutos después el avión descendía sin peligro. Yeager había allanado el camino para la exploración espacial.

“Me convertí en héroe ese día”, dijo con orgullo. “Como siempre, los carros de bomberos se abalanzaron hacia el lugar donde la nave se detuvo. Y como de costumbre. el jefe de bomberos me llevó de regreso al hangar. Ese cálido sol del desierto era en verdad maravilloso, pero aún me dolían las costillas.”

Explicación Física Sobre Romper La Barrera del Sonido

Fuente Consultada:
Como Funcionan Las Mayoría de las Cosas de Reader`s Digest – Wikipedia – Enciclopedia Encarta – Enciclopedia Consultora

Historia y Futuro del Concorde Accidente aereo del Concorde

Historia y Futuro del Concorde – Accidente Aéreo

el concorde frances, ultimo vuelo

datos del concorde

Datos Principales

  • Capacidad: hasta 144 pasajeros y 11.340 kg. de carga
  • Autonomía 7.582 Km.
  • Motores: 4 Rolls-Royce / SNECMA Olympus 593 Mk 610 que producen 38.000 lbs (169,1 KN) de empuje.
  • Velocidad de despegue: 402 Km/h
  • Velocidad de crucero: 2.179 Km/h (Mach 2.2) a 16.765 M de altura.
  • Velocidad de aterrizaje: 300 Km/h
  • Longitud total: 62,10 M
  • Envergadura (longitud de las alas): 25,55 M
  • Superficie alar: 358,25 m2
  • Altura: 11.40 M
  • Anchura del fuselaje 2,9 M
  • Techo máximo: 61.000 pies (18.300 m)
  • Capacidad de combustible: 119.500 L / 95.600 kg
  • Consumo de combustible: 25.629 L / 20.500 kg
  • Peso máximo de despegue: 185.066 kg
  • Peso máximo al aterrizaje: 111.130 kg
  • Peso en vacío: 78.698 kg
  • Tren de aterrizaje: 2 neumáticos en el delantero y 8 en el trasero
  • Tripulación de vuelo: 2 pilotos y un ingeniero de vuelo
  • Tripulación de cabina: 6 azafatas
  • Rutas:
    • París – Nueva York (3 horas y 54 minutos)
    • Londres – Barbados

La Caída de un Grande….

Punto final para el famoso Concorde, el avión supersónico que cruza el  cielo a velocidad del sonido: desde el 1 de noviembre de 2002 dejó de volar.  Así lo decidieron las dos líneas aéreas que tienen estos aviones entre su flota, Air France y la British Airways.  Las empresas anunciaron el retiro de estos aparatos por los altos costos de mantenimiento que tienen y porque ya no hay suficientes pasajeros dispuestos a pagar casi 10.000 dólares por un viaje de ida y vuelta.

Oficialmente, la suspensión de los vuelos estaba prevista para el año 2009, pero la guerra en Irak parece haber acelerado los tiempos.  Apenas se inició el conflicto, la ruta París-Nueva York que hace el Concorde llegó a despegar con sólo 20 pasajeros y los asientos disponibles son cien.

Las dos empresas sostuvieron que en estas condiciones ya no tenía sentido seguir operando.  El presidente de la British Airways, Rod Eddington, anunció que los siete aviones Concorde que tiene la compañía ya fueron prometidos a varios museos que los exhibirán como atracciones.

En muchos aspectos, este es un día triste – declaró.  Eddington-.  El Concorde cambió la naturaleza de la aviación comercial.  Revolucionó el modo en que la gente viaja por el mundo.  Es el final de una era fantástica en el mundo de la aviación’.

Su colega jean Cyril Spinetta, presidente de Air France, precisó que la suspensión de los vuelos tendrá un costo de entre 30 y 50 millones de euros en pérdidas.  La compañía francesa interrumpió  los vuelos de sus cinco aparatos el 31 de mayo, pero hasta noviembre se realizaron algunos vuelos individuales.  Este avión no va a morir, porque continuará viviendo en la imaginación humana’, dijo el presidente de Air France.

Es el final de los 27 años de historia del elegante jet blanco, la única aeronave supersónica pasajeros que navega a  dos veces la velocidad del sonido (2200 Km/h a 18.000 m de altura)

El recorrido entre Londres y Nueva York -que hace la British Airways- dura 3 horas y 20 minutos.  Y como entre las dos ciudades hay cinco horas de diferencia, se da la curiosidad de que el Concorde llega a destino antes del horario de salida.

Acaso el fin de estos vuelos haya comenzado en el mismo momento de los atentados a las Torres Gemelas de Nueva York, el 11 de setiembre de 2001. la drástica caída del número de pasajeros por temor a los a terroristas disminuyeron en todas aéreas.

Pero además en    el caso del  los Concorde eso se suma al recuerdo de la tragedia de julio de 2000 cuando uno de estos aviones se estrelló apenas despegó del aeropuerto parisino Charles de Gaulle.(ver más abajo)   Ese día hubo 113 muertos: toda la tripulación y los pasajeros.  Un mes después se suspendieron las salidas, que recién se retomaron al año siguiente.

Por otro lado, las compañías dueñas de los Concorde también apuntaron a los crecientes costos de mantenimiento que tienen estos aviones (se calcula que es cinco veces más que las aeronaves comunes).  Y otros motivos que contribuyeron a sacarlos de circulación, fueron los problemas técnicos que presentaban. Scientist informó    sobre una inspección encargada por la British Airways,donde se detectaron 55 ‘riesgos de en estos aviones.  ‘El Concorde es tan sensible como una bailarina rusa.  Con la menor la de temperatura empieza a toser’, describió un técnico en un periódico francés.

Lo cierto es que en los últimos meses los vuelos estaban saliendo casi vacíos. Un viaje del Concorde de Air France levantó vuelo de París a Nueva York, con sólo 12 pasajeros.  Y sólo había 16 reservas par cubrir todas las plazas del avión.

Esta decisión está motivada por el deterioro económico observado en los último meses y que se aceleraron desde comienzos de año», esgrimió la empresa Al France en un comunicado.

Una realidad muy lejana de los buenos viejos tiempos, cuando estos aviones supersónicos tenían entre sus pasajeros a personajes notorios como la Princesa Diana, estrellas del rock como Mick jagger y Elton john, actores famosos como joan Collins y Sean Connery., modelos, políticos y altos ejecutivos.

Pero esos eran otros tiempos.  ‘Si en una empresa están despidiendo trabajadores y pidiendo al personal que se ajuste el cinturón, los ejecutivos no consideran adecuado ir al aeropuerto y tomarse un Concorde’, opinó el presidente de la British.  Estos aviones fueron concebidos en 1956, cuando se fundó, en Gran Bretañia el Comité de Aviones de Transporte Supersónico.

La idea era investigar las posibilidades de construir un avión de esas características.  En 1962, los gobiernos de Francia e Inglaterra fue un acuerdo para desarrollar el proyecto’ Y al aflo siguiente, el presidente francés Charles de Caulle, usó por primera vez el término ‘Concorde’ para referirse al primer avión que volaría a la velocidad decido.

El servicio comercial se inició en enero de 1976.  Desde entonces volaron más de 2 millones de pasajeros que degustaron exquisitas comidas y vinos finos durante el viaje.  Hoy es Concorde es una leyenda.

Un Lujoso Proyecto:

Desde su primer vuelo regular, el 21 de enero de 1976 -desde París hasta Río de Janeiro-, el Concorde simbolizó la misma expresión de lujo y refinamiento en la industria aerocomercial, con sus azafatas vestidas por Goulle y cuatro chefs a bordo.

Pero detrás de las líneas elegantes del avión estaba el primer proyecto de cooperación aeroespacial entre dos países europeos, Francia (Aeroespatiale) y Gran Bretaña (British Aircraft), cuyos ingenieros comenzaron a trabajar en forma conjunta a fines de los años 60.

El proyecto costó 3.000 millones de dólares y conjugó el encuentro entre dos culturas: los planos franceses estaban diagramados según el sistema métrico decimal, en tanto el de los ingleses lo hicieron según su propio sistema.  El Concorde fuel la génesis de la cual surgió posteriormente el Airbus, el único avión capaz de hacerle frente hoy a la poderosa Boeing estadounidense.  Eso sí: para el Airbus, se dejaron de lado las mediciones en pulgadas, pies y yardas.

El Concorde aterrizó tres veces en suelo argentino: primero en 1971 (era aún un prototipo) y luego para el Mundial ’78, como transporte de la Selección francesa.  Afíos más tarde, el 8 de didembre de 1999, un Concorde charteado trajo a Ushuaia a 100 turistas que pagaron US$ 52.000 por un tour sudamericano.

Siete meses más tarde, en París, sobrevino el único accidente fatal en la historia del Concorde.  Fue el punto de inflexión en la historia de la única aeronave comercial desde cuyas ventanillas se podía observar la curvatura de la Tierra.


Conclusiones Finales de la Investigación

Luego de seis meses de investigaciones se ha llegado a la siguiente conclusión, respecto a las causas del accidente:

Un avión DC10 con destino a EE.UU. despegó pocos minutos antes de la salida del Concorde. Este avión que había sido reparados mecánicamente, pierde un elemento metálico de forma rectangular bien alargado que cae sobre la pista. Al despegar el Concorde, y cuando llevaba una velocidad de unos 330 km/h, uno de los neumáticos de goma inflados a alta presión pisa esta chapa filosa produciéndole un corte profundo a la cubierta de caucho.

El neumático explota y uno de los pedazos  (que salen expulsados a gran velocidad) , impacta en la parte inferior del ala  creando una gran onda de choque que desprende un sello hermético del tanque de combustible. El combustible comienza a fugarse, pero hasta ese instante no hay problemas porque existen sistemas de seguridad para esas situaciones.

Pero fue aquí cuando sucede la peor, porque otro trozo de cubierta corta unos cables del tren de aterrizaje, que al rozarse producen chispas eléctricas, que en contacto con el combustible que se escapa, crea una combustión que en segundo se expande por todo el fuselaje, hasta su caída sobre un hotel cercano al aeropuerto.

Fuente Consultada: National Geographic

El aparato cayó en parte sobre un hotel, a unos cinco kilómetros del aeropuerto de Roissy-Charles de Gaulle, de donde había despegado pocos minutos antes. Es el primer concorde que se estrella en sus treinta años de historia.

DATOS DEL VUELO:

Día: Martes 25 de Julio del 2000

Hora: 14:44 GMT

Marca-Modelo: Aérospatiale / BAC Concorde 101

Propietario: Air France Matrícula: F-BTSC Serial: 203 Año: 1975

Tripulación: 09

Pasajeros: 100

Total de personas abordo: 109 (todos fallecieron)

Personas fallecidas en tierra: 05

Total de personas fallecidas: 114

Sitio del accidente: Gonesse (Francia) Plan de vuelo: Roissy-Charles de Gaulle de París – New York- John F. Kennedy IAP, NY, Vuelo número: 4590

Puedes leer un libro sobre esta maravilla aérea del autor Roberto Blanc, que lo ha enviado para que sea compartido con los navegantes interesados en el tema:

libro sobre el concorde

Airbus A380 El avion de pasajeros mas grande del mundo Interior

Airbus A380: El Avión de Pasajeros Más Grande del Mundo 

EL AVIÓN DE PASAJEROS MAS GRANDE DE LA HISTORIA

El Airbus A300 realizó su primer vuelo el 28 de octubre de 1972. El avión fue producido por un consorcio de cinco empresas de Francia, Alemania Federal, Holanda, España y Gran Bretaña. Estos países enviaron las piezas a la fábrica aeroespacial de Toulouse en un gran avión de carga llamado Super Guppy.

Las tareas de ensamblaje del avión más grande del mundo, el Airbus A380, en una planta de Toulose, Francia.  El primer ministro francés, Jean-Pierre Raffarin, marcó la ocasión con un discurso inaugural en una ceremonia a la que asistieron miles de personas involucradas en el mundo de la aviación.

avion air bus 380La nueva nave de dos pisos con capacidad para 555 pasajeros contará con un gimnasio, bares, casino y otras comodidades de lujo. Muchos creen que el A380 revolucionará el mundo de la aviación por completo. Su enorme ventaja es que puede trasladar un tercio más de pasajeros que un Jumbo y, por lo tanto, se necesitan menos cantidad de vuelos para transportar al mismo número de pasajeros.

Sus asientos son más anchos, hay más espacio para las piernas y tiene un 50% más de espacio en general que su competidor, el Boeing 747.

Desventajas: Sin embargo, una de sus desventajas es que cuantos más pasajeros lleva un avión, más posibilidades hay de que sufra demoras, éste es un tema importante desde que después del 9/11 se incrementaron los controles de seguridad en tierra. Por otra parte, dado su tamaño, no puede aterrizar en todos los aeropuertos y quienes viajan a ciudades más pequeñas, deberán necesariamente combinar vuelos.

AIRBUS A380

Largo: 73m

Extensión de ala a ala: 79,8m

Altura: 24,1m

Capacidad típica: 555

Capacidad máxima (clase turista): 840

Motores: 4

Pero para evitar que se lo considere como «transporte de ganado», Airbus ha orientado su campaña de marketing hacia el tema del lujo, describiendo la experiencia de volar en un A380 como una forma sofisticada de viajar.

Los expertos estadounidenses en aviación compararon al A300 con un torpe camello, «un caballo diseñado por un comité», pero el avión, barato y con 280 asientos, resultaba perfecto para las rutas europeas de corta y media distancia. El Airbus funcionaba con dos motores turborreactores, en lugar de los cuatro motores del Boeing 747, y el diseño de sus alas reducía la distancia requerida para el despegue y el aterrizaje.

Hasta 850 pasajeros en clase turista

Este gigante se convertirá en el mayor avión comercial que jamás haya surcado los cielos. Su configuración normal en tres clases tendrá capacidad para 550 pasajeros, aunque en una versión que incluya únicamente asientos de turista podría transportar a 850 viajeros.

Las aerolíneas tienen la posibilidad de encargar un modelo de lujo, con camarotes individuales con ducha, bares, restaurantes, gimnasios e incluso un casino.

Airbus se jacta también de la eficiencia de su nuevo avión. Según la compañía, el A380 consume un 13% menos de combustible que los grandes aviones actualmente en activo.

Por el momento, Airbus cuenta con pedidos para 139 unidades por parte de 13 aerolíneas y prevé que el proyecto, cuyo coste ha superado los 11.000 millones de euros, comenzará a ser rentable en tres años.

Primer vuelo comercial en 2006

La primera compañía aérea en incorporar el avión a su flota será Singapore Airlines, que realizará el primer vuelo comercial del A380 en abril de 2006. Un año después, en abril de 2007, Air France-KLM se convertirá en la primera aerolínea europea en explotar comercialmente el avión.

Airbus es propiedad en un 80% del consorcio aeronáutico y de Defensa europeo EADS, donde España mantiene una participación del 5,5% a través de la SEPI, y en un 20% del grupo británico BAE Systems.

A pesar de esta reducida participación accionarial, la aportación industrial española en el A380 se eleva al 10% del programa, distribuido entre las fábricas de Airbus España en Getafe (Madrid), Illescas (Toledo) y Puerto Real (Cádiz), en colaboración con otras 10 compañías auxiliares.

Pedidos
Las secciones de la nave fueron construidas en cuatro países europeos -España, Alemania, Francia y Reino Unido- antes de ser trasladadas a Toulouse para su ensamblaje.
Airbus ya tiene asegurados 129 pedidos, incluyendo órdenes de compras de aerolíneas como Qantas, Lufhtansa, Air France y Virgin. Y, mientras tanto, el valor de las acciones de EADS, el principal accionista de Airbus continúa en aumento.

Las primeras ventas fueron promovidas por los pedidos de líneas aéreas estatales como Lufthansa y Air France. Aunque los fabricantes norteamericanos protestaron por las subvenciones gubernamentales a los europeos, no pudieron evitar que líneas aéreas norteamericanas como la TWA, la Delta y Air Canadá compraran estos aparatos.

27-04-2005 Cuatro horas de vuelo

El A380, el mayor avión de pasajeros jamás construido, ha surcado el cielo por primera vez en un vuelo «absolutamente perfecto», en palabras de uno de sus tripulantes. A pesar de su gigantesco tamaño, ha entusiasmado a los pilotos. Jacques Rosay, uno de ellos, afirmó, minutos después de su aterrizaje, que «se conduce como una bicicleta, aunque es muy grande».

El avión hizo varias pasadas sobre el aeropuerto, para que los miles de espectadores allí congregados pudiesen admirarlo en vuelo, y después se posó sobre la pista 32, la misma en la que el mítico ‘Concorde’ realizó su primer vuelo hace 36 años, a las 14:22 horas, tras haber despegado a las 10:29 horas.

El presidente francés, Jacques Chirac, aseguró en un comunicado que el A380, cuyo competidor directo es el legendario Boeing 747, ha escrito una «nueva página de la historia aeronáutica», es un «magnífico» ejemplo para la cooperación industrial europea, subrayó el presidente francés, Jacques Chirac.

El «éxito total» del primer vuelo de prueba del A380 «es un magnífico resultado para la cooperación industrial europea y un impulso para continuar en esta vía de la construcción de una Europa de la innovación y del progreso», destacó Chirac, en un comunicado.

«Europa, unida y ambiciosa, prueba hoy que tiene todo el potencial necesario para situarse en el primer plano mundial de la ciencia, de la tecnología y del logro industrial», afirmó, por su parte, el primer ministro francés, Jean-Pierre Raffarin.

Sólo seis tripulantes

El A380, que tiene una envergadura de casi 80 metros y una longitud de 73 metros, llevaba a bordo, para su vuelo inaugural, a tan sólo seis personas, todos miembros de la tripulación: dos pilotos, tres ingenieros de vuelo y un ingeniero-mecánico.

Una vez situado en pista, con un helicóptero volando preparado para cualquier contingencia y suspendidas el resto de las operaciones en el aeropuerto, el A380 esperó a que despegara un reactor que una vez en el aire se colocó detrás del Airbus gigante para tomar las primeras imágenes en el aire de las evoluciones del avión gigante de Airbus.

Fue entonces cuando, bajo la mirada de decenas de miles de personas junto a las verjas del recinto del aeropuerto, el prototipo del A380, que pesaba 421 toneladas (en su versión de mercancías y con la carga al completo se acercará a las 600) aceleró hasta los 260 kilómetros por hora y empezó a levantar el morro del suelo.

Rentabilidad

Se han superado en cerca de 1.500 millones de euros el presupuesto inicial para su construcción y, a causa también de la depreciación del dólar y de diferentes elementos, el umbral de rentabilidad, que en principio se había fijado con la venta de 250 aviones, se ha aumentado a unos 300.

Airbus sigue convencido de que venderá al menos 750 aviones A380, lo que le permitirá mantenerse por delante de su rival Boeing, pero el grupo estadounidense alimenta de forma recurrente las dudas sobre la existencia de mercado para ese aparato, cuyo precio de catálogo está entre 260 y 290 millones de euros por unidad.

En el aeropuerto de Toulouse-Blagnac está la sede del consorcio europeo, en el que participa la española CASA, y donde han sido ensambladas todas las partes del avión, fabricadas en diferentes lugares de Europa, entre ellos Puerto Real (Cádiz). Allí mismo tuvo lugar la presentación pública del avión, el pasado 18 de enero.

Interior de un Airbus 380 de los Emiratos Árabes
Ver: Aviones Convertibles