Funcionamiento Hovercraft

Historia de la Conquista del Aire Breve Descripción de su Evolución

HISTORIA DE LA CONQUISTA DEL AIRE

Durante mucho tiempo el hombre estuvo «atado» a la superficie terrestre. Apenas tenía algún conocimiento de lo que había unos pocos centímetros bajo el suelo o unas pocas brazas bajo las olas, y nunca se había remontado por el aire.

Sabemos que en épocas remotas miraba las aves y deseaba haber tenido la posibilidad de seguirlas. Un salmo de David dice: «¡Oh, si tuviera alas como la paloma!» Los griegos tenían también una leyenda referente a Dédalo e ícaro, padre e hijo, quienes se fabricaron alas y volaron sobre el Mediterráneo. Dédalo llegó a salvo, pero Ícaro voló muy cerca del Sol y como las plumas de las alas estaban unidas con cera, ésta se derritió e ícaro cayó.

Dédalo cae al mar al derretirse sus alas de cera

No es posible recordar aquí más que a unos pocos de esos hombres temerarios que surcaron por primera vez el espacio. Hacia fines del siglo xv, Leonardo de Vinci, el gran pintor, arquitecto y científico, planeó una máquina para volar, pero no había entonces los medios para fabricarla.

maquina voladora de Leonardo Da Vinci

Desde esta época no hubo sino teorizadores extravagantes hasta que el cerrajero Besnier efectuó, en 1678, la primera experiencia de vuelo humano con ciertas alas que se construyó al efecto. Sólo en 1783 dos hermanos franceses, Joseph y Jacques Montgolfier, fabricaron un globo grande, lo llenaron de aire caliente para darle la posibilidad de elevarse y realizaron en él el primer vuelo. No había instrumento alguno que permitiera dirigir el globo, de manera que una vez en el aire éste quedaba a merced de los vientos. En el mismo año, el profesor Charles inventó el globo de hidrógeno.

globo aerostatico de los hermanos Montgolfier

Fue más de un siglo después, en 1906, cuando el inventor alemán, Conde de Zeppelin, logró hacer una enorme nave aérea en forma de cigarro, la que inflada con hidrógeno era más liviana que el aire y podía ser dirigida.

dirigible zepellin

Desde 1842 se sucedieron durante unos 60 años ensayos de planeadores, entre los cuales los más importantes fueron los del infortunado alemán Otto Lilienthal.

Éste, en numerosos viajes realizados en planeadores con alas de madera, vela y cuerda, resolvió importantes problemas de estabilidad, hasta que en 1896 perdió la vida, a los 48 años, a raíz de un accidente.

Otto Lilienthal

En este siglo, dos hermanos estadounidenses, Wilbur y Orville Wright, comenzaron los experimentos en planeador en Carolina del Norte. Inventaron un medio para dirigir el artefacto y más tarde agregaron un motor de nafta en él. El 17 de diciembre de 1903 realizaron el primer vuelo en aeroplano de motor.

primeras experiencia de los hermanos Wright

Desde entonces, la aviación avanzó a grandes pasos. El 25 de julio de 1909, Louis Bleriot cruzó el Canal de la Mancha, desde Calais a Dover, en un monoplano y dio la primera prueba de que la aeronáutica motorizada tenía un gran porvenir.

Bleirot cruza el canal de la mancha

Durante la Primera Guerra Mundial, lamentablemente, el aeroplano se convirtió en un formidable instrumento para la guerra; pero, por lo menos, esto demostró que la aviación no era una simple fantasía.

Cuando el conflicto terminó, muchos de los pilotos que habían participado en él se convirtieron en pioneros de la aviación civil.

En 1919, Alcock y Brown realizaron el primer cruce aéreo del Atlántico, en 16 horas, y, en 1927, Charles Lindbergh hizo el primer vuelo desde Nueva York a París, en menos de 34 horas.

Charles Lim

Charles Lindbergh

Desde 1920, la conquista del aire se centró casi enteramente en los aviones de motor. Antes de los comienzos de la Segunda Guerra Mundial, se habían ya establecido servicios para pasajeros en poderosos aviones cuatrimotores e hidroplanos en todos los continentes.

En 1939 volaron los primeros aviones de retropropulsión —invención de sir Frank Whittle— y hoy las líneas aéreas de aviones supersónicos realizan vuelos regulares llevando a cientos de pasajeros a través de los océanos y uniendo los continentes en pocas horas.

Un tipo de avión muy utilizado por su facilidad de despegue y descenso en lugares pequeños es el helicóptero, ya usado para tareas de rescate en el mar y para salvar pequeñas distancias como correo aéreo.

Pioneros de la Aviación

Historia de la Aeronáutica Comercial

Argentina: Primeros Aviones de Guerra

Fuente Consultada:
Cielo y Tierra Nuestro Mundo en el Tiempo y el Espacio Globerama Edit. CODEX
Enciclopedia Electrónica ENCARTA Microsoft

Los Satélites Artificiales Argentinos Historia Plan Espacial

SATELITE ARTIFICIAL ARGENTINO
HISTORIA PLAN ESPACIAL

Los vehículos espaciales, como por ejemplos los satélites artificiales,  resultan instrumentos impresindibles para el avance científico y tecnológico de la imanidad. Son numerosos los fines con que se utilizan; ellos, cabe destacar los fines científicos, medioambienles, de comunicaciones, de navegación y militares. Mientras ue los satélites giran en órbita alrededor de nuestro planeta, las sondas se han liberado de la atracción gravitatoria de la Tierra y se desplazan en trayectorias variadas.

Los satélites recorren distintos tipos de órbitas, a diferentes alturas con respecto a la superficie terrestre. Tienen tamaños muy variables; algunos pueden llevar tripulantes a bordo.

Los de mayor envergadura se ubican en órbitas bajas entre 250 y 450 km, como por ejemplo, el transbordador espacial norteamericano y la estaciónespacial Mir, que permiten transportar astronautas, satélites y equipos de mantenimiento y reparación.  También se encuentra el telescopio espacial Hubble, que estudia la luz procedente de los objetos más alejados del Universo.

https://historiaybiografias.com/linea_divisoria4.jpg

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio. Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos. En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

Mono Juan Enviado al Espacio Por Argentina, Murió en el zoologico de Córdoba.

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio. El tripulante, de la especie caí, había nacido en Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja. Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal. En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD
A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas. En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos. Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones. La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas. El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social. El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información. La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos. La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES: La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida. En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre. Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó.

En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador. Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite. Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento.

Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta.

En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete. El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

Los satélites geoestacionarios se mantienen a una distancia de 38.500 km girando a la misma velocidad que la Tierra, por ello siempre se observan en el mismo punto sobre el ecuador terrestre. Se utilizan para establecer comunicaciones telefónicas y televisivas.

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:
Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro. Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica. Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se creala Sociedad Argentina Interplanetaria, la primera en América latina, en 1949. Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II. Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro «La Ciencia Argentina», explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II. Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario. La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B. Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita. En febrero 1994, el New York Times se refería a la empresa argentina como «una pequeña versión argentina de una compañía de Silicon Valley» y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial «Argentina en el Espacio 1995-2006». Varotto cuenta que este programa «fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo». Y agrega: «Se decidió concentrar los recursos en ir arriba para mirar para abajo». El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, «contribuya a la optimización de actividades de determinadas áreas socio-económicas». Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

SATÉLITES SAC-A Y SAC-B
La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita. Mejor suerte tuvo la misión SAC-A, que se concretó en 1998. El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C
Argentina en su Plan Espacial Nacional – «Argentina en el Espacio 1995-2006» , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae). Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de «proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes».

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7. Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales. Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la Conae llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino. Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites. El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la Conae- y varias empresas del país, que son las que construyeron el satélite. El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP. Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane
Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas. El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la «sugerencia» de EE.UU.
Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.
Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990. Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat). Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio. El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales. Fabricó el «bus», o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE. Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina. A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche. De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica. Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre d 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia. La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales. El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
«La Ciencia Argentina» de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario «La Nación»

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del «empleado bancario» ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos «bigotes» de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla Disputa

Historia del Uso de la Corriente Alterna
Disputa de Edison Vs. Tesla

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el «príncipe de los experimentadores». Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar.

Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: «Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética«. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad. En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las «resplande cientes herraduras que brillaban dentro de los globo en forma de peras».

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno y consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

iluminador electrico de gran potencia

PROYECTOR ELÉCTRICO DE 1,50 METROS, QUE ILUMINA LOS OBTETOS SITUADOS A 16 KILÓMETROS DE DISTANCIA

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

generadores de corriente electrica

Con su sala de turbinas de vapor construida a orillas del rio, completo aislamiento de todo el equipo eléctrico, disposiciones hidráulicas para eliminar las cenizas, instalación de calderas con recalentadores de vapor formados de seis tubos colocados sobre la cámara de combustión, extenso empleo de motores para llevar a efecto las operaciones precisas con las válvulas y perfecta maquinaria para facilitar el transporte del carbón, esta estación central de «Hell Gate», Nueva York, de la Compañía United Electric Light y Power, no tiene rival.

La Corriente Alternada

Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  «impulsar» a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

https://historiaybiografias.com/linea_divisoria3.jpg

LECTURA COMPLEMENTARIA:
La importancia de la electricidad como medio de transportar energía: Es difícil encontrar aplicación de la electricidad que demuestre más claramente su completa sumisión al hombre como la que se relaciona con el transporte de la energía o fuerza motriz. Desde tiempo inmemorial el hombre ha utilizado recursos que reemplazasen al esfuerzo que puede producir su brazo; el empleo de la fuerza de los animales es muy antiguo, y hay muestras evidentes de que también aprovechó la energía producida al caer el agua.

de todas maneras, en cada caso, siempre coincidían el lugar de producción y el de aplicación de la energía. La rueda hidráulica y el molino de nuestros antepasados estaban instalados al lado mismo del salto de agua. De este modo, muy pocos de nuestros grandes recursos hidráulicos podían ser aprovechados, pues la mayoría de los grandes saltos de agua están situados en lugares inaccesibles de las regiones montañosas, a los cuales sería imposible, o por lo menos muy costoso, transportar las primeras materias.

La fuerza motriz, invisible, va desde la escarpada montaña a la populosa ciudad Los progresos y desarrollo de la máquina de vapor y su creciente importancia han hecho se piense en buscar un medio de transmitir la energía al lugar del consumo desde el punto donde pueda producirse económicamente, ya por estar próximo el combustible o ser más fácil el acarreo desde la mina.

generador de energia electrica

UN GRAN GENERADOR ELÉCTRICO DE TURBINA: Uno de los generadores, de 55.000 caballos de fuerza, en la instalación hidroeléctrica de Queenston-Chippawa. Las turbinas de esta clase reposan sobre una especie de cojinetes o almohadillado de agua, tan delicadamente dispuesto, que si no se frena, tarda doce horas en pararse por completo, a contar desde el momento en que se corta la marcha.

Cuando la instalación de una máquina de vapor puede hacerse a la orilla de un estuario o un puerto, el carbón se transporta por mar a un coste relativamente bajo; pero dentro de las ciudades la conducción es carísima. El mismo agente que permite al hombre hablar a gran distancia con sus semejantes, puede ahora emplearse para transmitir la energía desde los saltos de agua en las montañas o las minas de carbón a la distante ciudad o centro consumidor. Las empresas industriales pueden así establecer las fábricas en aquellos lugares donde los jornales son menos elevados y la primera materia más abundante, puesto que es factible producir la energía necesaria a cientos de kilómetros.

De esta manera también pueden elegirse locales propios y convenientes para las fábricas y las centrales eléctricas donde se genera la energía, ligándose los dos centros por una línea de transmisión que abastece de fuerza eléctrica de un extremo a otro. Pero todavía la ingeniería moderna no es capaz de suministrar por este medio la fuerza motriz a las distancias que envía la voz humana.

La longitud a que puede transmitirse la energía económicamente en la actualidad es de 440 kilómetros en números redondos, y el alcanzar mayor distancia es uno de los grandes problemas que estudian los técnicos en nuestro siglo.

La transmisión eléctrica ha hecho posible la centralización de las grandes instalaciones productoras de fuerza motriz, y de este modo se ha conseguido convertir mucho más económicamente la energía química del carbón en eléctrica a bajo coste. La posibilidad de transportar la energía a grandes distancias permitió la instalación de enormes centrales conteniendo máquinas generatrices y convertidores de tal tamaño, que el coste de la producción por unidad de energía es tan bajo que permite sea consumido por las personas de recursos más modestos.

Debido precisamente a la con solidación y seguridad de estas grandes centrales, transmitiendo la energía a cualquier punto de la zona que las rodea por medios económicos y eficaces, ha sido posible la utilización de la electricidad en las fábricas, talleres y las viviendas.

En las instalaciones industriales más modernas se han suprimido los antiguos ejes, poleas y correas, acoplando motores eléctricos a los diversos mecanismos. La gran cantidad de energía economizada por esta disposición, sin duda mucho más apropiada y flexible para transmitir el movimiento, se emplea en aumentar el número de máquinas trabajando.

El coste de los edificios es así menor, y pueden construirse agrupados o separadamente, segrtn se quiera o convenga, sin tener que ajustarse a la posición del eje transmisor, lo que permite instalar las máquinas en la mejor posición, para disminuir acarreos innecesarios con el producto manufacturado, La eliminación de las correas deja mayor espacio libre, facilita el trabajo de los puentes-grúas o transbordadores, evita el polvo que se removía durante la marcha y, finalmente, también permite un alumbrado mejor.

La ausencia de cojinetes y aparatos para la lubricación de los mismos libra del goteo continuo de aceite, y todo esto trae consigo una mayor limpieza en las operaciones, mejorando, por consiguiente, las condiciones de salubridad durante el tiempo de estancia de los obreros en el trabajo y disminuyendo además múltiples daños al producto acabado.

La electricidad, aplicada al movimiento de la maquinaria, da mayor rendimiento, produce la fuerza con más flexibilidad que con el antiguo sistema de ejes transmisores, de tal suerte que pueden ponerse en marcha o hacer parar individualmente los aparatos sin que se note el menor cambio en la velocidad de los otros.

Pueden llevarse a efecto muchas operaciones delicadas que necesitan una velocidad igual. La sencillez con que puede regularse ésta, así como ampliar la fuerza motriz, facilita el aumento de producción y hace disminuir el coste de la materia elaborada. Son mucho menos frecuentes los accidentes donde se ha adoptado este sistema. Este hecho, unido a la disminución de ruido, mejor iluminación y mayor espacio, son de gran importancia para patronos y obreros, pues éstos tienen que encontrarse así en mejor disposición para el trabajo.

Las fábricas ya no se ven obligadas a esparcir el humo que lanzan sus chimeneas o el polvillo de sus ventiladores sobre las casas que las rodean, desde que aparatos eléctricos pueden evitarlo, o recoger, como por ejemplo, el polvo, de tanto valor en las fábricas de cemento.

El ozonizador eléctrico instalado en los tubos de salida de vapores que producen mal olor los evita, y permite ejecutar estas operaciones, molestas y desagradables, en locales situados dentro de la población, sin temer a que se opongan sus habitantes. En las fábricas donde es preciso mover hierros de varias formas, grandes y potentes electroimanes, instalados dentro o fuera de los talleres, transportan los materiales de un lado a otro en todo tiempo, ya llueva o nieve, aumentando así su capacidad productora.

Una de las aplicaciones más importantes de la fuerza eléctrica es la que se relaciona con la tracción. Al presente hay dos medios para poder hacer marchar los trenes en nuestros ferrocarriles: la máquina de vapor y la locomotora eléctrica. Necesariamente, la locomotora de vapor se irÁ abandonando poco a poco, debido a su limitado espacio para generar la fuerza precisa con la amplitud y rendimiento conveniente, mientras que
en el tractor eléctrico la energía llega de una estación central capaz de producirla en la cantidad que se requiera.

Una instalación móvil de vapor está sujeta a rápida y elevada depreciación, necesitando un coste de conservación mayor que la sencilla locomotora eléctrica. El molesto humo y el vapor desaparecen con el tractor eléctrico, y esto, que es de la mayor importancia en el caso de las líneas subterráneas de las grandes ciudades, fué frecuentemente la principal razón del cambio de la tracción de vapor por la eléctrica.

El empleo de la tracción eléctrica por todas partes en las líneas de tranvías y metropolitanos subterráneos se debe, como hemos dicho, principalmente a esta propiedad especial de no producir humo, y  también a la de poder establecer motores encada coche y así mover uno o varios, formando trenes según las necesidades del tráfico.

Las aplicaciones eléctricas han hecho incalculables beneficios mejorando las condiciones de la vida, pues por ellas, en muchas ciudades industriales, los s obreros pueden habitat en la parte más sana de los alrededores, sin perder demasiado tiempo en trasladarse desde su casa al almacén, tienda o taller donde prestan sus servicios.

Aquellos que viven en poblaciones extremadamente densas, por otro lado, pueden salir económicamente al campo para deseansar del torbellino de la ciudad. Las relaciones sociales, el cambio comercial, el mismo paisaje, todos ellos perderían extraordinariamente sin el motor sin humo. Las rápidas líneas de tranvías interurbanas, en regiones menos pobladas, transportan pasajeros y mercancías a las granjas situadas en su ruta. De este modo se tienen medios económicos y convenientes para efectuar las diversas transacciones entre los productores y los que consumen en las ciudades.

El transporte de pasajeros y mercaderías por medio de las líneas eléctricas, el teléfono y el telégrafo, acortan las distancias de tal suerte, que los habitantes del campo están en íntima comunicación entre sí, pudiendo aprovecharse de estas grandes mejoras.

Fuente Consultada:
Colección Moderna de Conocimientos Universales – La Era de la Eléctricidad – Tomo II – Editores W.M. Jackson, Inc.

 

Historia de la Produccion en Serie La Cadena de Montaje

Historia de la Producción en Serie – La Cadena de Montaje

CADENA O LÍNEA DE MONTAJE: Cuando pudieron hacerse formas metálicas exactamente iguales, fue lógico pensar en ellas como piezas intercambiables. Eli Whitney fue quien por primera vez montó piezas intercambiables como un nuevo método de fabricación. Se pudo hacer las piezas en un lugar y luego armarlas en otro. Whitney pensó que en esta forma los productos manufacturados podrían producirse en cantidad mayor con más rapidez y a menor costo.

Ely Whitney

En los primeros años de su juventud, Whitney se ganó la vida batiendo clavos en un yunque. Nunca podía dar a los clavos formas exactamente iguales. Años después, cuando ya había inventado la desmotadora de algodón, en una ocasión en que observaba cómo con un martillo pilón se hacían miles de clavos idénticos, se convenció de que las máquinas tendrían que sustituir a la mano del hombre.

Por esa época, en 1789, Francia estaba en plena revolución, y los Estados Unidos temían que su mejor amiga pudiera volverse contra ellos. Se necesitaban fusiles para la defensa de las costas de América. Para fabricarlos a mano se requerirían años. No es de extrañar que el Departamento de Guerra se alegrase cuando Whitney propuso entregar 10.000 mosquetes en el término de dos años al bajo precio de $ 13,40 cada uno. Se celebró contrato con Whitney, adelantándole una suma para que comenzara la fabricación.

El joven inventor, sin embargo, tropezó con gran dificultad para encontrar hombres que poseyeran la pericia mecánica necesaria para hacer las máquinas cortadoras que reemplazasen al viejo martillo, el escoplo y la lima. Al igual que antes Watt, Whitney tuvo que hacerse las herramientas requeridas y adiestrar en el manejo a los obreros que él tomaba en las fundiciones y talleres de maquinaria.

Su primera tarea fue construir un elemento mecánico que reemplazara a las, manos humanas en la aplicación y dirección del movimiento de un instrumento cortante. No había maquinistas cuyas manos fuesen suficientemente firmes o fuertes como para sostener un instrumento de raspado contra una pieza de hierro que gira más de unos pocos minutos cada vez.

Se necesitaba una presión constante y exacta. Resolvió el problema con una especie de plantilla mecánica, que viene a ser un molde de madera o metal, a lo largo del cual se mueve una herramienta que hace piezas iguales.

Cada pieza del mosquete se sujetaba en una posición prefijada antes que las fresas la cortaran. De esta manera se repetía cada una con precisión absoluta. No sólo se empleaban piezas uniformes, sino que los bancos de trabajo se ubicaban de manera que las piezas pudieran pasarse de un obrero al otro.

La fábrica se dividía en departamentos, cada uno con su máquina especial unida por correa a un eje que impulsaba y hacía todas las herramientas cortantes.

Con esto la fábrica ya estaba preparada para ponerse en marcha, y todas las máquinas comenzaron a trabajar al mismo tiempo. Una máquina daba forma a la caja de madera del fusil, con sus superficies planas y curvadas. En hojas metálicas se hacían agujeros en lugares precisos, a fin de que sirviesen de guías para la producción en masa de trabajo de perforación.

Con grapas se sujetaban hojas metálicas contra los bancos, mientras las fresas las cortaban. Interruptores automáticos-detenían la acción de la herramienta. El mecánico sólo necesitaba agrapar las barras metálicas, las cuales eran cortadas, cepilladas, conformadas, taladradas, lustradas y esmeriladas automáticamente.

Los obreros solamente tenían que reunir las diversas piezas y llevarlas a la sala de montaje, donde se armaban los fusiles en tiempo record.

Finalmente, se dispuso de una forma de producir grandes cantidades de materiales con la rapidez, la uniformidad y la precisión que ningún artesano podía lograr individualmente.

Comienza la producción en masa
En este tiempo las avanzadas de pobladores y colonizadores de zonas lejanas estaban en plena marcha hacia el oeste de los Estados Unidos. Había que preparar las fronteras (que es como se llamaba a los límites entre civilización y regiones incultas) y construir viviendas.

El hacha era la herramienta predilecta del pionero. Pero éste a menudo tenía que esperar meses a que el herrero le forjara un hacha. Cada mango exigía un tallado cuidadoso. Cada hoja de hacha requería un largo y lento proceso de templado y pulimento.

Lo que Whitney había hecho para el fusil, otros entusiastas de la mecánica lo aplicaron al hacha. Las fábricas las hicieron a millares. Se colocaban en tambores giratorios y pasaban por las llamas de un horno en un proceso de calentamiento uniforme. Luego un martinete de fragua les daba rápidos golpes sucesivos, que hacían perforaciones de una medida exacta, por donde entrase a la perfección el mango.

De la noche a la mañana dejaron de faltar hachas. Corrió si se tratase de celebrar la intensificación de la producción fabril, empezaron a salir en cantidad los relojes de las fábricas. Con máquinas se perforaban miles de piezas por día y se montaban tan rápidamente que todo el mundo pudo tener reloj por muy bajo precio.

El hecho de que las máquinas pudieran hacer cosas mejores y con mayor rapidez produjo una conmoción creciente que todo lo inyadió. Elias Howe descubrió la parte esencial de la idea de una máquina de coser un día en que puso el ojo de una aguja en la punía en lugar de la cabeza.

De esta manera fue posible hacer que el hilo atravesase la lela sin necesidad de que la aguja la pasase de lado a lado. Otro hilo que salía de una lanzadera pasaba por dentro del lazo. Cuando la primera aguja retrocedía nuevamente, con un punto de cadeneta se apretaban los dos hilos. Esto resultó cien veces más rápido que coser a mano.

Singer introdujo mejoras. Mediante un pedal consiguió que las manos de la costurera quedasen libres y pudiesen guiar la tela. Se dio a la aguja movimiento vertical, subiendo y bajando, en vez de moverse Imrizontalmente como la aguja de Howe.

Al poco tiempo la máquina de coser pasó del hogar a la fábrica. La producción en masa hizo bajar los precios. Todos pudieron adquirir desde entonces mi traje nuevo, un vestido nuevo. Las máquinas construyeron nuevas máquinas despúes de cada nuevo invento. La lenta salida de los productos manufacturados, parecida a un goteo se transformó en un diluvio.

PARA SABER MAS…
Cadena de Montaje en Ford

La producción dependió de la rapidez con que el hombre pudiese servir a la máquina. En la línea de montaje, cada hombre agregaba una pieza al armazón desnudo que iba avanzando por esa línea. A medida que el magneto, por ejemplo, se desplazaba sobre un medio transportador, los hombres le añadían algo cada uno, hasta que finalmente salía terminado al cabo de trece minutos. Levantando el transportador del magneto veinte centímetros, para que los hombres no tuvieran que agacharse, el tiempo disminuyó a siete minutos. Imprimiendo al transportador un poco más de velocidad, ese tiempo se redujo a cinco minutos.

Con métodos similares, en la línea del ehassis se redujo el número de estaciones, hasta que fue sólo de cuarenta y cinco, y de la última operación salía el auto armado. Fue éste un ejemplo sensacional del método nuevo de producción. En 1915, un coche se terminaba en noventa y tres minutos. Una década después, luego de haberse vendido 16 millones de automóviles del modelo T, cada quince minutos salía un coche nuevo. Lo más sorprendente de todo es que el precio se pudo reducir de 850 a 295 dolores.

Frederick Taylor fue el primero que concibió la idea de que el propio hombre pudiera convertirse en un mecanismo. Taylor es el ingeniero que descubrió un acero de aleación nueva capaz de cuadruplicar la velocidad de las herramientas cortantes. Imaginó que el propio hombre podía llegar a ser igual de eficiente que una máquina si se eliminaban movimientos superfluos. Utilizando un cronógrafo, determinó el tiempo que tardaban distintos obreros y el que se requería en distintos movimientos para concluir una operación.

Otros ingenieros siguieron estudiando los movimientos de los obreros con el propósito de llegar al máximo de producción posible por minuto. Todos estos estudios sobre la forma de lograr que las piezas y los materiales saliesen en forma uniforme y fija; con la velocidad mayor con que las máquinas pudieran producirlas, desembocaron en una sorprendente conclusión: nunca se conseguiría que el hombre fuese una máquina eficiente.

Ver: Henry Ford y su Producción

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer «la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en «V», puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en «V», grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en «V», el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en «V» próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación «vuela» sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en «V», la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos