Evolución Aviones de Guerra

Explotación Agricola en Europa del Siglo XIX Economía

EL PREDOMINIO DE LA ECONOMÍA AGRÍCOLA
EN EUROPA EN EL SIGLO XIX

La Europa de principios del siglo XIX era aún una Europa campesina cuya vida económica dependía estrechamente de las fluctuaciones de sus principales producciones agrícolas. La ausencia de excedentes mantenidos limitaba el desarrollo de las ciudades, que permanecían muy ligadas al campo. Las frecuentes malas cosechas de cereales, patatas, legumbres, ocasionaban grandes subidas de precio. Las crisis estacionales o anuales, engendradas por las malas cosechas o por la deficiencia de las relaciones comerciales y de los medios de transporte, se conjugaron a partir de 1817 con una larga etapa de depresión y de hundimiento de los precios, que sucedió al favorable período precedente.

LA POBLACIÓN: A partir de 1801, la población mundial ha crecido con más rapidez que nunca. Sólo en el siglo XIX se duplicó con creces; la anterior duplicación tardó cuatro veces más. Desde el siglo XVII la curva de crecimiento se ha ido haciendo cada vez más empinada. Sin embargo, las cosas no son tan sencillas como parece deducirse de esta imagen general. Algunos países han crecido con más rapidez que otros, y lo mismo puede decirse de los continentes.

El resultado ha sido un cambio en el orden de las naciones, atendiendo a su número de habitantes. Empecemos por Europa: en 1801, Francia reunía bajo su bandera más habitantes que ningún otro país al oeste de Rusia; en 1914 ocupaba la cuarta posición, por detrás de Alemania, Austria-Hungría y Gran Bretaña. El crecimiento de los Estados Unidos fue aún más rápido: en 1900 sus habitantes habían ocupado ya todo el continente (que en 1801 aún seguía inexplorado en gran parte) y su número había ascendido de 6 a 76 millones, lo que representa un aumento del 1.150 por 100.

Se dispone  de   información   mucho   más completa y exacta acerca de los países de Europa y América que de los de Asia y África; no obstante, parece comprobado que la población creció en todas las partes del mundo durante el siglo XIX: en China, por ejemplo, el aumento superó el 40 por 100, llegándose a los 475 millones; Japón pasó de unos 28 millones a unos 45, y la India de 175 a 290 millones. Se trata, en todos los casos, de incrementos muy grandes.

LA AGRICULTURA CONTINUA PREDOMINANDO
Salvo algunas excepciones, los métodos de explotación agrícola permanecían anticuados, ya que la mayoría de los grandes propietarios se desinteresaron de ello y no trataron de aumentar sus rentas por medio de la comercialización de sus productos. En cuanto a los pequeños cultivadores, sin instrucción, apartados de la escena política por los regímenes censatarios, no disponían de capital suficiente para introducir innovaciones.

agricultura en europa

Falta de abono, la tierra se convertía en  barbecho  cada   tres   años;   falta   también de maquinaria (se sembraba a mano, se trillaba con el mayal, se segaba con la hoz), una gran parte del suelo se desperdiciaba y los rendimientos obtenidos eran muy escasos. El desconocimiento de los métodos de conservación de la carne, el estado de los animales, desnutridos y sujetos a epidemias, impedía toda explotación ganadera racional, utilizándose el ganado, sobre todo, para los trabajos agrícolas.

Las crisis de subsistencias probaba trágicamente que el destino de millones de  hombres  dependía aún de las cosechas  de   trigo;   por  eso la agricultura estaba orientada hacia los productos de más corriente consumo, y, en pri mer lugar, hacia los cereales, como el trigo el centeno, la cebada, la avena y el alforjón.

La ausencia  de  excedentes  obligaba  a  la: diferentes naciones e incluso a las regione: a  vivir  replegadas  sobre  sí  mismas.   Uni camente  los   productos   exóticos   (especias café) daban lugar a un tráfico importante Sin embargo, este medio siglo conoció cier tos progresos agrícolas, de los que Inglate rra fue la principal beneficiaria. Más  adelantada que sus vecinos, había experimentado, desde el siglo XVIII , nuevos métodos; 2.000 lores, propietarios del tercio de la superficie cultivable, transformaron hectáreas de tierra de labor en fértiles praderas, en las que practicaron una ganadería moderna con selección de razas (la raza Durham llegó a ser la primera de Europa).

Los decretos para la formación de «acotados» (reunión de tierras rodeadas por vallas), concluidos en 1840, los «cornlaws», leyes que prohibían la entrada de trigos extranjeros, habían enriquecido   a   estos   grandes   propietarios que llevaron a cabo una verdadera revolución sustituyendo el barbecho por el cultivo de plantas herbáceas, de trébol, de alfalfa y otras análogas, alternando con los cereales; la utilización de los abonos (cal, guano, fertilizantes industriales descubiertos por Liebig), la mejora de los arados, la desecación de los pantanos, reforzaron esta revolución agraria.

Las Corn Laws fueron aranceles a la importación para apoyar los precios del grano británico doméstico contra la competencia de importaciones, vigentes entre 1815 y 1846.

PEQUEÑAS PROPIEDADES Y GRANDES DOMINIOS: Además  del  tipo inglés (que acabamos de ver mas arriba),  se podían  distinguir otras dos modalidades  de  agricultura en Europa.  Una de ellas predominaba en Francia, Países Bajos, Suiza y norte de Italia; la supresión de las servidumbres señoriales   había   emancipado   jurídicamente   al campesinado, pero éste, dueño en su inmensa mayoría, de pequeñas o medias propiedades, vegetaba y se mantenía gracias a la supervivencia de las prácticas comunales y a la ayuda de trabajos artesanos.

Sin embargo, en estos países fueron realizados importantes   trabajos   de  desecación   (particularmente en Holanda, donde los «polders» alcanzaron una gran extensión) que permitieron acrecentar la superficie cultivable. El rercer tipo de agricultura, el de los grandes dominios   señoriales,  reinaba  en  la  mayor parte de Europa; en el sur de Italia y en Toscana, la aristocracia terrateniente practicaba el absentismo, dejando a los administradores el cuidado de ocuparse de sus inmensas propiedades, y éstos las hacían explotar por los jornaleros a los que apenas les quedaba para vivir. Los grandes propietarios españoles practicaban también la aparcería; pero tenían que hacer frente a la Mesta, poderosa asociación de ganaderos que monopolizaba inmensas extensiones de tierras, oponiéndose al desarrollo de la agricultura.

En Prusia y en Europa Oriental, las reformas napoleónicas fueron abandonadas después de Waterloo y los campesinos tuvieron que devolver a los nobles el tercio de sus tierras, cayendo nuevamente en un estado de semi-servidumbre. Sin embargo, algunos pequeños hidalgos prusianos intentaron modernizar sus posesiones siguiendo el ejemplo de los lores ingleses.

Por último, en Rusia, la tierra estaba en manos de la corona y de los nobles; una parte de sus inmensos dominios era explotada directamente, y la otra repartida en parcelas entregadas a las familias de los siervos a cambio de los servicios que prestaban trabajando las tierras de su señor. Rusia era entonces la mayor exportadora de trigo de Europa, pero las exportaciones se hacían en detrimento de la población, que vivía en condiciones miserables. Esta oposición entre la Europa Occidental y los países orientales, próximos todavía a las estructuras feudales, había de durar hasta nuestros días.

La Era Capitalista El Desarrollo De La Ciencia e Inventos En Europa

LA ERA CAPITALISTA EN EUROPA: EVOLUCIÓN TECNOLÓGICA Y DESARROLLO CIENTÍFICO

A partir del siglo XIX se inician un par de transformaciones que renovaran la economía, la sociedad y la política de todo Europa.Estas dos destacadas transformaciones son la Revolución Industrial y la Revoluciones Burguesas ocurridas entre 1820 y 1848. La primera cambió la forma de producir y de organizar la economía de ese momento, estableciendo un sistema capitalista que se extendió a nivel mundial y la segunda se refiere a los movimientos revolucionarios que luchaban por una sociadad mas justa, con mas libertad y sobre todo participación en la política, que culminaron con las ideas liberales como principio rector de la vida social, de esta manera nacía el liberalismo político y económico.

La Revolución Industrial dio origen a una nueva forma de organizar el trabajo: el trabajo fabril; a un nuevo tipo de trabajador: el obrero industrial; y a una nueva forma de organización económico-social: el capitalismo. El capitalismo surgió luego de una sucesión de grandes y profundos cambios sociales y económicos que se produjeron en el campo y en las ciudades.

El trabajo asalariado se difundió en las ciudades en las que se desarrollaba la industria y también en las zonas rurales en las que la producción agropecuaria se destinaba al mercado. Sin duda el capitalismo significó para el hombre un camino de progreso, pero al mismo tiempo llevó a la formación de una sociedad dividida en clases sociales con intereses contrapuestos. El conflicto más profundo fue el que se planteó entre la burguesía, propietaria de los medios necesarios para la producción, como las industrias, la tierra, las herramientas, y los obreros, que no disponían de bienes ni de tierras ni de herramientas, y que lo único que podían hacer para subsistir era vender su fuerza de trabajo.

revolucion industrial en europa

Hacia la primera mitad del siglo XIX, el capitalismo se consolidó en Europa occidental y los cambios que había introducido la Revolución Industrial se extendieron por otros países del continente europeo y los Estados Unidos. La burguesía se consolidó como clase y fue protagonista de importantes revoluciones —1830, 1848— e impuso al mundo sus ideas, valores e instituciones de corte liberal. Pero este mundo burgués fue también un mundo de fuertes conflictos sociales. Junto a la próspera burguesía, en las ciudades industriales el número de obreros organizados crecía cada vez más: reclamaban por mejores condiciones de vida y mejores salarios. El progreso y la miseria fueron las principales características de esta época.

La industrialización cambió de forma radical el mundo. Las nuevas fuentes de energía condujeron a la mecanización y surgieron nuevas formas de comunicación y transporte. Varios factores provocaron el avance de la industrialización en el siglo XIX. En Europa, la consolidación de grandes imperios, como el británico, conllevó mayores oportunidades comerciales. La ampliación de los mercados de exportación alentó un aumento de la productividad, como resultado de la cual comenzaron a aparecer grandes fábricas modernizadas. En Gran Bretaña, el ritmo del desarrollo industrial se había acelerado durante el siglo xvm, cuando el imperio alcanzó su extensión máxima.

Explica John M. Roberts en su libro: “Historia Universal Ilustrada“: ¿Qué entendemos por «industrialización»? Por lo general, suele interpretarse como producción organizada a gran escala, con mucha gente trabajando junta. Pero el sentido común nos dice que debemos excluir de la definición la agricultura, a pesar de que a menudo se ha practicado con gran número de operarios en una misma finca —los siervos en Europa oriental o los esclavos en las plantaciones, por ejemplo—, y también el comercio, que se ocupa del intercambio de mercancías, y no de su producción. ¿A qué nos referimos, pues, cuando hablamos de industrialización en el contexto de la historia de la humanidad? Una posible definición sería «el proceso que conduce a una sociedad que cada vez resulta más dependiente de la industria fabricante de artículos y menos del comercio o la agricultura».

LA MÁQUINA A VAPOR: En 1765, el inventor inglés James Watt construyó un modelo de máquina de vapor. Cuatro años después, en 1769, construyó su primera máquina de vapor. El invento halló muy pronto aplicación en las empresas de Inglaterra. En 1780, en Birmingham funcionaban 11 máquinas de vapor, on Leeds 20, y en Manchester 32. La invención de la máquina dE vapor marcó una nueva otapa de la revolución técnica. Juntamente con la máquina de vapor entra en escena la ciencia.

En su forma mas simple el vapor utiliza agua hirviendo para producir vapor a presión. Este vapor hace presión contra una turbina o un pistón y fuerza su movimiento, y ese movimiento acciona las ruedas del motor. Pese a haberse inventado ya en 1698, el accionamiento por vapor experimentó diversos refinamientos hasta poder ser usado para accionar el primer barco en 1802. Las modificaciones más importantes del motor de vapor las realizó el escocés James Watt. Nacido en 1732, Watt consagró su vida a mejorar el motor de vapor.

De hecho, de no haber realizado los cambios que realizó, el motor de vapor no habría podido impulsar la Revolución Industrial. Watt ideó la cámara separada en la que se condensaba el vapor y gracias a la cual el motor tenía una mayor eficacia; y también inventó el barómetro o indicador de presión, y la manivela y el volante que provocaron el movimiento rotatorio. Fue un motor de Watt el que impulsó el barco experimental Clermont aguas arriba por el río Hudson en 1807.

maquina newcomen a vapor

La bomba de vapor, empleada para suministrar energía a molinos y fundiciones, la inventó Newcomen en 1712, pero no resultó práctica hasta que james Watt perfeccionó en 1191 esta enorme máquina, basándose en el diseño de Newcomen pero eliminando la mayoría de sus inconvenientes para poderla emplear para impulsar maquinaria. Un elemento fundamental de la máquina era el regulador, que mantiene constante la entrada de vapor, sea cual sea la carga.

LOS TRIUNFOS DE LA CIENCIA
Fue en el siglo xix cuando las ciencias llegaron a ocupar un lugar preponderante en la civilización de la Europa Occidental. Los sabios no fueron ya aficionados, sino profesores e investigadores que se especializaban, publicaron sus trabajos, confrontaron sus métodos de razonamiento y de experimentación.

Descubrimientos matemáticos importantes fueron el origen de un desarrollo general en las otras disciplinas científicas: el alemán Gauss, profesor de la Universidad de Gottinga, puso las bases del cálculo de probabilidades; en Francia, Lagrange hizo progresar el estudio de la mecánica, Monge creó la geometría descriptiva, Laplace demostró la estabilidad del sistema solar, Arago determinó la medida del meridiano. Sus sucesores Cauchy y Evaristo Galois (que murió a la edad de 21 años, a consecuencia de un duelo) fueron los promotores de la nueva álgebra y de las matemáticas puras. Noruega tuvo en Abel su gran matemático.(Ver: Matemáticos y Físicos)

Estos descubrimientos fueron directamente aplicados a la astronomía; Arago logró medir el diámetro de los planetas; Verrier, basándose en cálculos, estableció la existencia de un nuevo planeta, Neptuno, que un astrónomo berlinés, Gall, descubrió muchos años después, con la ayuda de un telescopio. Varios descubrimientos esenciales revolucionaron la física: refutando todas las afirmaciones anteriores, el óptico Fresnel demostró que los fenómenos luminosos eran debidos a la propagación de las ondas vibratorias. A la sombra del viejo Berthollet, Biot y Arago hicieron las primeras medidas precisas relativas a la densidad del aire; el mismo año, Gay-Lussac descubrió las leyes de la dilatación de los gases y estudió la composición de la atmósfera.

Por su parte, Carnot definió en un largo estudio las primeras leyes de la termodinámica. Los progresos más ricos en consecuencias fueron realizados en el campo de la electricidad: en 1800, los italianos Galvani y Volta construyeron a primera pila; el danés Oersted descubrió la acción de la corriente eléctrica sobre una aguja imantada, y el francés Ampére definió las leyes del electromagnetismo. El inglés Faraday y el americano Henry establecieron la noción de la inducción, y el alemán Ohm expuso su teoría matemática de la corriente eléctrica.

Estos descubrimientos permitieron el empleo del telégrafo eléctrico (dispuesto por Steinheil y Morse), que funcionó en Francia y en Inglaterra hacia los años de 1840. Los progresos de la química revistieron el mismo carácter internacional: gracias al inglés Davy y al sueco Berzelius, la pila eléctrica fue utilizada para el análisis de los cuerpos; la electrólisis permitió así aislar nuevos cuerpos simples: el potasio, el sodio, el magnesio, el cromo, aislados por el francés Vauquelin, el yodo y el aluminio por el alemán Woehler.

La química orgánica hizo importantes progresos gracias al francés Chevreul, autor de un estudio sobre los cuerpos grasos naturales, y al alemán Liebig, que creó un centro de estudios sobre los ácidos orgánicos, la fermentación y la descomposición de las materias, y realizó trabajos sobre la aplicación de la química en la agricultura. Por último, el inglés Dalton y el italiano Avogadro concluyeron las primeras teorías del átomo. Dos aficionados, el ofi cial Niepce y el pintor Daguerre, estudiaron la fijación de las imágenes luminosas obtenidas en la cámara oscura; en 1839, el inglés Talbot realizó las primeras fotografías en papel; seis años después, Niepce de Saint-Víctor inventó la fotografía sobre vidrio.

Los biólogos se dedicaron al estudio de la célula, elemento fundamental de los tejidos, descubierta, en 1830. Bichat y Laennec modernizaron los métodos de la medicina, y el descubrimiento de los anestésicos permitió a la cirugía dar un gran paso adelante. Gracias a un estudio detallado de las rocas, los geólogos reconstruyeron las principales etapas de la evolución de la corteza terrestre. Cuvier, partiendo de la observación de los fósiles, lanzó las bases de la paleontología, ayudado por sus discípulos Dufrenoy y Elie de Beaumont.

Estos últimos se convencieron de la estabilidad de las especies después de su creación; los descubrimientos de Boucher de Perthes sobre el hombre prehistórico  pusieron  en  discusión sus conceptos sobre el origen del mundo.   Lamarck y  Geoffroy   Saint Hilaire   se instituyeron, contra Cuvier, en campeones del transformismo, es decir de la evolución de las especies bajo el efecto de los cambios de ambiente y de herencia. Esta teoría parecía  incompatible  con la  enseñanza  de la Iglesia y dio lugar a una larga controversia entre la ciencia y la religión.

La investigación científica no descuidó la historia; atendió sobre todo, a las civilizaciones del pasado:   Champollion descubrió  el  significado de los jeroglíficos de Egipto, fundando así la egiptología; en Mesopotamia y en Grecia   fueron   emprendidas   excavaciones, fundándose  en  ésta  última  la   escuela  de Atenas.

Con la escuela de Diplomas, los investigadores franceses se dedicaron a un estudio sistemático del pasado de su país, y los sabios italianos multiplicaron las excavaciones   para   exhumar  los   innumerables vestigios de la civilización romana. Las ciencias habían abandonado definitivamente el campo del empirismo y tomado una extensión que iba a provocar una nueva revolución industrial, prodigiosamente acelerada, hacia finales de siglo.

La revolución industrial  vino acompañada de una explosión tecnológica que trajo grandes avances en el transporte (el automóvil y el aeroplano), las comunicaciones (el teléfono y las señales inalámbricas) e incluso el ámbito doméstico (la bombilla y el gramófono). En las ciencias, el naturalista británico Charles Darwin transformó el modo de concebir el mundo con la Teoría de la Evolución.

LA TECNOLOGÍA APLICADA A LOS MEDIOS DE COMUNICACIÓN:

Los Caminos: Al ampliarse la producción y el mercado de venta, se necesitaban medios de comunicación más perfectos. Aún antes de comenzar la revolución industrial, los caminos no satisfacían las necesidades de la población. Según testimonios de los contemporáneos, eran “molestos, malos, y dignos tan solo de ser destruídos” Por ellos transitaban penosamente, como mil años atrás, únicamente bestias de carga. Los transportes eran lentos y sumamente caros. Entre Inglaterra y Escocia, en general, no había comunicación regular. De Londres a Oxford se tardaba no menos de dos jornadas, y las cargas requerían más de tres semanas para llegar a Liverpool.

La etapa inicial de la revolución industrial está relacionada con la intensificación de la construcción de caminos. Sólo en el quinquenio de 1769 a 1774, el Parlamento votó más de 450 decretos sobre la construcción de nuevos caminos o mejoramiento de los viejos. Con el mejoramiento de los caminos, la velocidad de las comunicaciones comerciales aumentó a más del doble. A partir de 1756 aparecieron las comunicaciones postales y de viajeros regulares entre Londres y Edimburgo. Las bestias de carga fueron sustituidas en casi todas partes por las carretas. Sin embargo, para la conducción de cargas voluminosas y pesadas, el transporte terrestre continuaba siendo muy caro e incómodo. Surgió la idea de sustituir los caminos por las comunicaciones fluviales. La construcción de canales comenzó a principios de la segunda mitad del siglo XVIII. En 1755 fue construido un canal de 11 millas de longitud entre Liverpool y Manchester.

Como consecuencia de la apertura del canal, los gastos en el transporte de mercancías se redujeron a la mitad. En 1766 se abrió un canal de 29 millas. A fines del siglo XVIII, el Gran Canal de Unión comunicaba a Londres con las ciudades del centro de Inglaterra. Hacia 1825, la red de canales alcanzó 500 millas de longitud A principios de la década del 40 del siglo XIX, Inglaterra disponía de 2.200 millas de canales y de 1.800 millas de ríos navegables.  En Unos 30 años el país se cubrió de todo un sistema de canales, abiertos preferentemente en los condados del centro y del norte del país.

Todos los canales los construyeron particulares, dueños de grandes manufacturas o magnates de la industria. Pero la verdadera revolución en los medios de transporte está relacionada con la aplicación del vapor y la invención de la locomotora y el barco de vapor. En el primer cuarto del siglo XIX, los veleros comenzaron a ser sustituidos por los vapores, y las torpes y pesadas diligencias por los ferrocarriles.

puentes y canales en la revolucion industrial

El primer vapor se botó en 1807 en el río Hudson, en Norteamérica. Su inventor y constructor fue Kobert Fulton. En Gran Bretaña, el primer vapor se construyó en 1811. En 1816 un vapor cruzó por primera vez el Canal de la Mancha. Tres años después, en 1819, el vapor norteamericano Savannah hizo el primer viaje entre el Nuevo y el Viejo Mundo, cruzando el Atlántico en 25 días, o sea en 6 días más que los barcos de vela.

En 1842, el vapor inglés Drover realizó el primer viaje en derredor del mundo. Hasta entonces sólo los barcos de vela habían circundado el globo. En los primeros tiempos, la navegación a vapor fue más letita que la de vela y resultaba más cara; muchos comerciantes y empresarios no querían utilizarla, pero los más sagaces no tardaron en darse cuenta de sus ventajas en un futuro próximo.Todavía la mayor trascendencia fue la construcción de los ferrocarriles.

El Ferrocarril: La aparición del ferrocarril fue esencial para el éxito de la industrialización. En Gran Bretaña funcionaba desde antes del siglo XIX una forma rudimentaria de ferrocarril: desdelas bocaminas y las canteras, unos vagones tirados por caballos transportaban el carbón por medio de unas sencillas vías fabricadas con piedra y hierro.

La invención del motor a vapor fue el catalizador del cambio. En 1804, un minero de estaño de Cornualles, Richard Trevithick, enganchó un motor a vapor a un vagón de una mina. Inspirado por esta acción, George Stephenson creó su Rocket, la primera locomotora móvil capaz de tirar de vagones.

primera linea de ferrocarril

La primera línea de ferrocarril enlazó Liverpool con Manchester en 1830, y tras ella se desató un boom de la construcción ferroviaria. A partir de 1850, el Estado británico tuvo que intervenir para estandarizar el ancho de vía, que hasta entonces había sido variado. Esta intervención dotó a Gran Bretaña del primer sistema de transporte ferroviario nacional totalmente operativo. El ferrocarril fue ampliándose por toda Europa, uniendo las regiones y comunidades más aisladas y contribuyendo a la integración económica.

Desde el descubrimiento de nuevas rutas marítimas en los siglos quince y dieciséis, los mares unieron a los continentes en lugar de separarlos. Con el aprovechamiento de la energía del vapor en el siglo dieciocho, los barcos cubrieron con rapidez esas distancias, o por lo menos lo hicieron a un ritmo más constante y confiable. Al ponerle ruedas a la máquina de vapor, la revolución del transporte terrestre no se hizo esperar.

Vapores en los puertos: La máquina de vapor, que primero se empleaba para bombear agua de las minas de carbón y estaño, llegó a ser el artefacto más importante de la Revolución Industrial. Esta fuente de energía alimentada por carbón fue adaptada con éxito a la propulsión de barcos, a comienzos del siglo diecinueve.

El norteamericano Robert Fulton construyó en 1807 un barco de vapor, el Claremont, que funcionó. Por la misma época, el inglés Patrick Bell construía a su vez un barco similar. Al principio, el vapor fue considerado útil en los viajes por ríos o canales, pero hacia la década del 30 los barcos de vapor realizaban ya viajes transoceánicos. Los buques de vapor, o vapores, que no dependían de los vientos favorables, podían ajustarse a horarios, lo cual nunca había ocurrido antes. En consecuencia el comercio internacional se incrementó con rapidez. El vapor, más que la vela, intercomunicó pronto vastos imperios como el británico.

Hacia 1880, el motor de vapor propulsaba casi todo tipo de barcos: de guerra, de carga y de pasajeros. Las armadas movidas por vapor exhibían acorazados más armados y más blindados que nunca en toda la historia.

barco movido a palas

Automóviles: La historia del automóvil comenzó en 1885, con la aparición de la primera máquina movida por un motor de combustión interna. Nueve años después, un inventor francés llamado Panhard construyó un vehículo de cuatro ruedas, fácilmente identificable como antepasado del automóvil moderno. Durante la siguiente década se construyeron automóviles en Francia y Alemania, que servían como juguetes para los ricos. Este período puede considerarse como la prehistoria del automóvil.

Su verdadera historia comenzó en 1907 en los Estados Unidos, cuando Henry Ford empezó a producir en serie su Modelo T, mucho más barato que ningún otro coche construido hasta la fecha. Ford estaba dispuesto a atraer a un mercado de masas, y sus primeros modelos costaban sólo 950 dólares. En veinte años, gracias al enorme éxito obtenido, pudo rebajar el precio a menos de 300 dólares.

La demanda aumentó con tal rapidez que en 1915 Ford producía ya un millón de coches al año; esto significaba que lo que antes era un lujo se había convertido en un artículo corriente. De este modo, Ford cambió el mundo; a partir de entonces, incluso las personas con ingresos modestos podían disfrutar de una movilidad impensable incluso para los millonarios de cincuenta años antes.

auto antiguo de 1894

Una revista francesa patrocinó en 1894 una carrera para vehículos automáticos de Varis a Ruán. Los vencedores fueron dos vehículos de gasolina de las firmas Panhard.A consecuencia de esta carrera, la industria accedió a respaldar financieramente a los inventores.

El tendido de cables: Samuel Finley Bréese Morse, artista e inventor norteamericano, produjo la primera aplicación práctica masiva de los impulsos electromagnéticos, al inventar el código Morse en 1837. Siete años más tarde envió un mensaje instantáneo que rezaba: “¡Lo que hubiera fraguado Dios!”, por una linea telegráfica que iba de Baltimore a Washington D.C. ¿Qué quería decir con ello? Se trataba de una expresión de admiración respetuosa. Para la época, el telégrafo era una novedad inimaginable, tan importante y sorprendente como es hoy Internet. Los cables no tardarían en extenderse en todas direcciones por los países industrializados de Europa occidental y Norteamérica, para llegar luego a las más remotas regiones del globo.

Hablar por teléfono: Alexander Graham Bell, un terapeuta de la fonoaudiología, se interesó en el sonido y la comunicación junto con la tecnología telegráfica (consultar la sección anterior sobre el telégrafo), y construyó un teléfono experimental en 1876. Bell, inmigrante escocés a Estados Unidos, produjo y comercializó los aparatos y fundó además Bell Telephone Company. A comienzos del siglo veinte el teléfono no era ya una novedad y se había tornado en una comodidad diaria.

El envió de ondas radiofónicas: A finales del siglo diecinueve, Guglielmo Marconi, inventor italiano, demostró que las ondas de radio podían servir para enviar señales sin necesidad de cables. Los escépticos pensaban que las ondas de radio no podían recorrer distancias lo suficientemente grandes para ser de utilidad. Marconi, que vivía y trabajaba en Inglaterra, probó que estaban equivocados enviando una señal en código Morse a 14,5 kilómetros de distancia, a través del canal de Bristol. En 1901 envió una señal a mucho mayor distancia: a través del océano Atlántico, desde Cornualles (situada en la punta suroccidental de la principal isla de Inglaterra), hasta Newfoundland, en Canadá. Marconi ganó el premio Nobel de física en 1909.

Los Zepellin: Durante mucho tiempo —quizá miles de años— los hombres han soñado con poder volar. En el siglo XVIII empezaron a hacerlo: los hermanos Montgolfier realizaron su primera ascensión en globo en 1783. Durante muchos años, los únicos agentes capaces de elevar el artefacto eran el aire y el gas calientes producidos al quemar materiales directamente debajo del globo, de ahí que se los llamara «globos de aire caliente».

En el siglo XIX, las «máquinas más ligeras que el aire» (una denominación curiosa, puesto que en realidad eran más pesadas, y lo único más ligero era el agente elevador) empezaron a utilizar gases como el hidrógeno, que no necesitaban calentarse. El tamaño y la forma de los aparatos fue cambiando, ya que se pretendía que sirvieran para algo más que el mero flotar a capricho del viento. Los primeros «dirigibles» verdaderos —es decir, aparatos que se podían guiar— aparecieron cuando surgió el motor de combustión interna y pudieron abandonarse los extravagantes experimentos realizados hasta entonces con grandes remos e incluso velas. (Ver: Historia de los Zepellin)

Primeros Vuelos en Aviones: (Ver: Los Hermanos Wright)

globo zepellin

El dirigible Zeppelin Sachsen aterrizando en el aeropuerto de Mockaa en 1913.
Estas aeronaves funcionaban con hidrógeno, un gas muy inflamable, con constante riesgo de incendio.

Fuente Consultadas:
Todo Sobre Nuestro Mundo Christopher LLoyd
HISTORAMA La Gran Aventura del Hombre Tomo X La Revolución Industrial
Historia Universal Ilustrada Tomo II John M. Roberts
Historia del Mundo Para Dummies Peter Haugen
La Revolución Industrial M.J. Mijailov

Historia de la Industria Aeronáutica Argentina Pucará, Pampa

AVIONES A REACCIÓN ARGENTINOS: PUCARÁ, PAMPA, PULQUI I Y II

Luego de que la industria aeronáutica sufriera varias derrotas en lo económico, estratégico y político, resulta difícil imaginar que la Argentina haya ocupado el sexto puesto a nivel mundial en la construcción de aviones de reacción con tecnología propia. Sin embargo, la industria aeronáutica supo ser una pujante industria motorizada por una política que consideró a las actividades técnico-científicas como recurso estratégico para el país.

En 1912, juntamente con la creación de la aviación militar, algunos civiles enamorados de estas máquinas, movidos por el fervor y la pasión de sus sueños, comenzaron tímidamente y con escasos recursos el montaje de talleres aeronáuticos de donde surgieron atrevidas construcciones de aeroplanos. Durante ese período se elaboraron montantes, costillas, alas y fuselajes completos, que se tradujo en la fabricación de aeronaves completas para la exportación al Uruguay.

Su nombre significa flecha en lengua mapuche y hace alusión al original diseño de sus alas. Su fin militar era el de un caza interceptor. La construcción del Pulqui fue de gran importancia como medio de estudio para el diseño de otros aviones a turbina que culminó en la producción del “Pampa” en 1980. Cuando se construyó el prototipo la fábrica tenía alrededor de 15.000 empleados.

Pero la base de la industria aeronáutica argentina se consolida con la creación de la Fábrica Militar de Aviones en 1927 de la mano del talentoso Ing. Aer. My. Francisco de Arteaga en la ciudad de Córdoba. Allí se construyeron, años después, una gran cantidad de aviones como los emblemáticos Calquín, Huanquero, Guaraní-GII, Pucará, Pampa, como así también los motores a partir de los lingotes de metal provistos por nuestras fábricas metalúrgicas. Para ello, el Ejército y la Marina de Guerra enviaron, además de civiles, a numerosos oficiales a Europa y EE.UU. para capacitarse en afamados institutos aerotécnicos. De este modo, se fue forjando un nutrido grupo de especialistas que dieron sus frutos de acuerdo a una acertada política de incorporación a las actividades técnico-científicas: la pujante industria aeronáutica de entonces y la colaboración (vislumbrada estratégicamente) universitaria.

Naturalmente, esta política no convenía a los intereses extranjeros, que desencadenaron una campaña sistemática contra la industria nacional, aprovechando cualquier incidente aeronáutico para crear un estado de incomprensión. Esta fábrica se vio en la necesidad de reforzar aún más la fabricación de aeronaves enteramente nacionales, a tal punto que las aeronaves militares eran proporcionadas a pilotos civiles para su instrucción demostrando así la valía del producto argentino.

Todas las aeronaves fueron diseñadas y construidas con materiales propios y personal argentino especializado, prescindiendo entonces de regalías y licencias, que sin embargo todavía eran necesarias para la fabricación de los modelos extranjeros. Habida cuenta de todos esos progresos alcanzados, la industria aeronáutica nacional llegó a un estado de madurez avanzado que permitió a dicha fábrica transformarse en un centro experimental aerodinámico y de construcciones, a la par de los institutos de Italia, EE.UU., Inglaterra, Francia y Alemania. Precisamente, se apuntaba a lograr la independencia tecnológica.

Con este impulso, se funda en 1943 el Instituto Aerotécnico, que abre una nueva página en la historia de la aviación argentina con la creación en 1947 del Pulqui I y el Pulqui II, el primer avión de reacción, de diseño propio producido fuera del grupo de las grandes potencias. Del Pulqui II se llegaron a fabricar 5 unidades prototipo que se convirtieron en los primeros aviones de reacción para combate en el continente, anticipándose incluso a los F-86 de EE.UU. de iguales características.

La “fábrica”, como se la llegó a denominar con el correr de los años, adquirió reconocimiento internacional colocando a la Argentina en el 6to. puesto a nivel mundial en materia de aviones de reacción con tecnología propia después de Alemania, Inglaterra, Estados Unidos, Rusia y Francia. Dichos avances tuvieron como telón de fondo al primer y segundo gobierno peronista que con el apoyo de destacados profesionales argentinos (ingenieros, proyectistas, dibujantes, técnicos, operarios, y otras especialidades), contrata a técnicos y científicos alemanes, italianos y franceses para desarrollar la industria aeronáutica y también la investigación nuclear.

Movido por sus aspiraciones de crear un automóvil nacional, Perón funda en 1951 la Fábrica de Motores y Automotores (FMA), y al año siguiente el Instituto Aerotécnico es reemplazado por las Industrias Aeronáuticas y Mecánicas del Estado (IAME) y quedan unidas ambas especialidades, aeronáutica y automotores, aprovechando de este modo la enorme experiencia de la primera para aplicarla a la industria de vehículos. Así, de la mano de la aeronáutica, surge una industria automotriz enteramente nacional a cargo de la división mecánica con sede en dos Plantas de Córdoba, donde también se radicaron la IKA (Industrias Kaiser Argentina) y FIAT (Fábrica Italiana de Automotores de Turín).

Luego, el gobierno de la Revolución Libertadora desmiembra la IAME reemplazándola por la DINFIA de aeronáutica por un lado, y a la FMA dedicada exclusivamente a la fabricación de motores para vehículos terrestres por las Industrias Mecánicas del Estado (IME), clausurada en 1979 por el entonces ministro de economía Martínez de Hoz.

La DINFIA, rebautizada con el correr de los años como Fábrica Militar de Aviones (FMA) es privatizada en julio de 1995 por el entonces presidente Menem, quien otorgó la concesión y explotación de dicha fábrica a la empresa estadounidense Lockheed Martin Aircraft. Estos últimos hechos conformaron el golpe de gracia definitivo a la Industria Aeronáutica Nacional y Automotriz.

Una dirigencia de muy bajo vuelo
La industria aeronáutica argentina sufrió hasta hace algunos años varias derrotas desde lo económico, estratégico y político, muchas de ellas intencionales a primera vista:

-El Estado Argentino eligió “incomprensiblemente” como socio a la empresa estadounidense LTV para la provisión de aeronaves IA-63 Pampa equipadas con turbinas Garret TFE731, asiento eyectable y sistema de emergencia RAT para ese país. Resultó que dicha empresa estaba bajo la Enmienda Americana de quiebra. Las ilusiones de los ingenieros argentinos, el Proyecto Nacional y los U$ 400 millones del programa fueron a parar a la basura.

-La Real Fuerza Aérea Neozelandesa y la Fuerza Aérea Australiana, convencidos de las bondades del Iae-63 Pampa deciden su compra, pero debido al poco crédito otorgado por nuestro país optaron por comprarle a Italia. No eran mejores, pero ofrecían ventajas firmes de pago.

-En 1982 surge el proyecto “Cóndor”, basado en su antecesor “Castor”, para construir un cohete que permitiría evaluar los recursos naturales propios. El gobierno de Alfonsín finalmente decretó su desmantelamiento y desarme por “falta de recursos financieros, y la necesidad de recibir algún crédito puente del FMI o del tesoro de los EE.UU.”

-El CBA-123 fue el proyecto conjunto firmado entre Argentina y Brasil en 1987 para producir una aeronave turbohélice de 19 pasajeros y velocidad superior a 600km/h. Su costo de inversión se calculó en U$ 300 millones de los cuales la empresa brasileña Embraer aportaría U$200 millones y U$100 millones la Fábrica Argentina de Material Aeronáutico (FAMA).

Cada avión costaría U$ 4,5 millones, y hubo 127 pedidos formales tras su presentación en una exposición en Francia. En 1989 la FMA le comunica a Embraer la imposibilidad de la entrega de los materiales en tiempo y forma, Brasil reduce la participación argentina al 20% pero aún así la Argentina no terminó de entregar los volúmenes de producción previstos. Debido a la falta de interés nacional de parte del gobierno argentino, Embraer decidió ofrecer el proyecto a bancos extranjeros en busca de apoyo financiero porque estaba convencida del amplio mercado internacional que tendría el CBA-123. Así la Argentina quedó fuera del programa de fabricación conjunta.

-En julio de 1995 la Lockheed Martin Aircraft SA (Lmaasa), el mayor contratista de armas del Pentágono con un volumen de negocios de U$20.000 millones anuales, adquiere las instalaciones de la FMA de la mano de la firma del ex presidente Carlos Menem. Esta privatización incluyó también el compromiso de comprar a través de Lmaasa 36 aviones modelo A-4M a la marina de EE.UU. Se prometió la formación de “un excepcional centro de mantenimiento” que “captaría el 30% del mercado con una proyección de creación de hasta 10.000 puestos de trabajo”.

Dos años después, el entonces presidente Menem afirmaba que Lmaasa construiría allí un centro espacial internacional para llegar al Japón en minutos. Sin embargo, el plantel de trabajadores se redujo de 2000 a 900 a poco de concretarse el traspaso y con la amenaza de reducción del plantel a la mitad si el Estado no le firmaba a Lmaasa un nuevo convenio por U$ 230 millones a 5 años y una supuesta deuda de U$ 47 millones. Dicha empresa llegó a darse el lujo de cerrar sus instalaciones por 5 días hasta tanto el gobierno no le firmara un contrato hasta 2007. Los apologistas de turno dijeron maravillas: “…que se redujo la asignación estatal de U$230 millones en 5 años a sólo …U$210 millones”, y que el Estado “antes se hacía cargo del costo total por 12 aviones Pampa, y en cambio ahora los gastos serían 50 y 50…”.

Finalmente la Lmaasa no fabricó nada, sólo reparó aviones con subsidios del Estado Argentino en forma de contratos, y redujeron al 55% el personal. Actualmente se dedica sólo a la re-ingeniería de los AT-63 Pampa.

¿Qué dirían hombres de la talla de De Arteaga, Juan Ignacio San Martín, Taravella, Ruíz, Weiss y tantos otros anónimos que contribuyeron con su esfuerzo a consolidar a la F.M.A.?. Hoy día, toda denuncia de esta increíble estafa no es más que un grito en el desierto, convirtiendo aquella pujante FMA en un recuerdo del pasado.

Fuente:
Sitio WEB SABER COMO… del Instituto Nacional de Tecnología Industrial (conocer el sitio)

Adaptación de “Industria Aeronáutica Argentina” por Horacio A. Benítez

Los Satélites Artificiales Argentinos Historia Plan Espacial

HISTORIA PLAN ESPACIAL DE ARGENTINA

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio. Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos. En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

Mono Juan Enviado al Espacio Por Argentina, Murió en el zoologico de Córdoba.

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio. El tripulante, de la especie caí, había nacido en
Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja. Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal. En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD
A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas. En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos. Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones. La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas. El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social. El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información. La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos. La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES: La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida. En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre. Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó. En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador. Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite. Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento. Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta. En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete. El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:
Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro. Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica. Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se creala Sociedad Argentina Interplanetaria, la primera en América latina, en 1949. Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II. Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro “La Ciencia Argentina”, explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II. Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario. La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B. Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita. En febrero 1994, el New York Times se refería a la empresa argentina como “una pequeña versión argentina de una compañía de Silicon Valley” y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial “Argentina en el Espacio 1995-2006”. Varotto cuenta que este programa “fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo”. Y agrega: “Se decidió concentrar los recursos en ir arriba para mirar para abajo”. El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, “contribuya a la optimización de actividades de determinadas áreas socio-económicas”. Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

SATÉLITES SAC-A Y SAC-B
La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita. Mejor suerte tuvo la misión SAC-A, que se concretó en 1998. El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C
Argentina en su Plan Espacial Nacional – “Argentina en el Espacio 1995-2006” , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae). Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de “proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes”.

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7. Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales. Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la Conae llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino. Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites. El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la Conae- y varias empresas del país, que son las que construyeron el satélite. El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP. Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane
Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas. El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la “sugerencia” de EE.UU.
Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.
Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990. Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat). Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio. El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales. Fabricó el “bus”, o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE. Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina. A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche. De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica. Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre d 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia. La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales. El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
“La Ciencia Argentina” de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario “La Nación”

Beneficios de la Era Espacial Mejoras Para La Sociedad

PRIMEROS AVANCES  TÉCNNICOS APLICADOS A LA SOCIEDAD

Cuando en 1969  descendió sobre la superficie de la Luna,  el famoso módulo Lunar del Apolo XI, dirigido por Armostrong y Collin  su país había  invertido unos 30.000 millones de dólares en programas espaciales; y el esfuerzo soviético seria ,sin dudas, equivalente. ¿Cuáles son las ventajas concretas de tan tremendo esfuerzo? Haremos abstracción de las inmensas posibilidades científicas, para exponer lo que ya se ha conseguido en el campo de la práctica.

Primeros Logros Científicos Aplicados a la Sociedad

Los satélites técnicos. — Antes del Telstar, América y Europa estaban unidas por 343 líneas telefónicas. Este satélite podía retransmitir 300 comunicaciones simultáneas, y los que se proyectan podrán transmitir en dos segundos todo el contenido de un diario.

Los satélites meteorológicos, como el Tiros, permitieron ganar, mediante sus. microondas de rayos infrarrojos, 48 horas en la previsión de los tornados;   además,   economizan   muchos   traslados   inútiles de rompehielos al indicar la ubicación de los campos helados, y, accesoriamente, informan sobre los incendios de bosques. Los satélites de tipo Transit, por su parte, permiten a barcos y submarinos establecer su posición muy rápidamente con un error de menos de 500 metros.

Ver: Los Satélites Artificiales

La miniaturización. — La necesidad de obtener productcs eficaces y livianos y los inmensos créditos disponibles, han sido un latigazo para la industria que produjo ya 3.200 sustancias nuevas con este objeto. Después del perfeccionamiento de los transistores se llega a los circuitos integrados, que permiten acumular una increíble cantidad ce sistemas electrónicos en el volumen de una caja de cerillas.

Una de las técnicas consiste en depositar en el vacío una película metálica de extrema delgadez, a fin de obtener redes interconectadas; otra, ejecuta el circuito complete sobre el minúsculo grano que constituye la cabeza del semiconductor, Gracias a estos circuitos integrados se pudo transformar toda la técnica de las calculadoras electrónicas: existen ahora (1970) computadoras que sólo pesan 8 kilos para una memoria de 16.000 signos, y se calcula que su costo futuro se reducirá a la quinta parte del actual. (Las computadoras invaden la industria y el comercio, y los soviéticos calculan que dentro de 20 años necesitarán un millón de operadores adiestrados para calculadoras.)(ver: microprocesador electronico)

Entre las aplicaciones a la vida cotidiana citemos el radar en miniatura para ciegos, que les permite “oír” los obstáculos, fijos o móviles, por resonancia, un poco a la manera  de   los  murciélagos que emiten chillidos  ultrasónicos.

Ver: La Evolución de las Microcomputadoras

Nuevos materiales. — Aquí no hay nada absolutamente original, pero las exigencias son mucho más severas. Se trata, en efecto, de obtener materiales extremadamente livianos pero de gran resistencia mecánica y térmica. Los nuevos aceros a base de cromo, molibdeno y vanadio, como el Vascojet 1.000, son casi tres veces más resistentes que los aceros clásicos.

El berilio ha entrado en la industria porque, siendo apenas más pesado que el magnesio, es tan rígido como el molibdeno, tan refractario como el titanio, tan resistente a la oxidación como el aluminio y soporte admirablemente la corrosión; sus inconvenientes más graves son su toxicidad y su extrema fragilidad.

El berilio es indispensable en la industria nuclear porque casi no atrae los neutrones, y en la astronáutica, para las ojivas que protegen la nave cuando vuelve a penetrar en la atmósfera; además se lo utiliza para construir giróscopos de gran estabilidad dimensional y considerable rigidez, y como ventana transparente en los aparatos de rayos X. Este año, un coche construido con berilio participó en la célebre carrera de automóviles de Indianápolis.

También se ha perfeccionado el titanio para su uso en la cápsula Mercury y se lo emplea ya en el tren de aterrizaje del Boeing 727, así como para la fabricación de recipientes de hidrógeno líquido. Para soldar los materiales refractarios que emplea la astronáutica hubo que perfeccionar un soplete que emite electrones de alto poder y permite soldar uniones que resisten temperaturas de 1.700°C. Por su parte, los hornos utilizan el pirografito perfeccionado, que se empleó por primera vez en astronáutica.

Energía. — La astronáutica permitió perfeccionar la pila de gases, que transforma directamente la energía química en eléctrica. El rendimiento de las baterías solares se ha multiplicado por 300 y su uso en la superficie terrestre ya puede ser redituable. El hidruro de litio, como reserva de hidrógeno, tendrá, con seguridad, muchas aplicaciones en la industria. Y por último, se encara ya seriamente la realización del famoso motor a eyección de iones de cesio, cuyo poder y posibilidades son inmensas.

Medicina. — Para mejor control de los cosmonautas se construyeron aparatos que permiten mediciones fisiológicas continuas. También se fabrican ahora simuladores cardíacos, munidos de baterías especiales, que han salvado ya muchas vidas humanas, y que, al ser portátiles, podrán permitir al paciente una existencia casi normal.

Para los viajes espaciales largos se estudia y perfecciona la hibernación, consistente en disminuir la temperatura y dejar al paciente en estado de vida latente: cada adelanto que se logra es inmediatamente utilizado en cirugía. Por último, se han creado sustancias químicas que procuran proteger el organismo del cosmonauta de las radiaciones peligrosas y, de esta manera, amplían el campo de los medicamentos antirradiactivos.

Ver: Lo últimos avances en medicina

Fuente Consultada:
TECNIRAMA N°11 Enciclopedia de la Ciencia y la Tecnología – La Astronaútica –

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del “empleado bancario” ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos “bigotes” de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla

HISTORIA Y EVOLUCIÓN DE LA CORRIENTE ELÉCTRICA

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el “príncipe de los experimentadores”. Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que un unan. girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar. Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: “Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética“. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad.

En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las “resplande cientes herraduras que brillaban dentro de los globo en forma de peras”.

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno yj consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

La Corriente alternada
Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  “impulsar” a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

 

Historia de la Produccion en Serie La Cadena de Montaje

CADENA O LÍNEA DE MONTAJE
Cuando pudieron hacerse formas metálicas exactamente iguales, fue lógico pensar en ellas como piezas intercambiables.

Eli Whitney fue quien por primera vez montó piezas intercambiables como un nuevo método de fabricación. Se pudo hacer las piezas en un lugar y luego armarlas en otro. Whitney pensó que en esta forma los productos manufacturados podrían producirse en cantidad mayor con más rapidez y a menor costo.

Ely Whitney

En los primeros años de su juventud, Whitney se ganó la vida batiendo clavos en un yunque. Nunca podía dar a los clavos formas exactamente iguales. Años después, cuando ya había inventado la desmotadora de algodón, en una ocasión en que observaba cómo con un martillo pilón se hacían miles de clavos idénticos, se convenció de que las máquinas tendrían que sustituir a la mano del hombre.

Por esa época, en 1789, Francia estaba en plena revolución, y los Estados Unidos temían que su mejor amiga pudiera volverse contra ellos. Se necesitaban fusiles para la defensa de las costas de América. Para fabricarlos a mano se requerirían años. No es de extrañar que el Departamento de Guerra se alegrase cuando Whitney propuso entregar 10.000 mosquetes en el término de dos años al bajo precio de $ 13,40 cada uno. Se celebró contrato con Whitney, adelantándole una suma para que comenzara la fabricación.

El joven inventor, sin embargo, tropezó con gran dificultad para encontrar hombres que poseyeran la pericia mecánica necesaria para hacer las máquinas cortadoras que reemplazasen al viejo martillo, el escoplo y la lima. Al igual que antes Watt, Whitney tuvo que hacerse las herramientas requeridas y adiestrar en el manejo a los obreros que él tomaba en las fundiciones y talleres de maquinaria.

Su primera tarea fue construir un elemento mecánico que reemplazara a las, manos humanas en la aplicación y dirección del movimiento de un instrumento cortante. No había maquinistas cuyas manos fuesen suficientemente firmes o fuertes como para sostener un instrumento de raspado contra una pieza de hierro que gira más de unos pocos minutos cada vez.

Se necesitaba una presión constante y exacta. Resolvió el problema con una especie de plantilla mecánica, que viene a ser un molde de madera o metal, a lo largo del cual se mueve una herramienta que hace piezas iguales.

Cada pieza del mosquete se sujetaba en una posición prefijada antes que las fresas la cortaran. De esta manera se repetía cada una con precisión absoluta. No sólo se empleaban piezas uniformes, sino que los bancos de trabajo se ubicaban de manera que las piezas pudieran pasarse de un obrero al otro.

La fábrica se dividía en departamentos, cada uno con su máquina especial unida por correa a un eje que impulsaba y hacía todas las herramientas cortantes.

Con esto la fábrica ya estaba preparada para ponerse en marcha, y todas las máquinas comenzaron a trabajar al mismo tiempo. Una máquina daba forma a la caja de madera del fusil, con sus superficies planas y curvadas. En hojas metálicas se hacían agujeros en lugares precisos, a fin de que sirviesen de guías para la producción en masa de trabajo de perforación.

Con grapas se sujetaban hojas metálicas contra los bancos, mientras las fresas las cortaban. Interruptores automáticos-detenían la acción de la herramienta. El mecánico sólo necesitaba agrapar las barras metálicas, las cuales eran cortadas, cepilladas, conformadas, taladradas, lustradas y esmeriladas automáticamente.

Los obreros solamente tenían que reunir las diversas piezas y llevarlas a la sala de montaje, donde se armaban los fusiles en tiempo record.

Finalmente, se dispuso de una forma de producir grandes cantidades de materiales con la rapidez, la uniformidad y la precisión que ningún artesano podía lograr individualmente.

Comienza la producción en masa
En este tiempo las avanzadas de pobladores y colonizadores de zonas lejanas estaban en plena marcha hacia el oeste de los Estados Unidos. Había que preparar las fronteras (que es como se llamaba a los límites entre civilización y regiones incultas) y construir viviendas.

El hacha era la herramienta predilecta del pionero. Pero éste a menudo tenía que esperar meses a que el herrero le forjara un hacha. Cada mango exigía un tallado cuidadoso. Cada hoja de hacha requería un largo y lento proceso de templado y pulimento.

Lo que Whitney había hecho para el fusil, otros entusiastas de la mecánica lo aplicaron al hacha. Las fábricas las hicieron a millares. Se colocaban en tambores giratorios y pasaban por las llamas de un horno en un proceso de calentamiento uniforme. Luego un martinete de fragua les daba rápidos golpes sucesivos, que hacían perforaciones de una medida exacta, por donde entrase a la perfección el mango.

De la noche a la mañana dejaron de faltar hachas. Corrió si se tratase de celebrar la intensificación de la producción fabril, empezaron a salir en cantidad los relojes de las fábricas. Con máquinas se perforaban miles de piezas por día y se montaban tan rápidamente que todo el mundo pudo tener reloj por muy bajo precio.

El hecho de que las máquinas pudieran hacer cosas mejores y con mayor rapidez produjo una conmoción creciente que todo lo inyadió. Elias Howe descubrió la parte esencial de la idea de una máquina de coser un día en que puso el ojo de una aguja en la punía en lugar de la cabeza.

De esta manera fue posible hacer que el hilo atravesase la lela sin necesidad de que la aguja la pasase de lado a lado. Otro hilo que salía de una lanzadera pasaba por dentro del lazo. Cuando la primera aguja retrocedía nuevamente, con un punto de cadeneta se apretaban los dos hilos. Esto resultó cien veces más rápido que coser a mano.

Singer introdujo mejoras. Mediante un pedal consiguió que las manos de la costurera quedasen libres y pudiesen guiar la tela. Se dio a la aguja movimiento vertical, subiendo y bajando, en vez de moverse Imrizontalmente como la aguja de Howe.

Al poco tiempo la máquina de coser pasó del hogar a la fábrica. La producción en masa hizo bajar los precios. Todos pudieron adquirir desde entonces mi traje nuevo, un vestido nuevo. Las máquinas construyeron nuevas máquinas despúes de cada nuevo invento. La lenta salida de los productos manufacturados, parecida a un goteo se transformó en un diluvio.

PARA SABER MAS…
Cadena de Montaje en Ford

La producción dependió de la rapidez con que el hombre pudiese servir a la máquina. En la línea de montaje, cada hombre agregaba una pieza al armazón desnudo que iba avanzando por esa línea. A medida que el magneto, por ejemplo, se desplazaba sobre un medio transportador, los hombres le añadían algo cada uno, hasta que finalmente salía terminado al cabo de trece minutos. Levantando el transportador del magneto veinte centímetros, para que los hombres no tuvieran que agacharse, el tiempo disminuyó a siete minutos. Imprimiendo al transportador un poco más de velocidad, ese tiempo se redujo a cinco minutos.

Con métodos similares, en la línea del ehassis se redujo el número de estaciones, hasta que fue sólo de cuarenta y cinco, y de la última operación salía el auto armado. Fue éste un ejemplo sensacional del método nuevo de producción. En 1915, un coche se terminaba en noventa y tres minutos. Una década después, luego de haberse vendido 16 millones de automóviles del modelo T, cada quince minutos salía un coche nuevo. Lo más sorprendente de todo es que el precio se pudo reducir de 850 a 295 dolores.

Frederick Taylor fue el primero que concibió la idea de que el propio hombre pudiera convertirse en un mecanismo. Taylor es el ingeniero que descubrió un acero de aleación nueva capaz de cuadruplicar la velocidad de las herramientas cortantes. Imaginó que el propio hombre podía llegar a ser igual de eficiente que una máquina si se eliminaban movimientos superfluos. Utilizando un cronógrafo, determinó el tiempo que tardaban distintos obreros y el que se requería en distintos movimientos para concluir una operación.

Otros ingenieros siguieron estudiando los movimientos de los obreros con el propósito de llegar al máximo de producción posible por minuto. Todos estos estudios sobre la forma de lograr que las piezas y los materiales saliesen en forma uniforme y fija; con la velocidad mayor con que las máquinas pudieran producirlas, desembocaron en una sorprendente conclusión: nunca se conseguiría que el hombre fuese una máquina eficiente.

Ver: Henry Ford y su Producción

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer “la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en “V”, puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en “V”, grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en “V”, el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en “V” próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación “vuela” sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en “V”, la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Barcos de Cemento y Prefabricados en la Segunda Guerra

BARCOS CONSTRUIDOS EN SERIE EN LA SEGUNDA GUERRA MUNDIAL

Durante la segunda guerra mundial, la flota mercante aliada sufría pérdidas increíbles bajo la acción del arma submarina y aérea del Eje. La defensa era lenta e incapaz y un dilema se presentaba inexorable: si se seguía construyendo barcos mercantes con los sistemas clásicos, pronto no habría con qué reponer las pérdidas. La urgencia era dramática.

Así surgió el famoso “Liberty”: barco mercante criticado y subestimado, sobre todo por los ingleses, pero que cumplió con el cometido a que fue destinado.

Barco Carguero “Liberty”

El “Liberti” fue el primero de los cargueros fabricado» en gran serie y con partes completamente prefabricadas. Infinidad de grandes piezas se estampaban con enormes balancines y se armaban en lugares alejados del astillero, siendo transportadas hasta éste por ferrocarril. Sin embargo, la soldadura autógena y la eléctrica fueron las que en mayor grado salvaron la situación.

Es cierto que los astilleros alemanes fueron los primeros en usar la soldadura y lo hacían desde mucho antes de la guerra, pero el método no estaba difundido en la industria naviera americana. Así se llegó a fabricar hasta dos “Liberty” diarios. Lo cierto es que aquellos barcos, aceptados por los técnicos de la época sólo en ese “caso de emergencia”, todavía hoy están en servicio.

La industria naviera alemana llegó a fabricar sus torpederos y submarinos ya no como naves sino como simples estructuras producidas en fábricas lejos aun hasta de la costa del mar. En los Estados Unidos, Holanda y Alemania se construyeron naves de tonelaje menor con la quilla hacia arriba; luego eran “volcadas” y botadas de costado. Una rareza notable la constituyeron los llamados “barcos de cemento”. Estas naves estaban construidas en su mayor parte (casco y cubierta) de cemento armado.

La construcción parecía reunir todas las ventajas; era barata, consumía mucho menos hierro, metal precioso en tiempo de guerra; se moldeaba en forma práctica, era relativamente más liviana, y de muy fácil reparación; completamente inoxidable, y prácticamente estaba a salvo de la terrible mina magnética. Pero contra todas las ventajas que le auguraban un gran porvenir “el barco de cemento”, después de algunas pocas construcciones, desapareció. Sólo fue un intento más en la carrera hacia la perfección de la industria naviera.

Barco de Cemento

Muchísimos pequeños adelantos técnicos solucionan hoy, con asombrosa facilidad, lo que ayer representaba problemas de mano de obra y de lenta realización. Sabido es que terminar y recubrir los interiores de un lujoso transatlántico, decorarlo, pintarlo, equiparlo de los miles pequeños elementos que requiere esa ciudad flotante, en fin, vestirlo y acondicionarlo con el confort requerido, era trabajo caro y lento.

Pero los plásticos en todas sus formas, láminas, moldeados, tubos, etc., maderas sintéticas, metales livianos, los adhesivos, los acríbeos y las resinas sintéticas, han llegado también en ayuda de los realizadores de esta parte de la nave.

Aviones Convertibles Primeros Modelos y Tipos

INTRODUCCIÓN: El día 2 de noviembre de 1954 constituye un hito en la historia del aeroplano. Dicho día, en la base de pruebas de la casa Convair, el piloto J. K. Coleman realizó el primer vuelo en un avión que despegó verticalmente desde su posición de partida, basculó en el aire, voló horizontalmente a más de 800 kilómetros por ahora y aterrizó de nuevo en posición vertical hasta quedar apoyado sobre la cola.

El Faire-Rotodyne, convertible para pasajeros, de velocidad superior a los 300 kilómetros por hora.

El avión era un monoplano de ala en delta Corvair XFY-1 equipado con un turbopropulsor Allison de 5.500 HP. Dos hélices tripalas contrarrotativas proporcionan, junto con el empuje del chorro del reactor, la fuerza de sustentación necesaria para el despegue vertical. Se trata de un nuevo tipo de avión, que los norteamericanos designan VTOL (Vertical Take oíi Landing: despegue y aterrizaje vertical) y que en Europa se conoce por «convertible».

En el año 1950, con ocasión de la guerra de Corea, el Gobierno de los Estados Unidos se dio cuenta de la necesidad de disponer de aviones de caza capaces de despegar en cualquier clase de terreno, sin necesitar aeródromos y pistas de aterrizaje.

En efecto, el peso cada vez mayor de los aviones de caza obligó a hacer pistas y campos de aterrizaje de mayor extensión y resistencia, y, por otra parte, el terreno montañoso no ofrecía lugares a propósito para la instalación de tales campos y pistas. Asimismo había que pensar en aviones de caza capaces de despegar de la cubierta de los buques de guerra y de transporte y que pudiesen aterrizar de nuevo en ellos, evitando tener que acompañar las escuadras y convoyes con costosos y vulnerables portaaviones.

A partir de dicho año los proyectos se suceden, la mayoría irrealizables por fantásticos; pero algunos ofrecen posibilidades constructivas, y al cabo de cuatro años se consigue que vuele el primer «convertible».

Qué se entiende por avión convertible:

Un avión convertible es un avión capaz de despegar y aterrizar como un helicóptero, es decir, verticalmente, y una vez alcanzada la altura suficiente, volar como un avión.

Aunque el helicóptero resuelve muchos problemas, como son los del salvamento en zonas difíciles de acceso, vigilancia y enlace, así como transporte del aeropuerto al centro urbano y de ciudad a ciudad con helicopuertos centrales, las misiones de tipo militar, en campaña, quedan limitadas en estos aparatos por su reducida velocidad.

En dos décadas de desarrollo el helicóptero sólo ha alcanzado una velocidad máxima de 251 kilómetros por hora (récord mundial, septiembre de 1953, helicóptero Sikorsky XH-39, piloto Wester, de los Estados Unidos), y no es previsible ni probable que llegue a alcanzar nunca las velocidades sónicas, ya alcanzadas y hasta rebasadas por algunos tipos de aviones de caza.

El 5 de enero de 1959 el Fairey-Rotodyne, primer convertible comercial para pasajeros, ya logró alcanzar en sus vuelos de ensayo los 307 kilómetros por hora sobre un circuito de 100 kilómetros, batiendo con ello la marca de velocidad máxima alcanzada por los helicópteros.

Si motivos militares son los que han impulsado el rápido desarrollo del convertible, no debe olvidarse el problema de la seguridad, que queda ampliamente resuelto con este tipo de avión. Por consiguiente, no deberá extrañar que, una vez puestos a punto los convertibles militares, se construyan paralelamente los convertibles civiles, tanto para el transporte de viajeros como para el turismo o el avión particular.

Tipos de aviones convertibles:

Los convertibles se clasifican en tres grandes grupos:
1.° Los que disponen de rotores, hélices o reactores distintos para la sustentación como helicópteros y para la propulsión como aviones.
2.° Los que tienen un mismo rotor, hélice o reactor para la sustentación y la propulsión, y el eje del propulsor ha de girar 90° al pasar de una a otra clase de vuelo.
3.° Los que se sustentan y avanzan sobre una columna de aire creada por sus elementos propulsores. Son las plataformas volantes.

En el primer grupo, los aparatos reúnen las características del helicóptero combinadas con las del aeroplano: alas y hélices o reactores de avión para el vuelo horizontal, y rotor de helicóptero o reactores para el vuelo vertical. La ventaja principal de estos convertibles estriba en la seguridad de su pilotaje, ya que el paso de vuelo helicóptero al vuelo avión es continuo, conservando siempre el mando del aparato. El grupo primero se subdivide en tres subgrupos:

a)    Los convertiplanos cuyo rotor de despegue se para en el vuelo horizontal, de manera que las palas ofrezcan una resistencia mínima al avance.
b)    Los convertiplanos en que las palas del rotor de sustentación vertical se colocan de manera que en vuelo horizontal actúan como las alas fijas de los aviones normales.
c)    Los combinados de avión y helicóptero, es decir, los helicoplanos o helicópteros combinados, con fuselaje y alas de avión provisto de rotores sustentadores.

Entre los proyectos correspondientes al grupo primero, subgrupo a), destaca el convertiplano de Wilford, con rotor monopala contrapesado, de propulsión por reacción, a tase de chorro de gases comprimidos por el motor y eyectados e inflamados en el extremo acodado de la pala.

En el subgrupo b) merece citarse el convertiplano de Herrick, HV-1, que realizó sus primeros ensayos en 1931, prosiguiendo sus estudios en años posteriores (el HV-2 voló en 1937).

avion convertible herridyne

Modelo norteamericano «Helidyne», convertible, con dos rotores coaxiles y dos motores para vuelo horizontal. Ofrece, en su conjunto, las ventajas del helicóptero, el autogiro y del avión clásico.

Convertiplano de Herrick. Es un biplano con una ala fija y otra giratoria, a voluntad, dotada de turborreactores en sus extremos. Para el despegue y aterrizaje el plano superior actúa como un rotor de helicóptero; este rotor se convierte en plano cuando navega en vuelo horizontal.

El subgrupo c) está formado por los helicópteros «combinados», de los cuales constituye un precursor el autogiro español La Cierva, cuyos primeros vuelos datan del año 1923. El notable ingeniero Juan de la Cierva, con su revolución genial de la articulación de las palas del rotor y el descubrimiento del fenómeno de autogiración, hizo posible el desarrollo posterior del helicóptero y, como consecuencia, el del convertiplano.

Como se sabe, el autogiro primitivo era un avión de alas reducidas en las que una hélice tractora proporcionaba la velocidad suficiente para que el rotor entrase en autogiración, suministrando la fuerza de sustentación necesaria al vuelo. El rotor permitía una velocidad de vuelo muy reducida y el aterrizaje prácticamente vertical, y en los últimos modelos se lograba el despegue vertical acelerando el rotor mediante una transmisión desde el motor.

Soluciones parecidas, aunque no pueden clasificarse   estrictamente   como  convertibles,   son:

El «helicoplano» Hamilton, que se ensayó en los Estados Unidos en 1929, formado por un avión monoplano de ala alta Hamilton con dos hélices de eje vertical de 5,50 metros de diámetro situadas bajo el ala y a ambos lados del fuselaje.

Tipo de avión convertible que despega sobre un trípode, proyectado por L. H. Leonard. Una vez que el aparato ha despegado, gira sobre sí mismo un ángulo de 90 grados, las aletas estabilizadores se reducen por retracción (alas delanteras) y el aparato queda convertido en un cigarro puro volante de grandes alas.

El «giróptero» del francés Chauviére, construido en 1929, provisto de rotor sustentador y hélice tractora.El «clinógiro» de Odier Bessiére, ensayado en Francia en 1932, no es más que un monoplano Caudron 193, con motor de 95 HP, al que se le ha añadido una ala superior giratoria formada por un rotor de cuatro palas. Un proyecto posterior de A. Flettner prevé un avión clásico con cuatro hélices verticales para asegurar despegue y aterrizaje verticales.

Entre los «combinados» modelos pueden citarse los siguientes:

El helicóptero birrotor americano de la «Gyro-dyne Co.» Helidyne 7 A, con alas fijas reducidas de avión y dos motores con hélices propulsoras que le permiten volar a 140 kilómetros por hora con una carga útil de 1.340 kilogramos. Se trata de una adaptación del helicóptero Bendix. Sus primeros vuelos tuvieron efecto en noviembre de 1949. Un nuevo tipo, el Helidyne, destinado al transporte militar, presenta un peso en vuelo de 11.300 kilogramos.

Parecido a éste es el aparato experimental francés Farfadet SO-1310, helicóptero con un rotor de reacción a base de aire comprimido suministrado por una turbina «turbomeca» de 260 HP y alas fijas de superficie reducida, así como una hélice tractora accionada por una segunda turbina. En vuelo horizontal el rotor entra en autogiración. Sus ensayos dieron comienzo en el año 1953.

El Fairey-Rotodyne, que ya se ha citado, corresponde a este subgrupo.
En el grupo segundo, convertiplanos de rotor sobre eje que bascula en 90° para pasar del vuelo vertical al horizontal, también se distinguen dos subgrupos:

a)    Convertiplanos en que el rotor y el fuselaje basculan simultáneamente al pasar del vuelo en helicóptero a vuelo en avión, o sea eje del rotor invariable respecto al fuselaje.

b)    Convertiplanos con rotores o reactores de eje basculante respecto al fuselaje que permanece siempre en posición horizontal.

Los aparatos correspondientes al grupo segundo se caracterizan por tratarse en general de aparatos de alas fijas cuyas hélices son de diámetro mucho mayor al que normalmente sería necesario para el vuelo horizontal. En efecto, en este tipo de convertiplano las hélices, que trabajan con eje vertical, han de proporcionar la fuerza de sustentación necesaria para elevar vertical-mente el aparato.

El Hillar X-18 Propelloplane, avión convertible de ala basculante que despega en vertical.

Entre los aparatos del grupo segundo, subgrupo a), figuran los primeros convertibles de realización práctica y cuyos vuelos permitirán la solución del problema para los aviones de caza. Es el VTOL Convair XFY-1, ya citado, y otros como el Coleóptero, que más adelante describiremos con mayor detalle.

Este subgrupo a) es mecánicamente el de más fácil realización;  en cambio, presenta  otros inconvenientes que la práctica indicará la forma en que deberán solucionarse. Son éstos la difícil maniobra del paso de vuelo vertical a horizontal, y viceversa, basculando todo el aparato.

El embarco de los tripulantes y del material en el fuselaje en posición vertical tampoco será fácil. Por último, la estabilidad en el momento de aterrizaje si sopla viento algo fuerte parece precaria dada la altura del centro de gravedad con relación a la reducida base de apoyo sobre la cola.

Como primeros proyectos y realizaciones, merecen citarse los siguientes:
El de Focke-Wulf, que durante la segunda Guerra Mundial proyectó un convertible a base de substituir las alas por un gran rotor tripala situado tras la cabina de mando, accionado por estatorreactores en el extremo de las palas. Esto obligaba a utilizar cohetes de despegue. Los empenajes de tipo normal soportaban el tren de aterrizaje, sobre el cual se apoyaba el aparato en posición vertical para el despegue y aterrizaje.

Parecido al anterior, pero más atrevido, es el proyecto de L. H. Leonard, en el cual dos grandes rotores impulsan un fuselaje en cuya proa se halla la cabina de mando y los empenajes, y en la popa el tren de aterrizaje que, replegado en vuelo, se despliega para el aterrizaje vertical sobre la cola.

Un convertiplano correspondiente a este grupo, que fue construido por encargo de la Marina de los Estados Unidos, es el ala volante semicircular «Chance Vought» XFSU-1, de Zimmerman. En los extremos del ala dos grandes hélices tractoras despegaban el aparato colocado en ángulo de 45° y el aterrizaje se efectuaba en un espacio muy limitado, lo que permitía su utilización sobre las cubiertas de los buques. Fue rescindido el contrato de construcción en serie debido a la precaria estabilidad en el aterrizaje, defecto que, como indicamos, es inherente a este grupo.

Los aparatos del grupo segundo, subgrupo b), se reducen en general a aviones clásicos en los que, bien los motores, bien las alas, pueden bascular en 90° para lograr la posición vertical de las hélices.

Entre éstos pueden citarse el Bell XV-3, monoplano bimotor con dos rotores de 7 metros de diámetro en los extremos de las alas, cuyos ejes giran a la posición vertical para el despegue y a la horizontal para la propulsión. En el Bell-VTOL, monoplano de ala alta del año 1955, son los turborreactores situados bajo el ala los que basculan.

Otro tipo interesante de convertiplano es el Hiller X-18 Propelloplane, de 18 toneladas, cuyos primeros vuelos se realizaron en 1958. El ala, que gira solidariamente con los propulsores, colocándose en posición vertical para el despegue y horizontal para el avance, soporta dos turborreactores provistos de hélices contrarrotativas.

Una disposición análoga presenta el Vertol 76, cuyo primer vuelo completo se llevó a cabo el 15 de julio de 1958. El Kaman 16-B es un aparato anfibio construido según las mismas directrices.

Fuente Consultada:
Enciclopedia Cultural UNIVERSITAS Tomo N°17 -Los Aviones Convertibles-

Biografia de Cavendish Trabajo Cientifico Vida y Obra

Enrique Cavendish nació en Niza (Francia), en 1731. A la edad de 11 años íue enviado a la escuela en Hackney (Londres). En 1749 pasó a Cambridge, pero salió de allí sin haber obtenido ningún título. Perteneció a la Royal Society desde 1760 y, a partir de ese año, se dedicó, por su cuenta, al estudio de las matemáticas y de la física. Seis años después publicó trabajos sobre las propiedades del hidrógeno y del ácido carbónico.

Enrique Cavendish

Gran científico británico nacido el 10 de octubre de 1731. No muy famoso, pero destacado porque fue el primero en medir la densidad y composición de la atmosfera terrestre. Analizó la densidad media del nuestro planeta, descubrió el gas argón, inventó el pendulo de torsión, y propuso la ley de atracción electrica entre cargas de distinto signo. LLegó a poner en riego su vida al realizar experimentos con corrientes elétricas. Tenía una vida muy excentrica, y gozaba de una excelente posición social y económica.

Al mismo tiempo, investigaba las propiedades del calor, llegando independientemente a los conceptos de calor latente y calor específico, pero nunca se atrevió a publicar los resultados de sus investigaciones. También descubrió el nitrógeno, describiendo sus propiedades más importantes.

La  mayor contribución  de Enrique  Cavendish a la ciencia fue el descubrimiento de la composición del agua. Debe recordarse que la teoría del flogisto desorientó a los químicos durante algún tiempo, y que él, como muchos de sus contemporáneos, la apoyó.

Primero realizó experimentos sobre la composición del aire, demostrando que era constante. Luego mezcló dos partes de aire inflamable (hidrógeno) con una de aire desflogisticado (oxígeno) en el interior de un globo de cristal, haciendo explotar la mezcla por medio de una chispa eléctrica.

Otros químicos de su tiempo no se habían fijado en el rocío o empañamiento que se produce en las paredes de cristal del globo después de esta explosión. Cavendish comprobó que el peso del globo no había variado. Comprendió que los gases se habían combinado, dando agua. Como no publicó sus investigaciones, se suscitó una controversia, puesto que algunos atribuían el descubrimiento a Jacobo Watt, el inventor de la máquina de vapor.

En conexión con este experimento, descubrió la composición del ácido nítrico. A veces, las gotas de condensación que quedaban en ‘ las paredes del recipiente eran ligeramente acidas, y, al analizarlas, comprobó que tenían ácido nítrico. Explicó este hecho mediante la hipótesis de que el ácido se formaba por combinación del nitrógeno con los otros dos gases. El nitrógeno se encontraba allí como impureza.

Esto pudo demostrarlo añadiendo más nitrógeno, con lo cual se formaba más ácido nítrico. En sus años postreros viajó por toda Inglaterra, tomando nota de las formaciones rocosas y del paisaje. Su último gran experimento fue el descubrimiento de la atracción gravitatoria entre los cuerpos, lo que equivale a pesar la Tierra, como es denominado en algunas oportunidades.

obra cientifica de cavendish

El globo de explosión (reacción) que Cavendish usó se llenaba con los gases y se pesaba de la manera mostrada. Entonces se hacía explotar la mezcla por medio de una chispa eléctrica. Averiguó que el peso no cambiaba y que los gases desaparecían, quedando unas gotas de agua condensada en  las  paredes del  globo.  Se  basó en este experimento   para    explicar   ta    composición    del    agua.

Ampliar Sobre El Peso de la Tierra de Cavendish

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos. El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros. La cantidad de metales que existen en la corteza terrestre es relativamente pequeña. Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos. Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral. Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas. La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %. Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—. Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado. Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero. El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.   El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

METALURGIA: El campo de acción que abarca la metalurgia es verdaderamente amplio. Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características. En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales). El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre. Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

Minerales de Hierro

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado. En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado. Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente. Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición. Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente. Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente. Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos. En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables. Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza. El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación. Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada. Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación. También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.
El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia. Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable. Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción. También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta. Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos. Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales. La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia. La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año. En el- futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Significado de Gravedad Cero Ingravidez en una Nave Espacial

Significado de Gravedad Cero
Estado de Ingravidez en una Nave Espacial

La manzana Newton fue  hacia la Tierra por acción de la fuerza de la gravedad. Una fuerza análoga actúa sobre todas las cosas, tendiendo á acercarlas entre sí. Cuanto mayor sea la masa de los objetos, mayor es la fuerza gravitacional que ejercen sobre los demás. (La fuerza gravitacional ejercida por dos cuerpos entre sí, es proporcional al producto de sus masas individuales).

La Tierra es un objeto gigantesco, con una masa de alrededor de 5.883.000.000.000.000.000.000 toneladas, ejerciendo por consiguiente una fuerza gravitacional muy grande.

Esta fuerza es lo suficientemente intensa como para imprimir a la manzana, en su caída hacia la Tierra, una aceleración de 9,8 metros por segundo Pero la fuerza con que la Tierra atrae a la manzana depende, a su vez, de la distancia de ésta al centro de gravedad de aquélla. Cuando se encuentra sobre la superficie de la misma o en su proximidad la manzana está a casi 6.500 Km. del centro.

Si se dejase caer la manzana desde una altura doble de la distancia hasta dicho centro de la Tierra (13.000 Km. desde el centro, 6.500 Km. desde la superficie), la aceleración hacia la Tierra sería de 2,45 metros por segundo. De modo que, doblando la distancia al centro de gravedad terrestre, la fuerza de la gravedad se ha reducido a la cuarta parte del valor que tenía sobre la superficie de la Tierra. Expresado matemáticamente, la fuerza de la gravedad varía inversamente con el cuadrado de la distancia que separa las dos masas.

De este modo, cuánto más se aleje la manzana de la Tierra, tanto más disminuirá la fuerza gravitatoria, aunque ésta nunca podrá ser nula, porque, para ello, sería necesario que entre la manzana y la Tierra hubiera una distancia infinita. Sin embargo, en el momento en que la manzana estuviese a unas decenas de miles de kilómetros de la Tierra, el efecto de la gravedad terrestre llegaría a ser despreciable.

Si la manzana fuese colocada en este punto, no volvería a caer sobre la Tierra, porque la fuerza sería tan débil que no podría atraerla. En consecuencia, quedaría flotando en el espacio.

Esta es la condición conocida como g cero (gravedad cero) y es una de las primeras dificultades con que tropiezan los astronautas. Nos sorprende porque, inconscientemente, contamos con que la acción de la gravedad es constante. Así, cuando vertemos el té dentro de una taza, ponemos la tetera en un plano superior, casi perpendicular a la taza, y la gravedad arrastra el líquido hasta el interior de la misma.

Si el astronauta intentase hacer esto en las condiciones de gravedad cero, el té quedaría flotando a su alrededor, en forma de gotas, en el interior de la astronave. El movimiento también sería bastante diferente, puesto que no habría fuerza de gravedad que ligase al astronauta sobre el piso. Así, si él tomara impulso, empujando con los pies, continuaría desplazándose hacia arriba, hasta que tropezaría  contra el techo.

ingravidez, astronautas en sus practicas

Significado de Gravedad Cero

Por ejemplo en la cabina de un avión entrando en picada en caía libre, el mismo seguirá una curva hacia la Tierra por efecto de la gravedad terrestre. Estas condiciones sólo pueden mantenerse durante unos 20 segundo.

GRAVEDAD Y ACELERACIÓN (ver Principio de Equivalencia)
Los astronautas experimentarán los efectos de la gravedad cero cuando viajen por el espacio con un movimiento estacionario, lejos de las atracciones gravitatorias del Sol y de algunos otros planetas.

También notarán la falta de gravedad cuando se muevan con velocidad constante. Pero tan pronto como la nave espacial empiece a acelerar se sentirá una fuerza en sentido contrario al de la marcha, que podría, fácilmente, ser tomada como una fuerza gravitatoria.

La gravedad y la aceleración están estrechamente relacionadas. Del mismo modo que la fuerza de la gravedad acelera la manzana, así también la aceleración crea una “fuerza” muy similar a la gravitatoria.

Mientras la nave espacial no se mueve, acelerándose o retrasándose (o, dicho de otro modo, cuando esté detenida o se mueva con velocidad constante), su movimiento no crea una fuerza que produzca el mismo efecto que la fuerza gravitatoria. Esto se expresa en el primer principio del movimiento de Newton:   “Cuando no actúa fuerza alguna sobre un cuerpo, nada cambia en él. Si está en reposo, continúa estándolo. Si se está moviendo con una cierta velocidad, continúa moviéndose con la misma velocidad”.

Lo contrario de este principio sigue rigiendo en el espacio, y, siempre que la nave esté quieta o moviéndose con velocidad constante, ninguna fuerza actuará sobre ella.

El segundo principio del movimiento de Newton se refiere al efecto de una fuerza sobre el movimiento de un cuerpo: “Las fuerzas producen siempre aceleraciones, y éstas son proporcionales a las magnitudes de las mismas”. De nuevo, lo contrario de este principio sigue siendo válido para la nave espacial que está acelerándose.

Toda aceleración produce una fuerza. Si la nave espacial estuviera sometida a una aceleración de 9,8 metros por segundo2 el astronauta tendría la sensación de estar sobre la Tierra. La “fuerza” debida al movimiento sería indistinguible de la fuerza gravitatoria terrestre, porque ésta tiende a acelerar los objetos precisamente a 9,8 metros por seg.².

Por ejemplo, si la nave espacial fuera acelerada, partiendo del reposo, el astronauta que comenzara a servirse su té podría pensar que las cosas suceden con toda normalidad. Quedaría definida una dirección hacia arriba y una dirección hacia abajo (lo mismo que ocurre sobre la Tierra). El “arriba” coincidiría con la dirección de la proa de la astronave, mientras que “abajo” estaría en la dirección de la cola de la misma.

El piso de la nave debe situarse, por tanto, en el extremo más próximo a la cola, y, si el astronauta se pusiera de pie para servirse su taza de té, éste caería en el interior de la taza con toda normalidad. No obstante, aunque al astronauta pudiera parecerle que las cosas suceden del mismo modo que en la Tierra, un observador imparcial, situado fuera de la astronave, observaría lo contrario.

Supóngase que se hubiese dejado atrás, en el espacio, a un astronauta mientras que la nave se moviese uniformemente, y que aquél pudiera ver lo que sucede cuando la nave se acelerase, alejándose de él. Entonces, tan pronto como se vierte, el té no sigue el movimiento de la astronave; no se; acelera hacía delante, como las restantes cosas fijas (incluyendo la tetera), porque no está unido a nada. De modo que ninguna fuerza actúa sobre él y se queda exactamente donde está cuando la astronave se mueve uniformemente.

De hecho, acelerando la nave espacial hacia adelante se recogería el té en la taza. Aquélla se movería hacia el té, pero un astronauta, en ella, por estar sometido a la misma aceleración, no encontraría diferencia entre el movimiento de la nave hacia el té y el de éste hacia abajo, como ocurriría sobre la Tierra.

Y no es porque exista algún error en la percepción, puesto que no existe, absolutamente, ningún procedimiento para encontrar la diferencia. Pero, ¿cómo se podría conseguir que la manzana no volviese a la Tierra, después de haberla lanzado, sin necesidad de alejarla infinitamente de la misma? Este problema está teóricamente resuelto desde que Newton formuló sus importantes principios.

Si hacemos girar una piedra, atada al extremo de una cuerda cuyo otro extremo sujetamos con la mano, notamos que la piedra hace una fuerza, tirando de nuestra mano en la dirección del radio determinado por la misma. Una fuerza de este tipo es la que tiende a hacer volcar a los automóviles al tomar una curva y, para contrarrestarla, las curvas de las carreteras tienen cierto declive o ángulo, llamado peralte.

En general, podemos decir que es necesario aplicar una fuerza de este tipo, siempre que se intenta desviar del camino rectilíneo a un móvil cualquiera. En algún otro lugar, ya dijimos cómo los cuerpos tienden, siempre, a conservar los estados de reposo o de movimiento rectilíneo con velocidad constante.

Para modificar esta tendencia natural de todos los objetos del universo, es necesario aplicarles una fuerza, tanto para sacarlos del reposo, como para variar su velocidad o separarlos de su trayectoria, puesto que, como decimos, tiende a ser rectilínea.

Pues bien, esta fuerza que es necesario aplicar para que la trayectoria descrita por un cuerpo sea curva, y que esté dirigida, siempre, hacia el centro de curvatura de la misma, se llama fuerza centrípeta. Por otra parte, el tercer principio de Newton, el llamado de la acción y la reacción, nos dice: “Siempre que un objeto ejerce una fuerza sobre otro, éste también ejerce una fuerza sobre el primero, llamada reacción (igual y de tido contrario), que tiende a opo-r. al efecto de la misma”.

Pues bien, contra la fuerza centrípeta (hacia adentro) que tenemos que hacer sobre la piedra para  que ésta  describa  un circulo la piedra ejerce una fuerza sobre la mano que, por estar dirigida en sentido contrario al centro, se llama centrífuga (hacia afuera).

¿Por qué razón un satélite que está rando en su órbita no se precipita contra la Tierra, como lo haría cualquier objeto que se dejara libremente, a cierta distancia de la superficie terrestre? respuesta  es   sumamente  sencilla.

Un objeto cualquiera, en el espacio, a cierta ta distancia de nuestro planeta, sufre la acción de la fuerza gravitatoria. Ahora bien, si este objeto se encuentra movimiento,   describiendo   una   órbita más o menos circular, también actua sobre él la fuerza centrífuga debido este movimiento.

Sólo nos queda disponer las cosas de modo que ambas fuerzas se contrarresten y, así, todo ocurríría como si sobre él no actuase fuerza alguna. Esto es lo que se hace al colocar en órbita un satélite artificial. Se calcula   su   trayectoria   de   modo  que conjunto de las fuerzas ejercidas sobre él sea nulo en todo instante.

Como, en principio, la fuerza centrífu dependerá no sólo del radio de giro si también de su velocidad, los científicos han de establecer un compromiso en las  magnitudes   que  entran   en  jueígo que son:  velocidad y radio de la ti yectoria. La masa del satélite sólo interviene durante el lanzamiento, des que sale de la Tierra, hasta que se coloca en órbita. Si suponemos una órbita circular, la relación que debe existir entre las maginitudes anteriores será:

formula velocidad de satelite en una órbita

Significado de Gravedad Cero

Fuente Consultada:
Revista TECNIRAMA N°84 Gravedad Cero
Enciclopedia de la Ciencia y la Tecnología

Los avances tecnologicos aplicados en la vida cotidiana Cientificos

Los Avances Tecnologicos Aplicados en la Vida Cotidiana

Tecnología en la vida cotidiana: Gracias a las técnicas de producción en masa, los grandes inventos de los ss. XX y XXI forman parte de nuestra vida diaria. La invención de los electrodomésticos llevó a un incremento del tiempo libre en países desarrollados, y el concepto de progreso, en sí mismo, es sinónimo de acceso a las nuevas tecnologías. El microchip tuvo un gran impacto en las comunicaciones desde que Jack Killby y Robert Noy ce lo crearan en 1959, y la nanotecnología combinada con la llegada de Internet facilitó el acceso a la comunicación instantánea global.

LA EVOLUCIÓN TECNOLÓGICA: El ser humano ha recorrido un largo camino desde que el primer Homo sapiens saliera a cazar en África hace millones de años. La tecnología, el uso de materiales naturales y artificiales con un propósito claro, ha progresado enormemente desde el Paleolítico. Aunque es tentador creer que los logros tecnológicos del hombre en los últimos siglos son únicos, es importante mantener una perspectiva histórica.

Como hemos visto en este libro, en los últimos 12.000 años se han experimentado innovaciones revolucionarias para mejorar la vida del hombre. El desarrollo de una herramienta efectiva para matar animales debió de ser revolucionario para el cazador del Neolítico, como nos lo parecen ahora las bombas inteligentes.

El cultivo de cereales en Oriente Medio fue probablemente un acontecimiento de mucha más trascendencia que el desarrollo de los cultivos genéticamente modificados, ya que cambiaron el curso de la historia del ser humano. De manera similar, la llegada de la escritura a Mesopotamia constituye un logro más importante a largo plazo que la aparición del ordenador en tiempos modernos. Son muy numerosos los ejemplos de innovaciones e inventos que han cambiado el curso de la historia de la humanidad.

Sin embargo, la característica común de los tiempos actuales, especialmente desde la Revolución industrial, recae en la velocidad con que la innovación tecnológica se ha diseminado por toda la sociedad. En el siglo XX, la organización de la innovación tecnológica sufrió un cambio profundo. La investigación y el desarrollo ya no se llevaban a cabo de manera individual, sino en grandes organizaciones, como universidades, o laboratorios industriales o gubernamentales. La infraestructura que se necesita hoy para la investigación está mucho más allá del alcance de las personas. Esta tendencia se ha pronunciado especialmente en la segunda mitad del siglo XX, con la institucionalización de la investigación tecnológica y científica.

El siglo XXI trajo aun más cambios en la manera de llevar a cabo las innovaciones tecnológicas. La aparición de Internet y de las comunicaciones rápidas y baratas ha permitido que la investigación se disperse geográficamente, una tendencia que crecerá en los años venideros. La dispersión global de la innovación tecnológica será más rápida y el acceso a tecnologías más avanzadas, especialmente en los bienes de consumo, será más fácil y estará más extendido.

Resulta arriesgado predecir qué tipos de tecnologías aparecerán en el siglo XXI. La creatividad de la mente humana es ilimitada en esencia y, por tanto, solemos equivocamos con las predicciones tecnológicas. No se puede predecir con ningún tipo de certeza qué forma tendrá la tecnología y cómo impactará en la sociedad humana. Después de todo, incluso los científicos más brillantes de principios del siglo XIX no podrían haber imaginado los viajes espaciales ni el microprocesador. Aun así, se puede decir que el progreso tecnológico seguirá avanzando a mayor velocidad en los próximos años y posiblemente hará que la vida sea más fácil para la gran mayoría de la humanidad, con desarrollos revolucionarios en medicina, transporte y comunicaciones.

No obstante, el medio ambiente empieza , protestar, como se hace patente en el calentamiento global y en la disminución de la capa de ozono, por lo que deberíamos ralentizar los avances tecnológicos por el bien de las generaciones futuras. Sí bien en el siglo XXI ya hemos empezado a trabajar por el entorno, deberíamos fomentarlo más en el futuro.

Internet: En 1989 la WWW se inició para el Consejo de Europa de Investigación Nuclear. Nueve años después, un vehículo de seis ruedas, de menor tamaño que una hielera de cervezas, rodaba por la superficie de Marte y fue visto por internet uniendo la imaginación colectiva con la misión Mars Par Finder de la NASA. Al finalizar el 11 de septiembre de 1998, Internet demostraría su eficacia al poner a disposición de millones de usuarios de la World Wide Web, en un simple disco de 3.5 pulgada; en menos de 24 horas, toda la información sobre los escándalos sexuales de Bill Clinton. El forma:: facilitó a sus receptores acceder a cualquier detalle gráfico con sólo oprimir una tecla. Adema; e Reporte Starr, como se conoció al informe sobre el affaire Clinton, tenía la ventaja de estar completo. Ningún otro medio de comunicación lo presentó de esa manera.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letra; escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museo; estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuerna-con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y liste La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza.

Internet constituye un instrumento importante para la movilización de capitales, ya que éste pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Historia del Globo Aerostático Viaje al Polo en Globo y Dirigible

Historia del Globo Aerostático
Viaje al Polo en Globo

HISTORIA DE LA ÉPOCA: En 1782, a los hermanos Joseph-Michel (1740-1810) y Jackes-Etienne Montgolfier (1745-1799) se les ocurrió pensar que si se calentaba el aire, se expandía y se hacía más liviano que el aire frío. Para demostrarlo, introdujeron aire caliente en una bolsa de papel y comprobaron que se elevaba.

Aprovecharon, entonces, este mismo principio para construir el primer globo aerostático. Después de numerosos ensayos elevaron en Annonay, su ciudad natal en Francia, un globo fabricado con papel y tela de embalaje.

El 19 de septiembre de ese mismo año, en Versalles, ante los reyes de Francia, repitieron la experiencia, pero en esta ocasión del globo pendía una barquilla en la que ubicaron un cordero, un gallo y un pato. El aeróstato recorrió 3 kilómetros y aterrizó sin novedad. Dos meses después, el 21 de noviembre, tuvo lugar el primer vuelo tripulado por el hombre, el físico francés Jean Francois Pilatre de Rozier (1756-1783) y un compañero; los tripulantes recorrieron alrededor de 9 kilómetros en 25 minutos.

Primer Globo Aerostatico

Primer Globo Aerostático

Rápidamente se fueron perfeccionando los aeróstatos, y en los primeros años del siglo XIX se efectuaron ascensiones hasta cerca de 10.000 metros. En algunas de ellas, los navegantes murieron por asfixia. Los dirigibles aparecieron a fines del siglo pasado (Santos Dumont), y en esos mismos años se alcanza la altura de 18.500 metros con un globo portador de aparatos registradores, que anotaron una temperatura de 60 grados bajo cero. Todos esos aparatos se basan en el principio de Arquímedes, y, por lo tanto, se los infla con gases menos densos que el aire (si se los inflase con aire, ninguno subiría un solo metro).

Otro francés, el físico Jacques Alexander César Charles (1746-1823) alargó la duración de los vuelos al colocar una hoguera en la barquilla que mantenía el airecaliente por más tiempo. También construyó, el 27 de agosto de 1783, el primer globo de hidrógeno. El reemplazo del aire por este gas, mucho más liviano, mejoró la capacidad de ascensión de los globos.

Restaba, ahora, encontrar la manera de dirigir el rumbo de los globos. El ingeniero francés Henry Giffard construyó en 1852 el primer aeróstato fusiforme. Impulsado por una máquina de vapor y alimentado con hidrógeno como gas sustentador, el aeróstato se elevó sobre el hipódromo de París y alcanzó una velocidad de 10 km/h.

En este sentido trabajó el inventor alemán Ferdinand Adolf August Heinrich von Zeppelin (1838-1917), quien confirió a los globos una forma aerodinámica. Para lograrlo, utilizó aluminio, que es un material resistente y liviano. Su primer dirigible parecía un gran cigarro del cual pendía la barquilla con el motor y una hélice, hoy recordado como Zeppelin. Los dirigibles dejaron de usarse sobre todo por los grandes desastres que ocasionaron.

El más impactante fue la célebre explosión del Hindenburg en Nueva Jersey, el 6 de mayo de 1937. Actualmente se utilizar, para publicidad, transporte de carga pesada y para investigación. En este sentido, los globos meteorológicos funcionan de un modo curioso: un globo de hidrógeno se eleva transportando una radiosonda.

En la ascensión, la sonda emite señales a la estación terrestre donde éstas son decodificadas y convertidas en valores de presión temperatura y humedad. Al cabo de 90 minutos, el globo ha alcanzado una altitud de 27 a 30 km. Allí, la presión atmosférica es muy baja, e globo estalla, y la sonda desciende a tierra suspendida de un paracaídas.

Los observatorios meteorológicos sueltan diariamente varios globos, para sondear la atmósfera y determinar la dirección y velocidad de los vientos a distintas alturas. Una de las finalidades de esta operación es informar a los aviones sobre las condiciones del tiempo que deben afrontar.

También se envían los llamados radiosondas, que son globos-portadores de instrumental para explorar las altas capas de la atmósfera. Como a medida que el globo asciende, la presión exterior es cada vez menor, el volumen del globo se hace cada vez mayor, al dilatarse el gas interior. Llega un momento en que la dilatación es mayor que la que puede soportar el material, y el globo estalla. Los aparatos caen con paracaídas, y así es posible recuperar el instrumental (aunque a veces cae en lugares despoblados).

Últimamente se ha desarrollado una nueva técnica en la exploración de las más altas capas de la atmósfera, a las que hasta hace unos pocos años ni se soñaba en llegar. Se hace mediante cohetes y satélites artificiales. El instrumental, que se acondiciona cuidadosamente en su interior, recoge datos valiosísimos sobre las condiciones del aire en tan altas regiones.

BREVE HISTORIA DE LA AEROSTACIÓN.
Después de los experimentos de Montgolfier, los ensayos se sucedieron con rapidez. El día 21 de noviembre de 1783 tuvo lugar la primera ascensión de un globo tripulado por el hombre. Pilatre de Rozier y el marqués de Arlandes mostraron gran valor al subir a «La Montgolfiera», construido por su inventor. La envoltura era de algodón y tenía unos 15 m de diámetro.

En su parte inferior el globo estaba dotado de una pequeña galería circular desde donde los aeronautas alimentaban y cuidaban un pequeño hornillo destinado a mantener caliente el aire que proporciona la fuerza ascensional. En nuestros días causa asombro considerar el hecho de que dos hombres se atreviesen a tripular un globo que si se mantenía en el aire era gracias al auxilio de un simple brasero.

Pocos días después, de diciembre de 1783, Charles y Robert efectuaron una magnífica ascensión en un globo muy perfeccionado pues constaba de una envoltura impermeabilizada hinchada con hidrógeno, red y barquilla. Además, y en previsión de cualquier posible contingencia, instalaron válvula de seguridad y se proveyeron de lastre, cuerda-freno y áncora. A partir de entonces fueron numerosísimas las ascensiones que*se llevaron a cabo con fines deportivos o científicos. El célebre físico Gay-Lussac llegó hasta 6.500 m de altura y llevó a cabo mediciones y observaciones relativas a la composición del aire, humedad, variaciones de la aguja magnética, “etcétera.

El día 13 de junio de 1784, Pilatre de Rozier y Romain perecieron al intentar cruzar el Canal de la Mancha. El globo que tripulaban estaba lleno de hidrógeno y en su interior se hallaba un lóbulo con aire caliente. El hornillo destinado a mantener constante la temperatura provocó la explosión del globo y ocasionó la primera catástrofe aérea de la Historia.

Mejor suerte cupo a Blanchard y a su compañero Jefries, quienes lograron efectuar la travesía del Canal de la Mancha desde Dover a Calais. El propio Blanchard llevó a cabo la primera ascensión sobre suelo americano, cubriendo en forma admirable el trayecto de Filadelfia a Nueva Jersey, donde entregó un mensaje para Jorge Washington. Otro récord memorable fue el conseguido por Carlos Green, quien en 1836 logró recorrer a través del aire los 700 km. que separan Londres de Nieder-hausen (Alemania). El día 2 de septiembre de 1894, un globo tripulado por Francisco Arban sobrevoló por vez primera el macizo de los Alpes.

El inglés Tomás Harris fue el protagonista de una historia de amor desarrollada en las alturas. Durante una ascensión efectuada en compañía de su novia, se produjo un pequeño desgarrón en la envoltura del globo, el cual comenzó a descender. Cuendo Tomás Harris tras arrojar todo el lastre vio que la caída era inevitable, se lanzó al vacío en un desesperado intento de aligerar así el peso del globo y salvar la vida de su amada.

La ascensión que con carácter científico efectuó Tissandier en 1875 terminó también trágicamente puesto que si bien logró alcanzar la altura de 9.000 m, la falta de oxígeno ocasionó la muerte por asfixia a dos amigos que le acompañaban.

Ante los frecuentes accidentes que se producían surgió la necesidad de contar con un medio eficaz que amparase al aeronauta y le permitiera saltar del globo.

La invención del paracaídas se debe a J. Garnerín, quien lo ensayó por primera vez el día 22 de octubre de 1797. El acontecimiento tuvo lugar ante el público de París que contempló lleno de asombro el lento descenso del audaz inventor sujeto a una gigantesca sombrilla.

Viaje en Globo aerostatico

Henri Giffard (1825-1882) exhibe su diseño de globo, cuya canasta tiene capacidad para albergar a 50 personas, en el Jardín des Tuileries, durante la Exposición Universal de París 1878. El ingeniero francés realizó, además, el primer vuelo controlado de un dirigible, el 24 de septiembre de 1852: un recorrido de 24 kilómetros desde Paris de donde partió su nave, llena con hidrógeno, a 8 kilómetros por hora, e impulsada por un pequeño motor a vapor.

LA EXPEDICIÓN ANDRÉE AL POLO NORTE. De entre los numerosos vuelos realizados mediante globos, destaca el llevado a cabo por el ingeniero sueco Andrée, quien en compañía de sus amigos Frankel y Strindberg planeó una arriesga-dísima expedición al Polo Norte en la que los tres iban a perecer de frío e inanición.

En el año 1896 iniciaron los preparativos trasladándose a la Isla de los Daneses, en Spitzberg, donde colocaron el globo Oernen, de 4.500 metros cúbicos, los instrumentos y los víveres. Sin embargo, no pudieron emprender la ascensión hasta junio del año siguiente, con bastante mala suerte pues al ascender se rompieron la mitad de las cuerdas-freno dispuestas para ahorrar lastre y facilitar la dirección del globo. En las primeras horas, los exploradores enviaron noticias mediante palomas mensajeras; unos días más tarde, fueron halladas un par de boyas. Después, el silencio más absoluto corroboró la suposición de que habían sufrido un grave accidente.

El mundo ignoró los detalles de la tragedia por espacio de 34 años, hasta que en 1930 los tripulantes de un buque cazafocas hallaron en la Isla Blanca restos de la expedición. En aquellas inmensas soledades y bajo la lona de-una tienda abatida se hallaban los cadáveres de los héroes junto a los cuales estaban el libro de notas de Andrée, la carta de navegar de Strindberg y unas películas. Un poco más allá y cubiertos por la nieve, aparecían los trineos y la canoa. Las fotografías y los escritos han permitido conocer con detalle el desarrollo de la tragedia.

Consiguieron llegar a los 82° 55′ y 7″ de latitud (800 Km. del Polo), después de un accidentadísimo vuelo de 65 horas que acabó al abatirse el aeróstato debido al peso de la capa de hielo que se formó sobre la envoltura. Desembarcaron el día 14 de julio, y el 21 emprendieron la retirada hacia el Sur. La marcha, como muy bien puede suponerse fue difícil y penosa. A pesar del intenso frío y de la carencia de alimentos consiguieron llegar a la Isla Blanca el día 5 de octubre. Su capacidad de resistencia fue verdaderamente extraordinaria ya que la última nota escrita lleva fecha del 17 de octubre.

DESCRIPCIÓN DE LA TRAGEDIA EN EL POLO NORTE: A fines del siglo XIX la exploración polar creaba fascinación y curiosidad a toda la comunidad científica de la época. Los buques expedicionarios habían partido uno tras otro hacia el helado silencio del Ártico, y no se había vuelto a saber mas de ellos durante meses o años. Cuando al final regresaban derrotados y maltrechos, los exploradores contaban sus aventuras en la impenetrable inmensidad de hielo, hablaban de los témpanos, traidores y movedizos, que imposibilitaban la navegación.

“De vez en cuando se aireaba la idea de que tal vez una expedición aérea tuviera éxito donde previamente habían fracasado las marinas, pero la cosa no pasaba del comentario porque, después de todo, no había globo que hubiera permanecido en el aire el tiempo que un viaje polar requeriría, y mucho menos en latitudes en que la capa de hielo que se formaría en la superficie del aeróstato, podía provocar un aterrizaje forzoso y, con mucha probabilidad, catastrófico. Pero existía también el problema de los vientos dominantes.

Salomón August Andrée.Las expediciones aerostáticas que se dirigieran al Polo tendrían que confiar con optimismo en que una de las corrientes del sur llevaría el globo hasta aquella región, para luego proseguir la marcha hasta los poblados más septentrionales. Los obstáculos parecían insuperables para cualquiera que no tuviera el entusiasmo del sueco Salomón August Andrée.

Andrée había visitado a Estados Unidos durante su mocedad y se había hecho amigo del aeronauta norteamericano John Wise. Posteriormente había formado parte de la expedición que estudió los fenómenos polares en Spitsbergen, junto a la costa norte de Noruega. Más tarde había trabajado como ingeniero jefe en la oficina sueca de patentes. Era enérgico, valiente y con voluntad de hierro. Tanto por sus estudios como por su temperamento, Andrée estaba formidablemente dotado para la aventura que se había propuesto.

En 1895 Andrée dio a conocer el plan de su expedición polar, en globo, en una serie de conferencias, bien recibidas, en las que mezclaba la ciencia con el patriotismo. Los suecos, decía en ellas, se han «caracterizado durante siglos por el más intrépido valor», estaban acostumbrados a los caprichos del clima polar «y la propia naturaleza les había enseñado a soportarlos». Esta llamada al orgullo nacional y la excelente reputación de Andrée, contribuyeron a que se recaudaran las ayudas necesarias para financiar la expedición entre ellas la del Rey Osear de Suecia y del filántropo Alfred Nobel.

El globo que iba a transportar a Andrée y a dos compañeros cuidadosamente seleccionados, estaba hecho ex profeso para el viaje. La meticulosa especificación que Andrée había preparado para el aeróstato -al que puso el nombre de Ornen (Águila)- preveía una envoltura de 4.814 m3, hecha de seda china doble, para proporcionarle resistencia y durabilidad. El globo no tenía válvula en la parte superior, al objeto de que la nieve no la atascara, pero llevaba dos en la zona inferior de la envoltura. Por encima de la red había otra capa de seda para proteger más al aeróstato contra la nieve y el hielo.

Andrée pensaba regular la altitud con tres cuerdas de arrastre, unidas por secciones, cada una de las cuales tendría 335 m de longitud. Llevaría también otras sogas más cortas. De la barquilla sobresalían tres palos horizontales, a los que iban sujetas tres velas cuadradas, con las cuales se esperaba poder modificar hasta 30° la derrota.

La góndola de mimbre era cerrada, cilíndrica, de 1,60 m de profundidad. En ella irían tres trineos, un barco de lona, tres literas, herramientas, armas, otros artículos y comida suficiente para cuatro meses. La partida sería en el verano de 1896, desde un lugar situado en el extremo noroeste de Spitsbergen, a unos 1.297 km del Polo. Andrée calculaba con optimismo que el viento constante del sur los llevaría al Polo en tres días.

El aterrizaje, como dependía de la dirección del viento, podría realizarse en cualquier lugar de Siberia, Canadá o Alaska. El Ornen fue inflado con hidrógeno y quedó alojado en «un hangar para globos», de 30 m de alto, esperando a que soplara la brisa deseada. Pero no sopló ni en todo el mes de julio ni en todo el mes de agosto, con lo que terminó el efímero verano ártico y se hizo tarde para comenzar la expedición.

En 1897, Andrée, que entonces tenía 43 años, y sus tripulantes Nils Strindberg y Knut Fraenkel volvieron a Spitsbergen para volver a probar fortuna. El entusiasta Strindberg, de 24 años, era profesor de educación física en la universidad de Estocolmo y un consumado fotógrafo. Fraenkel, de 27 años, era musculoso, de profesión ingeniero y aficionado al alpinismo. Para prepararse para la expedición ambos hombres habían ido a París, a aprender aerostación. El 11 de julio, después de seis semanas de espera, empezó a soplar el tan largamente esperado viento del sur. El momento había llegado y, en consecuencia, se procedió a sacar el globo de su cobertizo. Los tres exploradores subieron a bordo, mientras la tripulación de tierra esperaba órdenes sosteniendo las maromas de amarre.

A la 1:46 de la tarde, Andrée dio la señal para soltar al Ornen y éste comenzó a subir perezosamente por encima del puerto y fue flotando hacia el nordeste. De repente, la nave bajó de modo imprevisto y tocó el agua para luego rebotar y volver a subir ayudada por la tripulación que arrojó más de 200 kilos de lastre. Los ayudantes de tierra estuvieron mirando con emoción al globo hasta que éste no fue más que un punto en el horizonte del Norte.

Todo parecía ir bien, pero Andrée ya sabía que no era así. Las secciones de la parte inferior de las tres largas maromas de arrastre -que en el plan de Andrée eran vitales para regular la altitud y la dirección -se habían desprendido, no se sabía por qué, y yacían en la costa como grandes serpientes enroscadas. El Ornen continuó su vuelo libre hacia lo desconocido.

Los millones de personas que, en todas las partes del mundo, habían seguido ávidamente a través de los periódicos los preparativos de la expedición, quedaban ahora a la espera de noticias de los exploradores. Estas no podrían llegar más que, o con palomas mensajeras o metidas en las boyas que arrojara el globo. La expedición no disponía de otros medios de comunicación.

Cuatro días después de la salida del Ornen, el capitán de un buque noruego mató a una paloma que se había posado en las jarcias de su velero. En un pequeño cilindro atado a la pata del animal había un mensaje de Andrée. Había sido escrito el 13 de julio, al mediodía, en un punto situado a unos 370 Km. al norte del lugar de despegue. «Buena velocidad hacia el E. 10° S.

A bordo todos bien. Este es el tercer mensaje por paloma mensajera», decía la nota.

Las otras dos no llegaron, y el verano transcurrió sin que se supiera más de los expedicionarios. Después llegó el otoño y, tras él, la larga noche del invierno ártico. Siguió sin saberse nada de Andrée y su tripulación.

Si continuaban vivos tendrían que estar matando osos para alimentarse, y metidos en algún improvisado refugio para poder soportar el frío.

Por supuesto, era posible sobrevivir en aquellas condiciones, porque otros ya habían sobrevivido. El padre de Strindberg se mostraba optimista: «Habrá que esperar un año, por lo menos», escribió, «para empezar a preocuparse, e incluso entonces no habglobo aerostaticorá que ponerse demasiado pesimista».

Pasó más de un año. Salieron barcos en busca de los exploradores y volvieron sin encontrar ni rastro de ellos. En febrero de 1899 llegaron noticias trágicas: los miembros de una tribu nórdica habían encontrado los cadáveres de tres suecos al norte de Siberia.

La noticia era falsa. Tres meses después salió a la costa de Islandia una boya con un mensaje de Andrée, pero había sido escrito 12 horas después de la partida de los desaparecidos. Al año siguiente  apareció un mensaje parecido en una playa noruega. Para entonces ya habían transcurrido tres años y la creencia de que los exploradores habían perecido era cada vez más firme.

Durante 33 años no se supo nada del Ornen, pero en el verano de 1930, un par de cazadores de morsas, de un buque noruego tropezaron con los esqueletos de los tres exploradores en el sombrío corazón ártico de la isla de White, a unos 450 Km. de donde había despegado el globo.

Los diarios, los cuadernos de notas y las cartas que los tres hombres habían escrito eran aun legibles y según constaba, el Ornen, que al perder accidentalmente las cuerdas de arrastre se había visto aligerado en 540 kg, había subido la primera tarde del vuelo a 700 m, mucho más de lo que Andrée tenía previsto.

El viento había impulsado al globo hacia el noroeste el primer día, luego hacia el oeste y después hacia el este de nuevo. Había permanecido 13 horas inmovilizado, al quedar trabada una de las cuerdas que colgaban de él de un gran trozo de hielo.

La densa niebla impedía la visibilidad y el agua nieve había recubierto la superficie del globo de una carga tal de hielo, que había hecho descender varias veces a la nave y a la atestada góndola chocar contra los salientes helados del terreno. Y esto había ocurrido 8 veces en 30 minutos.

En la ropa interior llevaba cosida una A, y en el bolsillo, un diario. En él aparecían las últimas palabras escritas por Salomón August Andrée, el aeronauta sueco, que junto con Knut Frankel y Nils Strindberg, había desaparecido en 1897, cuando trataban de llegar al Polo Norte. Se aclaraba así el misterioso final de la expedición salida 33 años antes de Spitsbergen.

Junto a los restos de Andrée se encontraban los de sus acompañantes y varios cilindros metálicos que contenían negativos fotográficos impresionados. Un experto fotógrafo de Estocolmo consiguió revelar 20 negativos. Algunas de las fantasmales fotografías, deterioradas por los años de permanencia en la humedad y el frío árticos.”

OTRA HISTORIA, PERO CON DIRIGIBLES
AL POLO EN DIRIGIBLE. Durante el año 1926 el explorador noruego Amundsen efectuó una expedición polar que tuvo gran resonancia. Gracias a la munificencia del norteamericano Ellswort que financió la empresa, pudo adquirirse el dirigible N-i construido por Nobile. Tenía 19.000 m3 y 106 m de longitud e iba provisto de tres motores de 240 HP, dispuestos en barquillas independientes y desarrollaba la velocidad de 100 km/h.

El N-i, adquirido por Noruega y bautizado con el nombre de Norge, partió de Roma, llegó felizmente a Oslo y siguió luego hasta Spitzberg. El día n de mayo la aeronave emprendió el vuelo desde Kingsbay hacia el Polo Norte, que fue alcanzado al cabo de 15 horas de navegación, sobre deslumbrantes blancuras. Aunque el viaje de regreso se vio dificultado grandemente por la sobrecarga debida a la costra helada que se formó en la parte superior de la envoltura, el Norge consiguió aterrizar en Teller (Alaska) después de 71 horas de lento vuelo.

El general italiano Nobile, que había participado en la expedición dirigida por Amundsen, quiso organiza* por su cuenta un vuelo al Polo. El día 15 de abril de 1928, el dirigible Italia salía de Milán, ciudad que patrocinaba la empresa, para dirigirse a Spitzberg. Una vez allí y tras unos vuelos de exploración sobre las tierras de Francisco José, Nicolás II y Nueva Zembla, el 23 de mayo el Italia se dispuso a cubrir la última etapa hasta el Polo, del que no iba a regresar jamás.

En efecto, después de 16 horas de vuelo, la aeronave alcanzó el Norte geográfico de la Tierra, en cuyo lugar lanzó la cruz ofrecida por el Papa y la bandera de Italia. Durante el regreso se desataron fuertes borrascas de viento y nieve. Sobre el Italia se formó una espesa capa de nieve helada que le hizo perder altura, hasta que una ráfaga de viento huracanado le estrelló contra un banco de hielo. A consecuencia del golpe el dirigible se partió en dos, y mientras el sector donde se hallaban Nobile y ocho tripulantes más quedaba sobre los hielos, la otra sección con el resto de la dotación, se remontó de nuevo y desapareció para siempre.

El sobrecogedor silencio que siguió a los desesperados «SOS» lanzados por el radiotelegrafista de la aeronave tuvo la virtud de movilizar a numerosos equipos de salvamento que partieron en busca de los accidentados. Amundsen voló inmediatamente en auxilio de Nobile y pereció.

El día 20 de junio, ante la expectación del mundo entero, el comandante italiano Maddalena, que participaba en la búsqueda, consiguió localizar con su hidroavión a los supervivientes del dirigible que fueron auxiliados con víveres y medicamentos, lanzados en paracaldas. Tres días después, el aviador escandinavo Lundborg logró aterrizar con su avioneta provista de skis, sobre el banco de hielo donde se hallaba el grupo. Nobile, en forma todavía incomprensible y ante el estupor unánime del mundo civilizado, abandonó a sus compañeros y se salvó con el avión de Lundborg.

Para colmo de desgracias, y con ocasión de efectuar un segundo viaje sobre el improvisado campo, el avión de Lundborg capotó al aterrizar, quedando a su vez prisionero de los hielos hasta el 6 de julio en que fue salvado por otro aviador que también tuvo la audacia de aterrizar sobre el banco de hielo.

A consecuencia de diferencias surgidas entre los náufragos, éstos se dividieron en dos grupos. El encabezado por Malmgren, inició una marcha dantesca entre aquellas frías soledades, hasta alcanzar el rompehielos ruso Krasin (13 de julio). El drama no había terminado, ya que Malmgren rendido por el frío y la fatiga, había pedido a sus compañeros que le abandonasen y prosiguieran el camino hacia la salvación. Nobile, caído en desgracia y abrumado por el peso de tanta responsabilidad, se trasladó a vivir a Rusia.

Fuente Consultada:
Grandes Épocas de la Aviación Tomo 40 Los Aeronautas II
Química I Polimodal  de Alegría-Bosack-Dal Fávero-Franco-Jaul-Rossi

Propergoles Combustibles para cohetes Tipos y Componentes

Las aeronaves que operan dentro de la atmósfera utilizan considerablemente el aire, puesto que lo necesitan como sustentación para sus alas, queman el combustible con su oxígeno y, si poseen hélices, requieren aire a cierta presión para que éstas puedan “aferrarse”.

Como por encima de la atmósfera terrestre hay tan pocas moléculas de gas, los métodos convencionales de propulsión resultan insuficientes, al par que la falta de oxígeno obliga a que las aeronaves lleven consigo su provisión de él, ya sea en forma del elemento propiamente dicho, en estado líquido, o en la forma de algún compuesto oxidante.

Se han inventado varios tipos de combustibles y de fuentes de oxígeno para la propulsión de cohetes y otros vehículos espaciales, pero el principio fundamental de toda propulsión de cohete es el mismo en todos los casos, o sea, el principio de acción y reacción de la dinámica.

Al quemarse el combustible, ya sea sólido o líquido, crea enormes cantidades de gases calientes, que se encuentran a gran presión, debido al reducido tamaño de la cámara de combustión. Los gases que escapan por la parte de atrás del motor proveen el empuje necesario para impulsarlo hacia adelante. Los estadounidenses parecen preferir los propergoles líquidos. Entre las combinaciones que han utilizado con buen éxito está la de hidrógeno y oxígeno líquido, que al combinarse producen vapor. También emplearon el oxígeno líquido como oxidante de-combustibles tales como el queroseno y el amoníaco.

La combustión del queroseno produce vapor y bióxido de carbono. Como alternativa, en lugar de oxigeno han usado a veces el peróxido de hidrógeno (agua oxigenada), que se descompone en oxígeno y vapor. En otros cohetes, la combinación era dimetil-hidrazina, oxidada mediante ácido nítrico.

Cuando se emplean propergoles líquidos, el combustible y el oxidante deben ser mantenidos en recipientes separados. Los propergoles sólidos, por el contrario, deben ser mezclados antes de formar las “tortas” de combustible compacto. Los ingredientes típicos de una de esas tortas pueden .ser: perclorato de aluminio (agente oxidante), el ácido acrílico polibutadieno y polvo de aluminio (combustible), más un agente que tiene la función de endurecer la torta luego que ésta ha sido formada en el molde.

Las proporciones de agente oxidante y combustible se disponen de manera que siempre haya un ligero exceso de agente oxidante. Para esto hay dos razones: si la cantidad de agente oxidante es apenas la justa para la combustión completa, existe un serio riesgo de explosión, y, además, el aumento de presión que sufre el agente oxidante excedente, debido al calor de la combustión, se añade al aumento total de presión dentro de la cámara de combustión del motor cohete.

DISTINTAS FUENTES DE ENERGÍA PROPULSORA
Se obtiene el máximo aprovechamiento de la energía disponible por el combustible de un cohete, cuando la velocidad de salida de los gases de la combustión iguala a la velocidad con que el cohete se mueve hacia adelante. Por ello resulta conveniente comunicarle la energía inicial mediante algún medio exterior, tal como podría ser un poderoso motor, que le proporciona la energía de movimiento, o cinética, requerida para que su velocidad alcance un valor aproximado al de salida de los gases de combustión.

El principio de acción y reacción, en el cual se fundamenta la propulsión de cohetes, puede aplicarse no sólo con combustibles sólidos o líquidos convencionales, sino que podríanlos pensar en energía obtenible de distintos modos. En efecto, sabemos que cargas eléctricas, colocadas en un punto del espacio donde exista un campo eléctrico, experimentan fuerzas de naturaleza eléctrica. En los aceleradores modernos de partículas cargadas se obtienen valores elevados de la velocidad de las mismas. Éste sería un método apropiado para obtener la energía necesaria para la impulsión del cohete.

Las partículas podrían ser aceleradas mediante poderosos campos eléctricos. Dado que la materia es una dura concentración de energía, tal como surge de la teoría de la relatividad de la física moderna, fácil es ver que un combustible como éste ocuparía poco espacio, pero en cambio serían indispensables complejos aparatos construidos por la tecnología más avanzada.

Los cohetes de propergol sólido fueron conocidos desde hace mucho tiempo, pero sólo se volvieron a emplear hace muy pocos años. Ello se debió a la simplicidad del sistema y a la facilidad de almacenamiento. Los trabajos de investigación con combustibles sólidos son, en la actualidad, constantes.

cohete propergoles En los Estados Unidos se ha desarrollado, en la década de los 70, un combustible sólido que tiene la consistencia del caucho. Es el thiokol, que se fabrica en base a un derivado del caucho sintético líquido, mezclado con un oxidante sólido. El rendimiento potencial de un combustible depende de la eficacia de la oxidación.

Una idea de la bondad del combustible la da el impulso específico. Utilizando ácido nítrico como oxidante y anilina como combustible, se obtiene un empuje específico de 221, mientras que empleando oxígeno como oxidante y alcohol etílico como combustible, se obtiene un empuje específico de 242.

La fluorina como oxidante y el amoníaco como combustible dan una mezcla combustible de empuje específico igual a 288. El ozono y el hidrógeno, como oxidante y combustible respectivamente, dan una mezcla de empuje específico igual a 369.

La fluorina es uno de los agentes oxidantes más eficaces que se conocen. Es muy probable, con todo, que se mantenga, secreto el conocimiento de algún oxidante de rendimiento superior del tipo del ozono. La fluorina da un buen rendimiento oxidante, sobre todo con fluorita, pero el costo de esta mezcla es actualmente muy elevado. El ozono tiene un mayor poder oxidante que la fluorina, pero ofrece el inconveniente de que en estado puro manifiesta una marcada tendencia a descomponerse explosivamente.

El trimetilo es un compuesto de aluminio, fluido y de poder inflamable sumamente elevado. Su combustión es espontánea al ponerse en contacto con el aire. Su aplicación a la propulsión de cohetes no se halla desarrollada; mas puede constituir un elemento útil para el futuro.

Una fuente de energía hasta ahora prácticamente desconocida está en los radicales libres, que no son más que fragmentos moleculares libres de carga eléctrica, que se forman durante una reacción exotérmica. Las regiones superiores de la atmósfera terrestre son una fuente prácticamente inagotable de estos radicales libres, los cuales son originados por la radiación solar. Los radicales libres son el resultado de un proceso en que absorben energía. Luego pueden suministrar esa energía para la propulsión.

Recientemente se han realizado varios trabajos de experimentación e investigación. La tendencia de esos trabajos es la de aislar, los radicales libres para aprovecharlos como combustibles. Han sido aislados los radicales libres del vapor de agua, del amoníaco, del hidrógeno y del nitrógeno.

El empuje específico de los combustibles basados en los radicales libres resulta muy superior al de los elementos normales. Así, por ejemplo, en el caso del hidrógeno, si se fabrica un combustible con hidrógeno bajo la forma de radical libre, se obtiene un combustible cuyo empuje específico es cinco a seis veces superior al de los convencionales. De este modo, un cohete, propulsado con combustibles basados en los radicales libres, tendrá un alcance de unas treinta veces el del tipo común. No obstante estas ventajas de los radicales libres, en cuanto a concentración de energía, no han salido del campo teórico, debido a que es necesaria la solución de otros problemas muy complicados, tales como producción grande y barata, almacenamiento, control y estabilidad.

Empleando el radical de amoníaco con el hidrógeno líquido, se eleva a 7 u 8 veces el alcance de los cohetes comunes. La propulsión iónica es sin duda el medio más adecuado para impulsar las naves espaciales. En este procedimiento, la fuente de iones apropiados es el cesio.

Los iones de este elemento, acelerados en una superficie incandescente de tungsteno, y colocados bajo la acción de un potencial de unos 30.000 voltios, pueden alcanzar una velocidad de unos 220.000 m/seg., que es la requerida para que el impulso específico resulte elevado.

El berilio es un elemento que posee un elevado poder calorífico por unidad de peso, pero es muy tóxico, y se lo encuentra en la naturaleza en cantidades relativamente pequeñas. Por otro lado, el litio, que es un metal alcalino, y el boro, metaloide, permiten combinaciones con el hidrógeno, llamadas híbridos; estos son las bases esenciales de una gran parte de los supercombustibles empleados en la cohetería moderna. El boro no quema a temperaturas inferiores a los 700° C.

Los hídridos, tales como el de caborano, el pentaborano y el diborano, están destinados a reemplazar al carbono en sus combinaciones con el hidrógeno. El diborano es un gas tóxico, muy inestable en presencia de humedad o del aire. Los procesos tecnológicos requeridos para obtener combustibles basados en boro son en general complicados. En la práctica, se logra estabilizar los hídridos y eliminar su toxicidad, alcalinizándolos.

En Estados Unidos, el pentaborano alcalinizado es conocido bajo el nombre de Hi-Cal2 y Hef2, y el de caborano por Hi-Cal3 y Hef3. Estos combustibles son empleados en el desarrollo del avión cohete X-15.

Los combustibles que emplean borano en su composición química poseen un gran impulso específico, pero tienen una limitación. En efecto, sólo pueden usarse en los casos en que se dispone de aire.

Fuente Consultada: Historia de la Astronáutica – Ediciones Riego S.A.

Programas de Exploracion Espacial Cronología Las Misiones al espacio

Programas de Exploración Espacial
Cronología Las Misiones al Espacio

Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el Año Geofísico  Internacional , pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958.

Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960.

A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Tabla siguiente es un resumen de los principales programas de exploración del espacio:

Nombre País Fechas Logros Miembros
Sputnik URSS 1957-1958 Primer
Satélite
Valery Byskovsky.Yuri Gagarin, Adrián
Nikolayaev, Pavel Popovitch, Valentina
Tereshkova, GhermanTitov
Malcolm Scott Carpenter, L. Gordon
Cooper
.John Glenn,Virgil Grissom,
Walter Schirra, Alan Shepard
Explorer EE.UU. 1958-1984 Experimentos
Científicos
Pionner EE.UU. 1958 Investigación
de la Luna
Lunik URSS 1959 Aterrizaje
en la Luna
Vostok URSS 1961-1963 Primer Vuelo
Tripulado
Mercury EE.UU. 1961-1963 Americanos en el Espacio
Venera URSS 1961-1983 Investigaciones
de Venus
Ranger EE.UU. 1961-1965 Alunizajes
Mariner EE.UU. 1962-1974 Mercurio, Venus
y Marte
OSO EE.UU. 1962 Estudio Solar
Mars URSS 1962-1971 Investigación
de Marte
Pavel Belyayev, Konstantin Feoktistov,Vladimir
Komarov, Alexei Leonov, BorisYegorov
Edwin Aldrin, Neil Armstrong, Frank
Borman, Eugene Cernan, Michael Collins,
Charles Conrad, L Gordon Cooper.Virgil
Grissom, James Lovell, James McDivitt,
Walter Schirra, David Scott, Thomas
Stafford, Edward White, John Young
Vokshod URSS 1964-1965 Vuelos espacial con tres tripulantes
Géminis EE.UU. 1964-1966 Prueba de Vuelos Lunares
Luna URSS 1966 Fotografía
Lunar
Luna Orbiter EE.UU. 1966-1967 Cámara en
órbita lunar
Adwin Aldrin, William Anders, Neil Armstrong,
Alan Bean, Frank Borman, Eugene Cernan,
Michael Collins, Charles Conrad, Walter
Cunningham, Charles Duke, Don Eisle,
Richard Gordon, Fred Haise, James Irwin,
James Lovell, Edgar Mitchell, Stuart Roosa,
Walter Schirra, Harrison Schmitt, Rusell
Schweickart, David Scott, Thomas Stafford,
Jack Swigert,Alfred Worden, John Young
Surveyor EE.UU. 1966-1968 Robot Lunar
Apolo EE.UU. 1966-1975 El hombre llega
a la Luna
Soyuz URSS 1967-1986 Estación
Espacial
Vladimir Dzanibekov, Georgi Grechko, Alexei Gubarev, Pyotr Klimuk, Vladimir Remek,Yuri Romanenko, Víctor Savinykh, Svetlana Savitskaya.Vladimir Shatalov, Vitaly Stevastyanov, Vladimir Vasyutin, Vladimir Volkhov Alan Bean, Gerald Carr, Charles Conrad, Owen Garriott, Edward Gibsonjoseph Kerwinjack Lousma, William Pogue, Paul Weitz
Salyut URSS 1971-1986 Estación espacial tripulada
Skylab EE.UU. 1973-1974 Primera estación espacial americana
ATM EE.UU. 1973-1974 Estudio Solar
Apolo-Soyuz EE.UU./URSS 1975 Emprendimiento Internacional Vanee Brand, Valery Kubasov, Alexei Leonov, Donald Slayton,Thomas Stafford
Voyager EE.UU. 1977-1986 Estudio de Gigantes
de Gas
Valery Byskovsky.Yuri Gagarin, Adrián Nikolayaev, Pavel Popovitch,Valentina Tereshkova, GhermanTitov Malcolm Scott Carpenter, L. Gordon Cooper.John Glenn,Virgil Grissom, Walter Schirra,Alan Shepard
SMM EE.UU. 1980-1989 Estudio
Solar
Transbordador EE.UU. 1981-? Naves tripuladas de uso reiterado
Spacelab EE.UU./AEE 1983 Laboratorio espacial de uso reiterado
Vega URSS 1985 Estudio atmosférico de Venus y fotos del cometa Halley
Mir URSS 1986-? Estación
Espacial
Pavel Belyayev, Konstantin Feoktistov,Vladimir Komarov, Alexei Leonov, BorisYegorov Edwin Aldrin, Neil Armstrong, Frank Borman, Eugene Cernan, Michael Collins, Charles Conrad, L. Gordon Cooper.Virgil Grissom, James Lovell, James McDivitt, Walter Schirra, David Scott,Thomas Stafford, Edward White, John Young
Giotto AEE 1986
Susei Japón 1986
Buran URSS 1988
Fobos URSS 1988
Galileo EE.UU. 1992-?
Cassini EE.UU./AEE 1996

Galaxias Grupo Local Grupo de galaxias mas cercanas Estrellas Via Lactea

Galaxias: Grupo Local – Grupo de Galaxias

MÁS ALLÁ DE LA VÍA LÁCTEA Como ya hemos visto, nuestro sistema estelar presenta un diámetro de 100.000 años-luz y un espesor de 20.000 años-luz en su densa parte central. ¿Contiene la Galaxia la totalidad del universo, de las estrellas, gas y polvo que podemos observar?. La respuesta es “no”, puesto que los astrónomos han descubierto que nuestra Galaxia es sólo una entre muchos millones le galaxias.

Estas otras galaxias se extienden por el espacio en todas direcciones, hasta donde alcanza nuestra vista aun con la ayuda de los más potentes telescopios. Como la Galaxia, todas ellas contienen estrellas y, posiblemente, planetas, así como gas y polvo. No obstante, los únicos planetas que hasta ahora hemos observado han sido sólo los del sistema solar, pero esto no significa que el Sol sea la única estrella del universo que tenga MI sistema planetario.

Significa, exclusivamente, que nuestros telescopios no son aún lo suficiente potentes para detectar otros planetas, si es que en realidad existen. Las incontables galaxias que podemos observar están a tal distancia de nosotros, que aun el diámetro de 100.000 años luz de nuestra propia Galaxia empieza a palidecer por su insignificancia.

Las galaxias más cercanas son visibles sólo desde el hemisferio sur. Se conocen con el nombre de Nubes de Magallanes, así denominadas en recuerdo del gran navegante Fernando de Magallanes, que fue el primero en tomar nota de su existencia durante su viaje alrededor del mundo, hace más de 400 años. Las Nubes de Magallanes parecen trozos desgajados de la Vía Láctea; no obstante, se trata de dos galaxias independientes , a más de 150.000 años-luz de la nuestra. Y, sin embargo, las Nubes de Magallanes son vecinas muy próximas con respecto a la totalidad del universo.

Pertenecen al mismo cúmulo de galaxias que nuestro sistema estelar, al denominado “grupo local”. Este cúmulo contiene por lo menos 35 galaxias, o mas. La Galaxia parece estar situada a un extremo del cúmulo, y cerca del centro se encuentra la galaxia —aparte las Nubes de Magallanes— que puede verse sin telescopio.

GRUPO LOCAL
Grupo Local

“La Vía Láctea es parte de un barrio cósmico más grande –un grupo de más de 35 galaxias conocido como el Grupo Local. Estas galaxias se mueven por el espacio como una sola unidad, unidas por su mutua atracción gravitatoria. El número de galaxias que pertenecen al Grupo Local es incierto, debido a que los astrónomos siguen encontrando nuevos residentes de este barrio galáctico. Por ejemplo, una de las galaxias del Grupo Local fue descubierta en 1997, a unos tres millones de años luz de la Tierra. Esta nueva galaxia es diminuta: sólo contiene un millón de estrellas aproximadamente, comparado con los cientos de miles de millones de la Vía Láctea.”

Dicha galaxia aparece a simple vista una mancha luminosa, tenue y nebulosa, en la constelación de Andrómeda; pero al ser fotografiada mediante un gran telescopio aparece tan nítida, que pueden verse hasta algunas de sus estrellas individuales. Esta galaxia de Andrómeda está a casi dos millones de años-luz de nosotros. La luz que esta noche veremos proveniente de allí empezó su recorrido mucho antes de. que el hombre apareciera sobre la Tierra.

La totalidad del grupo local, que tiene una configuración muy ovalada, ocupa un volumen tan grande, que es difícil encontrar alguna comparación que nos permita imaginar su tamaño. No conocemos sus dimensiones con mucha exactitud, pero parece ser que se extiende sobre una superficie de por lo menos 4,5 millones de años-luz en longitud y la mitad en anchura. Su espesor es del orden de unos 600.000 años-luz.


Al utilizar telescopios para explorar aún más lejos en el espacio, más allá de nuestro grupo local, las distancias llegan a ser inimaginables. Otras galaxias y cúmulos de galaxias, alejados 50 millones y hasta 100 millones de años-luz, son bastante frecuentes. Los astrónomos saben ahora que las galaxias pueden observarse tan lejos como sus telescopios pueden profundizar. Con los más grandes y modernos, equipados con cámaras fotográficas, podemos estudiar galaxias situadas hasta 3.500 millones de años-luz de distancia.


Durante los últimos veinte años se ha introducido un nuevo método para “ver” aún más lejos en el espacio: el radiotelescopio. Estos instrumentos sólo son radiorreceptores muy sensibles con antenas especiales. Su objeto es el de recibir, no la luz, sino las ondas de radio emitidas por las estrellas y por el gas interestelar de nuestra propia Galaxia y de las demás galaxias.

Con los radiotelescopios los astrónomos pueden sondear en el espacio con mucha mayor profundidad que mediante los telescopios ópticos. Estos nuevos instrumentos ayudan al astrónomo a formarse una idea de la totalidad del universo, un universo al que no podemos encontrar límites en la actualidad.