Evolución de los Barcos

Inglaterra Potencia Naval en el Siglo XVI Exploraciones y Batallas

Inglaterra Potencia Naval- Dueña de los Océanos

El aislamiento geográfico ha obligado a los ingleses a buscar su salvación en el mar. Su espíritu de iniciativa y su audacia forjaron a través de los siglos un imperio incomparable. Sin embargo, no empezaron a explorar los horizontes lejanos hasta los siglos XVI y XVII.

Gracias a sus valerosos exploradores y almirantes, pudieron dominar los mares durante varios siglos. Desde los primeros tiempos, la situación de las islas británicas impulsó a sus habitantes hacia el mar. Estas islas, situadas frente a la atractiva costa de Europa occidental, presentan una costa notablemente recortada y anchos estuarios. En estas condiciones, ¿cómo los ingleses no iban a dedicarse sobre todo a la navegación?. Y ¿por qué habría de sorprendernos que lograran fundar también un inmenso imperio colonial?.

Lo que han realizado los ingleses en sus territorios de ultramar constituye la base de su prosperidad. Sin embargo, no parecían destinados a ejercer semejante dominio. Bien es verdad que en la Edad Media fueron dueños y señores de las aguas costeras, pero durante este período se dedicaron casi exclusivamente al tráfico comercial.

En 1410 los bajeles ingleses dispusieron de artillería, y Enrique VIII hizo construir los primeros navios de guerra. En el siglo xvi y a principios del XVIII, la potencia mundial de España y Portugal inquietó a Albión, que temía que se impidiera el acceso a las rutas marítimas que acababa de descubrir.

Entonces, Isabel I puso sumo cuidado en organizar y aumentar sus fuerzas navales. Gracias a su adiestramiento y habilidad, capitanes como el corsario Drake consiguieron derrotar en 1588 a la Armada Invencible española que pretendió invadir Inglaterra. También diremos que, en parte, debieron esta victoria a la incapacidad del duque de Medinasidonia, que mandaba la escuadra española, y a una terrible tempestad.

Esta derrota significaba para España el fin de su dominación marítima y para Inglaterra el principio de su poderío internacional.

En su lucha contra España, Inglaterra se vio apoyada por los holandeses, que en aquella época contaban con navegantes experimentados, entre ellos Piet Heyn. A cambio, los ingleses se comprometieron a ayudar a la República de las Provincias Unidas a conquistar su independencia.

En 1651, Cromwell decretó su Acta de Navegación para proteger la flota inglesa contra la competencia extranjera.

El Acta establecía que las mercancías procedentes de países no europeos sólo podían entrar en Inglaterra a bordo de barcos ingleses, mientras que la importación de productos europeos tenía que llevarse a cabo bajo pabellón inglés o el del país de origen. Actuando así, tenía presente a la Marina mercante holándesa. La oposición de los holandeses fue inútil, incluso cuando Guillermo III subió al trono de Inglaterra (1689).

En efecto, el Acta no fue abolida hasta 1849, cuando Inglaterra favoreció explícitamente la libertad del comercio.

navio de guerra ingles

Navío del Siglo XIII

Buque de guerra ingles

Navío Henri Grace que usaba Enrique VIII

Barco ingles siglo xix

Buque Almirante Howard

barco ingles

Navío “Victory” de Nelson

http://historiaybiografias.com/archivos_varios4/fuente_tomo2.jpg – Dueños de los Océanos –

Historia de las Obras Viales Construcciones Para El Transporte

HISTORIA Y EVOLUCIÓN DE LAS OBRAS VIALES: CARRETERAS, PUENTES Y TÚNELES

PRIMEROS CAMINOS: La mayoría de nosotros todavía se impresiona por los puentes gigantescos, pero la construcción de buenos caminos la considera cosa natural. Sin embargo, la construcción de caminos es, probablemente, un arte mucho menos antiguo que el de construir puentes, y uno en el cual el progreso no fue rápido en modo alguno; porque los primeros pueblos y ciudades eran comunidades que se autoabastecían, y no sentían necesidad urgente de ponerse en comunicación con otros poblados. De manera que los caminos por los cuales transitaban los escasos mercaderes de los tiempos primitivos, no eran rara vez más que senderos.

Los primeros que emprendieron la construcción de caminos en gran escala fueron los romanos. A medida que su imperio crecía, les resultaba cada vez más difícil estacionar las tropas que necesitaban en muchas y alejadas partes. Para obviar esto, gradualmente fueron construyendo una gran red de caminos a través de casi todos los territorios que conquistaban. Esto hizo que sus ejércitos fueran mucho más móviles.

Pero, después de la caída del Imperio romano y el desmembramiento de Europa, en muchos pequeños reinos y principados belicosos, los caminos romanos gradualmente se fueron deteriorando; y durante muchos siglos nadie construyó otros nuevos comparables a ellos. Durante la Edad Media, y aun siglos después, hubo pocos caminos en Europa donde un carruaje pudiera transitar a velocidad parecida a la de los antiguos carros romanos.

Fue durante las guerras napoleónicas cuando se empezó a encarar seriamente la construcción de caminos. Entonces, tanto en Gran Bretaña como en la mayor parte de Europa occidental, los buenos caminos se hicieron necesarios otra vez para el movimiento de tropas, artillería y suministros militares. En Inglaterra la necesidad de nuevos caminos se hizo sentir especialmente, pues la revolución industrial ya había comenzado y aún no había ferrocarriles.

Entonces, John Macadam, un ingeniero escocés se dio cuenta de que un camino que tenga que soportar rodados John Macadampesados, debe tener firmes cimientos y una superficie que no se agriete y forme huellas con facilidad. Sus caminos consistían, esencialmente, en capas de grava o piedras partidas mezcladas con arena, firmemente asentadas en el suelo y cubiertas de alquitrán. Por caminos pavimentados con macadán corrieron los coches del correo a la velocidad, fantástica para entonces, de 12 kilómetros por hora.

Pero la obra innovadora de Macadam no dio como inmediato resultado la formación de vastas redes de buenos caminos. A comienzos del siglo XIX, relativamente pocas diligencias y coches correo hacían largos viajes, y además sólo entre grandes ciudades. En otras partes los viejos caminos de tierra, con huellas, eran todavía suficientes para permitir el paso de no muy numerosos carretones; y para el tiempo en que las grandes industrias se desarrollaron, aproximadamente entre 1840 y 1870, la era del ferrocarril estaba firmemente establecida.

El gran ímpetu en la construcción de caminos vino cuando los automóviles y camiones fueron numerosos.  El uso de topadoras, camiones volcadores, grúas móviles, apisonadoras y hormigoneras, contribuyen a hacer la construcción de caminos más rápida y con más economía de trabajo humano que nunca. Superficies de losas de hormigón, con juntas para que se puedan dilatar, sin agrietarse, por el calor, hacen que los caminos sean más firmes y permitan una gran velocidad.

Construyendo para la Era del Automotor: Hay varias razones por las cuales el tránsito por los caminos ha aumentado de manera tan prodigiosa durante los últimos cincuenta años. Primero, enviar mercaderías de puerta en puerta por carretera significa cargar y descargar una sola vez, mientras el envío por carretera y ferrocarril representa varias y, por lo tanto, cuesta más.

Después, la industria automotriz ha mejorado constantemente la calidad y variedad de los vehículos de transporte. Por fin, más gente se puede permitir hoy el lujo del automóvil propio.

Así, en épocas recientes, muchos países, incluyendo Italia, Alemania, los Estados Unidos, Inglaterra, Bélgica, Francia y Holanda, han construido carreteras exclusivamente para el transporte automotor.

Las primeras carreteras modernas se construyeron en Italia, poco después de la primera guerra mundial, en parte para estimular la industria turística y en parte para proporcionar trabajo útil a los desocupados. Los conductores tienen que pagar un derecho de peaje para circular por estos caminos y este dinero contribuye a sufragar el costo de construcción y mantenimiento de los mismos. Siguieron a Italia en esta empresa Alemania y los Estados Unidos, ambos tratando de mejorar el diseño y la construcción.

La construcción de una carretera es una empresa formidable porque, para asegurar el máximo de velocidad y de seguridad la ruta, dentro de lo posible, debe seguir una línea recta; en zonas altamente industrializadas, donde las carreteras son más necesarias, rara vez es posible andar muchos kilómetros en línea recta sin llegar a un pueblo.

Así es que, aunque se trate de evitarlo, se deben demoler, a veces, algunas casas a lo largo de la ruta propuesta. Normalmente sólo los gobiernos centrales o locales tienen autoridad para obligar a los propietarios a vender sus casas para que sean demolidas, de manera que en la mayoría de los países la construcción de carreteras es obra del Estado.

Sin embargo, en los Estados Unidos, la empresa privada se ha ocupado de la construcción y funcionamiento .de algunas carreteras, cuyos gastos son sufragados por los derechos de peaje impuestos a los conductores que las usan. A pesar de que sólo un kilómetro de carretera puede costar unos 200.000 dólares,, se ha calculado que tales caminos se pagan solos en ocho años.

¿Por qué razón los conductores estadounidenses de vehículos de transporte y automovilistas particulares están-dispuestos a pagar derecho de peaje por el uso de estos caminos, y por qué el gobierno está dispuesto a gastar dinero en la construcción de carreteras?

La explicación es que el uso de buenas carreteras ahorra gastos al transporte a grandes distancias. Viajes más veloces significa que un vehículo pesado, que antes podía hacer uno o dos viajes diarios de ida y vuelta de un pueblo A a otro pueblo B, puede ahora hacer tres o cuatro, disminuyendo así el costo de cada viaje.

El hecho de que haya menos congestiones de tránsito significa que se producen menos interrupciones en la marcha, lo cual economiza combustible y evita el rápido desgaste de los neumáticos. El hecho de que las carreteras no tengan desniveles marcados o curvas bruscas significa que camiones pesados pueden arrastrar dos o aun tres acoplados, conduciendo así un peso mucho mayor sin que se aumenten los costos de mano de obra.

carreteras historia

Las ilustraciones de arriba muestran los caminos de hace 30 años (arriba) y los de hoy (centro) en la misma región. Partiendo del extremo inferior izquierdo del grabado superior, vemos al viejo camino ondular alrededor de una colina rocosa, bajar serpenteando abruptamente hacia un valle y luego subir nuevamente, para caracolear después atravesando el mismo centro de un área urbanizada. No hay ningún camino hacia la al:dea a través del río.

La carretera del grabado central atraviesa la sierra por un túnel, cruza el valle por un buen puente y, recta como una flecha, corta el área construida, a la cual da acceso por otros caminos bien diseñados. Un segundo camino, también recto, cruza debajo de las vías de ferrocarril, y por sobre el canal y el río llega a la aldea.

SALVANDO ARROYOS Y RÍOS: En ciudades o en campo abierto, el hombre siempre ha tenido el problema de cruzar ríos o riachos. Cruzar a nado es rara vez practicable, a menos que no se acarree nada; y mantener un ferry-boat es costoso, excepto donde hay un constante fluir de gente que desea cruzar. De manera que desde los tiempos primitivos, el hombre tuvo que aprender el arte de construir puentes. Los diagramas muestran los principios generales de los diferentes métodos de la construcción de puentes.

La manera más simple, y probablemente más antigua, de cruzar un río sin mojarse, es colocar un tronco de árbol a través de él. Si las márgenes del río o arroyo son altas, no se necesita nada más. Si son bajas, entonces el tronco debe levantarse sobre soportes a ambos lados, para mantenerlo separado del agua y que no sea arrastrado por la corriente.

Los romanos fueron los primeros que emplearon arcos en la construcción de puentes, y usando una serie de arcos pudieron extender buenos y fuertes caminos sobre ríos bastante anchos. Pero hay un inconveniente en atravesar un río ancho con un puente de muchos arcos: los numerosos pilares u otros soportes en medio del río impiden que los barcos grandes naveguen por él.

Puente en Roma

Naturalmente, hay muchos ríos anchos que son muy poco profundos o de corriente impropia para la navegación. En ellos los puentes se pueden construir tan bajos como se considere conveniente, y con tantos soportes, en el medio de la corriente, como sea necesario.

Desde fines del siglo XVIII  en adelante, la creciente producción de hierro y acero y un aumento del conocimiento de la ingeniería han capacitado al hombre para resolver esta clase de problemas de un modo completamente nuevo, construyendo el puente movible, que unas veces permite el tránsito del camino formado sobre él y otras el paso de los buques. Cuatro ejemplos son: un puente giratorio (a), un puente desplazable (b), un puente levadizo, en el cual todo el tramo se puede elevar y bajar (b), y una versión moderna del puente medieval levadizo (d).

Ampliar: Historia de los Puentes

PUENTES MODERNOS: Tal vez el más difícil de todos los problemas que tiene que afrontar el constructor de puentes es el de salvar un río, verdaderamente ancho, cuando no puede usar apoyos intermedios por temor de obstaculizar el paso de los grandes barcos. Los hombres apenas encararon este problema hasta que pudieron hacer largas vigas de materiales de gran resistencia a la tracción, tales como el hierro forjado o el acero.

Aún entonces el problema no estuvo resuelto en modo alguno, porque ni siquiera hoy nos podemos imaginar vigas de muchos cientos de metros de longitud y al mismo tiempo bastante fuertes como para sostener un camino ancho y moderno sobre un río. El problema subsiste, y si no podemos sostener un largo puente por debajo, debemos sostenerlo por arriba.

esquema de un puente colgante

El método a seguir (imagen arriba) es el de extender un par de cables de acero enormemente fuertes entre dos torres. Por tirantes que ellos estén, nunca podrán formar líneas rectas; constituirán lo que los ingenieros y matemáticos llaman catenarias. Si se cuelgan de estos cables muchos otros, a intervalos iguales, cada uno dará aproximadamente igual apoyo a cualquier cosa que se cuelgue de su extremo. De manera que una vez que los cables principales estén tendidos entre las torres, con los extremos firmemente encajados en enormes bloques de hormigón, para evitar que cedan, el constructor de puentes colgará de ellos muchos cables fuertes, capaces de sostener la serie de vigas de acero sobre las cuales descansará el camino.

Uno de los primeros y más famosos puentes de esta clase, el puente colgante Clifton, en Bristol, fue proyectado por el gran ingeniero Brunel, hace unos 130 años, y completado alrededor de 1860, unos años después de su muerte. Pero los numerosos puentes colgantes mucho más grandes que ahora salvan anchos puertos y ríos en todos los continentes son esencialmente puentes del mundo moderno.

puente colgante Clifton

Probablemente, el más famoso de todos los puentes colgantes es el Golden Gate, que se extiende a través del puerto de San Francisco. Sin embargo, su luz de más de 1.260 metros será sobrepasada cuando esté terminado el puente Verrazzano-Narrows, en Nueva York, entre Brooklyn y la isla Staten.

El puente Jorge Washington, en Nueva York, que fue construido por los ingenieros Ammán y Whitney, en 1931. Entonces, el enorme camino que sostenía, a una altura de unos 60 metros sobre el nivel del río, ya estaba equipado con ocho vías para el tránsito. Pero sus constructores previeron que a medida que creciera el tránsito de Nueva York sería necesario agregar otro camino completo, y teniendo en cuenta esto, planearon el puente.

puente colgante george Washington

Este segundo camino, con seis vías para el tránsito, ha sido agregado ahora, a unos 5 metros por debajo del nivel del primero. La parte de arriba de la figura representa la posición del camino original, y las líneas punteadas indican la posición del nuevo.

Pero aun este puente de dos pisos, con su total de 14 líneas para el tránsito, puede no ser suficiente para atender el volumen siempre creciente del tránsito, y ya existen planes para la construcción de otro puente de dos pisos, aún mayor, entre Brooklyn y Richmond.

puente colgfante en mexico
Un gigantesco proyecto, jams realizado en América del Norte, el gran puente sobre el río Baluarte no sólo es el puente más alto de América del Norte, ya que también es el puente atirantado más alto del mundo superando el viaducto de Millau en Francia.

PERFORANDO CAMINOS: En incontables lugares, los que construyeron caminos hace un siglo o más, pudieron haber excavado túneles a través de sierras o montañas, para no desviarse de la línea recta, pero hay dos razones por las cuales rara vez lo hicieron. Primera, habría demandado gran gasto de trabajo. Segunda, como era escaso el tránsito en los caminos, no importaba mucho que éstos siguieran o no la dirección recta.

La necesidad urgente de muchos y grandes túneles no surgió hasta fines del siglo XVIII y comienzos del XIX, cuando se construyeron los canales de navegación y, luego, los ferrocarriles. Desde entonces, la congestión del tránsito en muchas ciudades grandes hizo preciso utilizar trenes subterráneos, y en nuestro tiempo la construcción de carreteras para automóviles ha exigido aún más túneles.

Con la necesidad de nuevos túneles se han perfeccionado los métodos para realizar las perforaciones. Ya en 1689 la pólvora se usó para hacer volar la roca en la excavación del túnel Malpas, en el sur de Francia, y desde entonces, otros explosivos, mucho más poderosos que la pólvora, se han usado para atravesar la roca.

Tal vez el más famoso de los túneles de ferrocarril en la roca es el del Simplón, que corre bajo los Alpes, desde Visp, en Suiza, hasta Isella, en Italia, y fue construido en 1906. Actualmente, otro gran túnel, de unos 7 kilómetros de largo, se está abriendo en la roca a través del Monte Blanco, para la circulación de rodados entre Francia e Italia, permitiendo en su momento la circulación 350.000 vehículos anuales.

Al excavar túneles a través de un subsuelo de arcilla y, especialmente, al construirlos bajo ciudades muy pobladas, no es posible usar explosivos poderosos. Así, al construir las vías subterráneas de Londres, se han usado métodos completamente diferentes. Algunos de los túneles primitivos se hicieron por el método de “excavar y cubrir”: primero se excavaba una larga y profunda zanja, que luego se techaba, y el techo se apuntalaba fuertemente. Por fin, éste se cubría, formando una gruesa capa con la tierra que había sido extraída de la trinchera. Pero la mayoría de los túneles posteriores, más profundos, se hizo por el método del entubado.

En este método, un enorme instrumento, cilindrico y hueco, de filo muy cortante, se introduce en el terreno por presión hidráulica. La tierra removida se extrae y enormes soportes circulares se colocan en posición en el agujero que se ha hecho de este modo, formando un tubo.

Hoy, el famoso subterráneo de Londres permite el transporte de centenares de miles de personas, que van a sus lugares de trabajo y vuelven de ellos diariamente, y sin él habría un caos permanente en el tránsito. Otras grandes ciudades, como París, Nueva York y Moscú, tienen trenes subrráneos, mas no líneas tan largas como Londres.

Una manera nueva de construir túneles bajo el agua es fabricar enormes secciones del túnel con el hormigón, en tierra firme, llevar cada una de ellas al lugar prefijado y dejarla sumergirse hasta el fondo de una zanja preparada en el lecho del río. El túnel más grande construido hasta ahora de este modo, cerca de la desembocadura del Rin, tiene más de 7 kilómetros de largo.

Ya en 1833 se sugirió que se construyera un túnel en el canal de la Mancha, entre Inglaterra y Francia. El proyecto fue tratado varias veces, hasta que fue aceptado en 1966. Este túnel, uno de los grandes proyectos de ingeniería del siglo XX, tiene una capacidad para 600 trenes diarios en ambos sentidos. Es un servicio regular de trenes-lanzadera  gestionado por la compañía Eurotunnel, que transporta además automóviles y camiones. El trayecto tiene una duración de 35 minutos. Cada tren alcanza una velocidad de 130 km/h debajo del mar, tiene una longitud de 800 metros y puede transportar hasta 180 automóviles o 120 automóviles y 12 autobuses. Los trenes de mercancías pueden transportar 28 camiones.

perforacion tunel del canal de la mancha

Perforación del túnel del canal de la Mancha Una inmensa perforadora avanza a través de capas arcillosas durante la construcción del túnel del canal de la Mancha, de 51 km de largo, que empezó a funcionar en mayo de 1994. Costó más de 10.000 millones de libras, y es el mayor proyecto de construcción emprendido nunca en Europa. Permite a los trenes de pasajeros y mercancías, y a los automóviles, viajar de París a Londres en unas 3 horas.

Ampliar: Historia de los Túneles

Fuente Consultada:
La Técnica en el Mundo Tomo II -Obras Civiles  – Globerama Edit. CODEX

Historia de las Viviendas La Evolución de las Construcciones

HISTORIA Y EVOLUCIÓN DE LAS VIVIENDAS DESDE LA PREHISTORIA

PRIMERAS VIVIENDAS REFUGIOS: Hubo sin duda muchas necesidades y deseos que empujaron al hombre a dominar nuevas formas de energía y buscar nuevos materiales, pero es dudoso que alguno fuese tan importante como la necesidad y el deseo de construir. Porque el hombre siempre ha necesitado protegerse de la intemperie, de los animales salvajes y de sus enemigos.

A menudo pensamos en los hombres primitivos como los “hombres de las cavernas” y es verdad que muchos de ellos buscaron refugio y quizá hasta vivieron durante meses seguidos en cavernas naturales. En realidad, mucha gente aún vive así en la actualidad. Algunas personas, en el sudeste de España, viven permanentemente en cuevas de piedra caliza. En la China, también hay campesinos cuyos hogares son poco más que grandes cuevas cavadas en sus campos y cubiertas de tierra. (Ver: Pueblo Bosquimanos)

Sin embargo, no todos los hombres del presente habitan en cuevas de manera permanente y tampoco lo hacían los hombres de la Edad de Piedra. Para obtener lo suficiente para comer tenían que vagar por grandes extensiones, cazando animales, buscando nueces, hierbas, frutas y bayas.

Muchas veces, cuando caía la noche, en medio de la lluvia, debieron encontrarse lejos de cueva alguna o de cualquier otro refugio natural. La única cosa que podían hacer era extender algunas pieles de animales a través de dos ramas y buscar refugio debajo. Pero a medida que pasaba el tiempo, nuevas tribus aprendieron gradualmente a coser pieles de animales y a fijarlas en una armazón de estacas. Asi hicieron una tienda liviana, que podían levantar donde y cuando la necesitaran.

Albergues ligeros y transportables, basados en el mismo principio, se usan hoy dondequiera que el hombre vive todavía una vida errante.

carpa de aborigenes americanos

Vemos dos  ilustraciones una tienda o carpa de los indios del Nuevo Mundo y otra de tela empleada por nómadas del desierto del Viejo Mundo.

carpa en el desierto

Otros pueblos que aún usan tiendas son los lapones y, en los meses de verano, los esquimales. Tan pronto como los hombres empezaron a cultivar la tierra se vieron obligados a establecerse cerca de sus campos y entonces cambió todo el problema de la construcción de las viviendas. Un nómada deberá hacer un albergue ligero y transportable, pero no tiene que preocuparse por su duración, ya que fácilmente podrá construir otro.

Un agricultor, por el contrario, necesita una morada no solamente lo bastante grande para dormir en ella, sino también para vivir y guardar sus herramientas; no tiene que preocuparse de su peso, pero desea que sea durable. Y así los primeros agricultores fueron los primeros constructores de verdaderas viviendas permanentes.

La mayoría de las primeras viviendas no eran en modo alguno un ejemplo de perfecta arquitectura. La gente usaba los materiales que tenía a mano y les daba forma como mejor podía con las pocas herramientas existentes entonces. Podemos darnos una idea del aspecto que tenían examinando los albergues que los pueblos primitivos construyen en la actualidad.

iglu en el polo norte

Iglú de los esquimales en el Polo

Los pigmeos de África Central hacen chozas de ramas, someramente cubiertas con hojas, muchos indios del Amazonas hacen chozas similares. Probablemente muchos siglos transcurrieron hasta que los primitivos agricultores aprendieron a construir albergues tan buenos como las chozas zulúes, su armazón es de listones de madera entrelazados, rodeados por fuertes ladrillos cerca de la base, y rellena de arcilla secada y endurecida al sol.

rabcho de techo de paja y paredes de tablones de madera

Vivienda del tipo que aún se encuentra en algunas partes de Francia y Alemania. Consiste también en un enrejado de madera, cubierto con arcilla. Pero tiene un buen techo de paja y algunas de sus paredes están reforzadas con sólidos tablones de madera.

ALCANZANDO EL CIELO: Si el hombre hubiese construido solamente para satisfacer sus necesidades inmediatas, es dudoso que hubiera producido alguna vez algo más grande que una modesta vivienda. En realidad, el hombre ha realizado, por lo menos, una construcción tan enorme, que los viajeros del espacio que se dirijan a la Luna es posible que la vean a una distancia de más de 135.000 kilómetros, a la Gran Muralla de la China.

Hace más de 7.000 años, cuando la mayor parte de la humanidad aún dormía a cielo abierto y sólo una minoría afortunada poseía tiendas o chozas, unos pocos hombres civilizados empezaban a construir los primeros pueblos amurallados del mundo. El más antiguo de que tenemos noticia es Jericó, en el valle del Jordán.

Es fácil comprender cómo las aldeas crecieron en regiones fértiles, poco después que los hombres comenzaron a hacer cultivos, y es fácil comprender también por qué algunas de ellas, situadas convenientemente para el intercambio, gradualmente se convirtieron en pueblos. Pero, ¿por qué se molestaron los hombres en circundar estos pueblos de altos muros? La explicación más probable es que lo hicieron así para protegerse contra las irrupciones de los pastores nómadas. Cuando los tiempos eran buenos, los pastores, probablemente, no intentarían atacar a los habitantes de los pueblos. Pero cuando la sequía los privaba de los pastos y veían al ganado en peligro de muerte, no vacilarían en saquear los graneros bien provistos de los pueblos. Una fuerte muralla era entonces la única salvaguardia.

Es más difícil comprender por qué los hombres erigieron edificios colosales dentro y cerca de las ciudades amuralladas, durante los dos o tres milenios siguientes. Desde mucho antes del año 2000 a. J. C, Egipto y el valle del Indo tenían templos gigantescos. El zigurat, gran templo de terrazas escalonadas, de la Mesopotamia, construido en plantas superpuestas, como una gigantesca torta de bodas de muchos pisos, alcanzó a veces una altura de 90 metros.

zigurat en asiria

En Egipto, Imhotep, el primer arquitecto cuyo nombre ha llegado hasta nosotros, construyó una pirámide escalonada de figura parecida alrededor del año 2650 a. J. C. Estaba hecha de enormes bloques de piedra tallada y se elevaba a unos 60 metros de altura. Un siglo o dos más tarde, una pirámide de más elevación fue construida por Keops. Todavía existe hoy, y es tal vez el monumento más grande que se haya levantado jamás. Cada lado de su base cuadrada mide más de 225 metros, se eleva a una altura de 125 metros, y cubre una superficie de más de 5 hectáreas. Su construcción debe haber ocupado a cientos de miles de hombres, durante 20 años.

piramides de egipto

Sabemos que muchos de los grandes edificios de la antigüedad tenían diferentes fines prácticos. El zigurat de la Mesopotamia, por ejemplo, no era solamente un templo, sino que también servía de hospital, escuela, taller de artesanía y, a veces, de observatorio.

Las pirámides de Egipto, además de servir de tumba a los reyes, eran colosales instrumentos astronómicos, que daban a los diestros observadores la posibilidad de calcular la longitud del año, midiendo sus sombras, y de determinar el paso de las estaciones, tomándolas como referencia para comprobar la posición de ciertas estrellas brillantes.

Pero el grandioso tamaño de estas construcciones, el sacrificio de tiempo y dinero que suponen y la manera como se elevan hasta el cielo, nos hacen pensar que fueron construidas, especialmente, como actos de homenaje y adoración a los dioses.

Hace 400 años, Pedro Bruegel pintó, valiéndose de su imaginación, la Torre de Babel mencionada en el Génesis. La figura de enfrente está basada en sus cuadros. Bruegel sabía mucho menos acerca de las construcciones antiguas de lo que sabe cualquier arqueólogo moderno, pero su cuadro, a no dudar, pone de manifiesto ese aspecto importante de las contracciones de los hombres primitivos.

CONSTRUYENDO DEFENSA: En su tiempo, el imperio romano dio a gran parte de Europa algo todavía más importante que buenos caminos y casas cómodas. Le dio un prolongado período de paz y un gobierno fuerte y estable. Aunque no faltaban serias luchas en las fronteras, los habitantes de los pueblos y ciudades del imperio vivieron durante muchos años sin temores de ataques por parte de sus vecinos.

Después que el imperio romano se derrumbó las cosas fueron muy diferentes. Cada pocos kilómetros cuadrados de territorio y casi en cada ciudad o pueblo, el poder cayó, gradualmente, en manos de personas distintas: pequeños príncipes, señores feudales, nobles y barones bandidos.

Hasta ya entrada la Edad Media cada uno estuvo en estado de guerra intermitentemente con sus vecinos. Ésta era la época en que los hombres construían primero y sobre todo para su protección. Había obras de defensa y fortalezas de cierto tipo durante la Edad de Bronce y aun en la Era Neolítica, pero la fortificación es preeminentemente la característica de la Edad Media.

El castillo medieval tenía que servir a un doble propósito: proveer de digna e imponente mansión a los hombres de poder y alcurnia y también ser una fortaleza con buena guarnición y bien provista, capaz de soportar el ataque armado y el sitio prolongado.

La primera preocupación del arquitecto era encontrar un lugar donde la fortificación estuviese libre de ataques por sorpresa del enemigo.

Siempre que fuese posible, elegía la cima de una colina escarpada, un promontorio rocoso o una angosta península, desde los cuales los centinelas pudieran vigilar constantemente la región circundante.

En tierras bajas y llanas a menudo construían sobre una pequeña isla lacustre, o bien rodeaban el castillo con un ancho foso, de modo que los atacantes se viesen detenidos por el obstáculo que representaba el agua.

En tiempos de paz y de día, los moradores del castillo podían fácilmente cruzar el foso por medio de un puente levadizo; en tiempos de guerra y por la noche, levantaban este puente, de modo que ningún enemigo podía entrar sin salvar de algún modo el agua del foso.

Las paredes exteriores del castillo y de sus patios eran siempre tan altas que nadie podía escalarlas sin la ayuda de una pesada e incómoda torre de asedio, muy difícil de trasladar; también eran sumamente gruesas y fuertes, para que el enemigo no pudiese fácilmente abrir brechas en ellas con arietes.

De tanto en tanto estas poderosas murallas estaban perforadas por aspilleras: angostas ventanucas, como tajos, desde las cuales los defensores podían disparar una lluvia de flechas sobre los atacantes, casi sin riesgo de ser heridos a su vez. En diferentes puntos, a lo largo de las murallas, altas torres de observación servían para que los centinelas pudiesen divisar las tropas que se aproximasen.

El castillo mismo, aunque seguramente mansión imponente, grandiosa, no era vivienda cómoda. Las obras sanitarias casi no existían, y el agua, extraída de pozos, solía ser escasa. El vidrio liso y transparente para las ventanas era aún cosa del futuro, de modo que la luz y el aire, junto con las corrientes, podían penetrar sólo a través de angostísimas ventanas o vanos.

Hogares de ardientes leños calentaban excesivamente una parte de las grandes habitaciones, construidas de piedra, mientras dejaban helados los rincones alejados y, sin chimeneas bien construidas, la habitación entera se llenaba de humo espeso.

Además, el señor feudal tenía que compartir el limitado espacio de su castillo con un gran número de soldados y sirvientes. Como era responsable de mantener la ley y el orden en la región, tenía que disponer de un espacio para los delincuentes comunes y de calabozos para los criminales y los rivales políticos peligrosos.

plano de un castillo medieval

El plano de un castillo medieval típico, en el centro de la página opuesta, nos muestra: 1) puente levadizo; 2) patio exterior del castillo; 3) calabozo; 4) vivienda de los nobles; 5) vivienda de los sirvientes; 6) capilla; 7) patio; 8) muralla exterior; 9) torre del vigía; 10) barracas de los soldados, y 11) celdas de la prisión.

ELEVACIONES, TORRES Y CAMPANARIOS:  Los lugares elevados siempre han sido de uso práctico para el hombre, porque desde ellos se puede ver más lejos y a menudo oír más claramente que desde el llano. Muchos de los caminos prehistóricos, que eran poco más que huellas muy transitadas, remontaban las crestas de las colinas, de modo que el caminante, con una visión clara a su alrededor, era advertido con amplio margen de tiempo de cualquier peligro que se aproximase.

Por lo tanto, era natural que cuando los hombres se civilizaron construyeran torres de observación que los ayudaran a acechar a los enemigos que pudiesen poner en peligro sus ciudades, pueblos y heredades. Los romanos construyeron muchas torres de observación, de madera, en las avanzadas de su imperio; y como hemos visto, las fortificaciones medievales estaban erizadas de atalayas de piedra.

Aun en la actualidad, la alta torre de control de cualquier moderno aeropuerto puede considerarse como una elevación artificial que ayuda al hombre a extender su campo visual. Sin embargo, un lugar elevado no es solamente un sitio desde el cual un hombre puede ver y oír mejor. Es también un lugar desde el cual las cosas pueden ser vistas y oídas mejor. Por ello, desde los tiempos primitivos, los hombres han prendido fogatas en las altas cumbres, como medio de hacer señales a sus semejantes desde gran distancia.

Y los hombres civilizados han estado construyendo torres para hacer señales durante miles de años. En los pueblos musulmanes, el muecín llama a los fieles a la oración desde un alto minarete, y todos los moradores pueden ver sus brazos extendidos. En los países cristianos, las campanas suspendidas en los altos campanarios de las iglesias se usan, desde hace tantos siglos, para repicar, llamando a los servicios religiosos, y hasta que los relojes que funcionaban mecánicamente dejaron de ser costosas rarezas, se colocaban en lo alto de las torres de los templos, de manera que todos pudieran ver y oír la hora.

mezquita azul

El grácil minarete de la mezquita de arriba, o el esbelto y gigantesco campanario de algunas iglesias están inspirados por la devoción del hombre a un poder más grande que el humano y la inspiran a su vez. Podríamos decir que son postes indicadores del cielo.

El más famoso de todos los faros antiguos fue el construido en el siglo III a. J. C, en la pequeña isla de Faros, cerca de Alejandría. En la parte superior de su alta torre, ardía un fuego todas las noches, para guiar a los barcos al puerto.

En el tiempo de los romanos, faros parecidos se construyeron a lo largo de muchas partes de las costas del Mediterráneo. En el presente, altos faros no sólo jalonan casi todas las costas del mundo, como mojones, sino que también se construyen sobre pequeñas rocas, a veces a varias millas de la costa más próxima, para advertir a los barcos la presencia de escollos y bajíos.

Sus poderosas lámparas eléctricas o de aceite, que brillan a través de grandes lentes giratorios, pueden verse claramente a 30 kilómetros a la redonda. En estos días de radio y radar, los barcos dependen menos de las señales del faro que hace unos pocos años. Pero la era actual ha encontrado nuevos usos para las altas torres. Las transmisiones de radio y televisión de ciertas longitudes de onda no pasan fácilmente a través de los objetos sólidos interpuestos en su camino.

Ver: Historia de los Faros

El diagrama de abajo nos muestra cómo altas antenas transmisoras las capacitan para pasar por encima de elevaciones y altos edificios y llegar a las zonas de recepción.

La Torre de Eiffel

Torre de Eiffel

MADERA, PIEDRA,LADRLLO Y HORMIGÓN: Aunque la madera es uno de los más antiguos materiales de construcción, el hombre nunca ha sabido construir viviendas de madera que resistieran bien todos los climas y en la actualidad las casas hechas enteramente o casi enteramente de madera, han sido relegadas, por lo general, a las regiones boscosas. Los largos troncos que forman las paredes exteriores se cruzan a veces en las esquinas y a menudo hay tabiques interiores de tablones para evitar las corrientes de aire.

En las viviendas más modernas,  las paredes exteriores están hechas de tablas o troncos sobrepuestas o solapadas que hacen que la lluvia corra fácilmente. También hay paredes internas de madera separadas unos centímetros de las exteriores, a fin de dejar una cámara de aire entre ellas. Esto aisla la casa del calor y el frío extremos del exterior. Pero tal vez las casas de madera más hermosas y más conocidas son los chalés de los Alpes. Además de estar construidos con madera nueva y fuerte, son hermosos en diseño y color y muchas veces están adornados con bellas tallas.

cabaña de troncos superpuestos

cabañas en suiza

Hay varias razones por las cuales los hombres han usado la piedra como material de construcción con preferencia a la madera. Primero, muchas ciudades y pueblos están lejos de los bosques y, hasta una época relativamente reciente, los caminos deficientes y la falta de transporte mecánico hacían difícil y caro acarrear madera a través de largas distancias. La piedra, por el contrario, puede abundar en tales lugares.

Además, construir con madera, aun sencillamente, exige habilidad para manejar las herramientas, mientras que en un nivel primitivo, por lo menos, construir con piedra es mucho más simple. La ilustración de abajo se muestra un tosco albergue de piedra, tal como el hombre lo ha podido construir en cualquier época sin necesitar destreza especial. Pero hacer una construcción de piedras naturales a prueba de la intemperie,  es una tarea más difícil, y cuando el hombre, finalmente, aprendió a cortar, dar forma y alisar las piedras para sus construcciones, llegó quizás al punto más alto de su destreza y arte como arquitecto y constructor.

casa tosca de piedra

El arte de edificar con ladrillos es de gran antigüedad. En efecto, uno de los mayores motivos de queja de los judíos en Egipto, en tiempo de Moisés, era que los capataces del Faraón les exigieron que ellos mismos se procuraran la paja para la fabricación de los ladrillos, sin que disminuyeran su antiguo y alto ritmo de producción.

Los ladrillos rojizos de medida standard, que son ahora los materiales de construcción más comunes, no se han divulgado en la Europa occidental hasta los últimos cuatro o cinco siglos. Su propagación se ha debido a que son durables, de producción económica y fáciles de transportar. Algunos critican que los edificios de ladrillo a menudo parecen estar fuera de lugar con respecto al sitio en que se construyen, pero no se puede negar que muchos de ellos  tienen una belleza particular.

horno de ladrillos comunes

Actualmente los constructores y arquitectos hacen uso cada vez mayor de un material de construcción nuevo: el hormigón reforzado con barras de acero. El hormigón armado no se presta fácilmente para la construcción de techos abovedados y ciertos arcos, tales como los que encontramos en las grandes catedrales medievales; pero los arquitectos han demostrado que las severas líneas rectas de las modernas construcciones de hormigón tienen dignidad y fuerza.

LOS PRIMEROS RASCACIELOS: Aunque hace muchos siglos que se construyen torres, solamente en los últimos 80 años se han levantado gigantescos edificios para viviendas y locales de trabajo. Hasta casi el final del siglo pasado era imposible su construcción. Primeramente, nadie hubiera querido vivir o trabajar en lo alto de un edificio de muchos pisos de haber tenido que trepar muchos cientos de escalones todos los días, y debemos recordar que las primeras usinas capaces de suministrar electricidad para hacer funcionar ascensores se inauguraron alrededor de 1880.

Además, hasta que las acerías no consiguieron fundir enormes vigas de acero a precio moderado, es decir, hasta hace poco mas de 100 años, los constructores no tenían material lo bastante fuerte y barato para formar la estructura de un rascacielos. Finalmente, hasta hace relativamente poco, el terreno dentro y alrededor de la mayoría de las grandes ciudades no era tan exorbitantemente caro como ahora y los constructores, por lo general, hallaban más barato construir extendiéndose en superficie que en altura.

No es extraño que los primeros rascacielos fuesen construidos en Nueva York; a comienzos de este siglo: su primera usina eléctrica se acababa de inaugurar, en el país existía ya una progresista industria del acero y la escasez de espacio en la isla de Manhattan había hecho aumentar los precios de la tierra.

Los primeros rascacielos no eran hermosos, pero sí edificios muy útiles. Aprovecharon al máximo un terreno reducido e hicieron posible concentrar vastas empresas comerciales bajo el mismo techo. En la actualidad, no es extraño que un rascacielos proporcione vivienda o lugar de trabajo a un número de personas que oscila entre 15.000 y 25.000.

Algunos, como el famoso Empire State Building, (imagen abajo) de Nueva York, y el Crane Building, de Chicago, tienen bastante más de 300 metros de altura. No pocos de ellos constituyen verdaderas ciudades en pequeño, con sus propios negocios, viviendas, restaurantes y lugares de diversión. Y los modernos rascacielos ya no son feos: además de claros, aireados, higiénicos y cómodos, están bien decorados.

Edificio Empire State

Abajo se observa el  gigantesco Rockefeller Center, que se comenzó en 1928 y que se eleva en el centro de Manhattan. Consta de 15 bloques de rascacielos y está planeado de tal modo que se podrá extender cuando sea necesario. Además de tener su propia estafeta de correos y transmisores de radio y televisión, posee un hospital, 20 restaurantes, un garaje de seis pisos, una comisaría y un cuerpo de bomberos.

edificio en ee.uu. rockefeller center

Esta ciudad dentro de otra ciudad contiene también el Radio City Music Hall, el teatro más grande del mundo, con asientos para más de 6.000 personas. No todo el Rockefeller Center está sobre la superficie. Además de muchos grandes e importantes comercios al nivel de la calle, hay muchos otros subterráneos. También bajo tierra hay enormes playas de estacionamiento de autos y numerosos cuartos para calderas y maquinarias.

Algunos pocos datos estadísticos referentes a esta inmensa construcción. Hay 55.300 llaves para sus puertas; sus habitantes usan 40.000 teléfonos, y posee 24.291 ventanas; 42.000 personas trabajan allí y alrededor de 150.000 entran y salen del Center todos los días.

Sus 216 ascensores, algunos de los cuales paran en muchos pisos y otros sólo sirven como expresos de larga distancia, recorren unos 3.700 kilómetros diarios —casi tanto como desde Miami, en el estado de Florida, hasta Portland, en el de Oregón, o casi dos veces tanto como desde París a Atenas. Todos los días el Center consume 360.000 kilovatios hora, lo suficiente para mantener encendida una estufa eléctrica durante 43 años. Todo el conjunto costó alrededor de 200.000.000 de dólares.

LOS HOGARES DEL SIGLO XX: Según hemos observado, para que se iniciara la construcción de rascacielos tuvieron que coincidir tres factores: abundante provisión de electricidad, producción de acero en gran escala y escasez de terreno para edificar en las grandes ciudades. Pero fue necesaria también una nueva actitud de parte de los arquitectos y de sus clientes. Tuvieron que probar ideas, diseños y materiales de construcción aún no consagrados por la tradición. En los últimos veinte años, especialmente, los que proyectan casas y la gente que las compra también han desarrollado este nuevo y flexible punto de vista, con la consiguiente evolución para la arquitectura doméstica.

estructura de hormigon armado

Ciertos requerimientos básicos para construir un hogar han permanecido invariables a través de los siglos. En cualquier época debió ser fuerte, impermeable, cómodo y cálido, aunque no demasiado; debió ofrecer un aislamiento razonable y las mayores posibilidades para el descanso.

Otras exigencias, sin embargo, han cambiado drásticamente. Hasta el invento de las máquinas de vapor, por ejemplo, los hogares de los artesanos tenían que servir también como talleres. Hoy, la mayoría de los obreros dejan momentáneamente su oficio cuando regresan al hogar desde las fábricas. Hace cincuenta años, todas las dueñas de casa de la clase media podían tener sirvienta, pero hoy ellas mismas suelen hacer el trabajo de la casa y a veces están también empleadas. Por lo tanto, exigen un hogar práctico, que simplifique su trabajo doméstico.

Las láminas muestran cómo los arquitectos están utilizando nuevas ideas y nuevos materiales para crear el tipo de casas que se necesitan en el mundo moderno. En el presente, cuando se puede manejar un pequeño motor eléctrico por sólo una fracción de lo que cuesta el funcionamiento de una estufa eléctrica, la gente tiene muy en cuenta que la calefacción es costosa; de modo que una de las principales preocupaciones del arquitecto es la de procurar que el calor no se desperdicie. Un método es el de las ventanas dobles. El calor puede escapar fácilmente a través de un vidrio, pero no cuando queda apresado entre dos hojas de vidrio.

ventana dobles aislantes Las paredes dobles tienen una finalidad parecida, y si el constructor pone una capa de lana de vidrio, corcho granulado o aserrín entre las paredes consigue también aislar la casa del ruido del tránsito.

El calor puede también filtrarse a través de los pisos, y no es raro en la actualidad construir casas y departamentos sobre “zancos” de hormigón armado, para evitar esta pérdida.

Hasta la pendiente de un techo o la ubicación de una chimenea pueden contribuir a mantener las casas abrigadas y protegidas de la intemperie.

Si el lado de una casa que enfrenta los vientos prevalecientes tiene parte de su techo muy inclinada, tanto que llega casi hasta el suelo, la lluvia correrá más fácilmente, al igual que la nieve, que no podrá acumularse, haciendo peligrar con su peso la estabilidad de vigas y paredes. Un conducto de chimenea construido en una pared externa pierde mucho calor, mientras que uno colocado en el medio de una casa puede calentar varias habitaciones a la vez.

Los arquitectos modernos diseñan casas aprovechando al máximo la luz natural, como se observa en el plano de abajo la cocina, orientada hacia el este, recibe la luz del sol a la mañana, que es cuando más se la utiliza. El comedor, con ventanas orientadas hacia el este y el norte, recibe la luz del sol a la mañana y a la tarde, mientras que la sala, con ventanas hacia el norte y oeste, la recibe a la tarde y al atardecer.

plano de una vivienda con control solar

Los dormitorios y cuartos de baño, donde no hace falta tanta luz, tienen sus ventanas orientadas hacia el sur. (En el hemisferio norte, donde el sol está a mediodía en el sur, el arquitecto, naturalmente, debe modificar sus planos.)

También se estudia como el usar aire acondicionado para extraer el aire seco, cargado de polvo, de todas las habitaciones y devolverlo aún cálido, pero libre de polvo y con el grado de humedad apropiado.

Fuente Consultada:
La Técnica en el Mundo Tomo II -Obras Civiles  – Globerama Edit. CODEX

Historia de la Exploración del Fondo del Mar Breve Descripción

DESCRIPCIÓN DE LOS AVANCES EN LA EXPLORACIÓN MARÍTIMA

Los hombres realizaron las primeras exploraciones del fondo del mar mucho antes de hacer ensayos en el aire. En los tiempos clásicos de Grecia, y aún antes, se usaban esponjas y perlas, y éstas se sacaban del fondo del mar. Los pescadores de perlas de aquellas épocas probablemente actuaban de manera muy semejante a como lo hacen aún hoy los de Ceilán.

Pero es muy posible que algunos de los primitivos buzos tuvieran ayudas de tipo mecánico que les permitiesen permanecer por más tiempo bajo el agua. Aristóteles describe una especie de campana de inmersión y una gran vasija de metal, la cual, cuando era introducida en el agua, retenía aire dentro.

Algunos inventores de los siglos XVI y XVII fabricaron trajes de buzos, pero no se logró ningún éxito en esto hasta poco después de la batalla de Waterloo. Fue entonces, en 1819, cuando Augustus Siebe (imagen abajo) construyó un traje con una especie de yelmo dentro del cual podía bombearse aire para permitir al buzo respirar. El aire espirado burbujeaba hacia afuera bajo una plancha metálica colocada en la parte posterior del yelmo. Ésta fue la base real sobre la que se edificó mucho del progreso posterior en materia de exploraciones submarinas.

seibe auguste

Augustus Siebe, durante su juventud  estudió la calderería en Berlín, allí  se dedicó a  la fabricación y reparación de instrumentos y mecanismos de todo tipo. Participó activamente ingeniero de artillería durante las guerras napoleónicas, particularmente durante la batalla de Waterloo.

sistema de buzo para explorar el fondo del mar

Mientras tanto, los hombres habían hecho ya los primeros barcos submarinos; en 1620, un holandés llamado Cornelius Drebbel,  que vivía en Inglaterra construyó un pequeño submarino, propulsado por medio de doce remos, que según se dice, navegó durante varias horas a casi cuatro metros bajo la superficie del Támesis.

Cornelius Drebbel

1621: Demostración de Cornelius Drebbel en el Támessis

Muchos barcos de ese tipo fueron construidos durante los dos siglos subsiguientes, pero durante la guerra civil  estadounidense, en que un pequeño submarino hundió un barco llamado Housetonic, se comenzó a tomarlos en serio.

submarino usado en la guerra civil americana

En 1880, la marina francesa inauguró su primer navio submarino. Así, en 1870, cuando Julio Verne publicó su famoso libro Veinte mil leguas de viaje submarino, no estaba simplemente en el puro terreno de la fantasía. Al igual que los mejores escritores actuales de ciencia-ficción, extraía muchos de los acontecimientos de su historia de una interpretación inteligente de los experimentos y experiencias que se realizaban en su época. El capitán Nemo, amo del ficticio submarino Nautilus, revelaba algunos de los misterios de las profundidades marinas que aún no eran conocidos por los oceanógrafos.

La lámina de la izquierda muestra a Julio Verne. Desde la época de Verne, y especialmente en los últimos treinta años, las exploraciones del fondo del mar han progresado de modo notable.

En 1934, un estadounidense, el Dr. William Beebe, batió un record de inmersión en una bola de acero herméticamente cerrada, la batisfera, que pesaba 180 kg. y tenía un diámetro de 1,50 m. Llevaba unas ventanillas de cuarzo en forma de cilindros de 20 cm. de diámetro y 75 mm. de espesor.

Fue atada a un barco por medio de un cable e introducida en el niar y llevó al Dr. Beebe a una profundidad de 900 m. La duración de la inmersión fue de 3 horas; durante ella se mantuvo en contacto con el barco por teléfono, y, para la investigación submarina, disponía de proyectores potentes alimentados por generadores eléctricos ubicados sobre la cubierta de la nave.

Dr. William Beebe

El físico suizo, profesor Auguste Piccard pensó que era una pena que la batisfera no fuera libre para trasladarse bajo el agua y así, en 1939, planeó una especie de balón submarino, el batiscafo, capaz de hacerlo. No fue completado hasta 1953, y, en septiembre de ese año, Piccard y su hijo descendieron más de 3.000 m. en él.

batiscafo de Piccard

Es un barco submarino diseñado para operar a grandes profundidades. El primero de ellos fue diseñado en 1947 por el físico suizo Auguste Piccard para explorar el fondo del mar. En 1954 este barco alcanzó una profundidad de 4.000 m soportando una presión de hasta 400 veces la presión atmosférica. El batiscafo Trieste, construido en 1953, alcanzó un récord mundial el 23 de enero de 1960 al descender hasta 10.916 m en la fosa de las Marianas, la de mayor profundidad oceánica conocida (402 km) al suroeste de la isla de Guam. A dicha profundidad tuvo que soportar una presión de unas 1.000 veces la presión atmosférica.

batiscafo Trieste

Menos de un año después, dos franceses, Georges Houot y Pierre Willm (abajo foto de ambos) , se sumergieron en otro batiscafo, el FNRS 3, hasta una profundidad de más de 4.000 m.

franceses que exploraron el oceano

 

jacques costeau investigador frances

Jacques Cousteau:Conocido por sus magníficas películas y estudios del mundo submarino, el oceanógrafo francés Jacques Cousteau dedicó gran parte de su vida a explorar y defender la vida marina. Cousteau desarrolló la primera estación de buceo subacuática y participó en la invención de la escafandra autónoma, que permite a los buceadores moverse libremente bajo el agua durante periodos prolongados. Cousteau es considerado uno de los exploradores del mar más influyentes del siglo XX y un gran defensor del medio ambiente, produjo más de 70 programas para televisión, que han ganado numerosos premios.

Algo Mas En Este Sitio: Primeras Exploraciones Marinas

Fuente Consultada:
Cielo y Tierra Nuestro Mundo en el Tiempo y el Espacio Globerama Edit. CODEX
Enciclopedia Electrónica ENCARTA Microsoft

Explotación Agricola en Europa del Siglo XIX Economía

EL PREDOMINIO DE LA ECONOMÍA AGRÍCOLA
EN EUROPA EN EL SIGLO XIX

La Europa de principios del siglo XIX era aún una Europa campesina cuya vida económica dependía estrechamente de las fluctuaciones de sus principales producciones agrícolas. La ausencia de excedentes mantenidos limitaba el desarrollo de las ciudades, que permanecían muy ligadas al campo. Las frecuentes malas cosechas de cereales, patatas, legumbres, ocasionaban grandes subidas de precio. Las crisis estacionales o anuales, engendradas por las malas cosechas o por la deficiencia de las relaciones comerciales y de los medios de transporte, se conjugaron a partir de 1817 con una larga etapa de depresión y de hundimiento de los precios, que sucedió al favorable período precedente.

LA POBLACIÓN: A partir de 1801, la población mundial ha crecido con más rapidez que nunca. Sólo en el siglo XIX se duplicó con creces; la anterior duplicación tardó cuatro veces más. Desde el siglo XVII la curva de crecimiento se ha ido haciendo cada vez más empinada. Sin embargo, las cosas no son tan sencillas como parece deducirse de esta imagen general. Algunos países han crecido con más rapidez que otros, y lo mismo puede decirse de los continentes.

El resultado ha sido un cambio en el orden de las naciones, atendiendo a su número de habitantes. Empecemos por Europa: en 1801, Francia reunía bajo su bandera más habitantes que ningún otro país al oeste de Rusia; en 1914 ocupaba la cuarta posición, por detrás de Alemania, Austria-Hungría y Gran Bretaña. El crecimiento de los Estados Unidos fue aún más rápido: en 1900 sus habitantes habían ocupado ya todo el continente (que en 1801 aún seguía inexplorado en gran parte) y su número había ascendido de 6 a 76 millones, lo que representa un aumento del 1.150 por 100.

Se dispone  de   información   mucho   más completa y exacta acerca de los países de Europa y América que de los de Asia y África; no obstante, parece comprobado que la población creció en todas las partes del mundo durante el siglo XIX: en China, por ejemplo, el aumento superó el 40 por 100, llegándose a los 475 millones; Japón pasó de unos 28 millones a unos 45, y la India de 175 a 290 millones. Se trata, en todos los casos, de incrementos muy grandes.

LA AGRICULTURA CONTINUA PREDOMINANDO
Salvo algunas excepciones, los métodos de explotación agrícola permanecían anticuados, ya que la mayoría de los grandes propietarios se desinteresaron de ello y no trataron de aumentar sus rentas por medio de la comercialización de sus productos. En cuanto a los pequeños cultivadores, sin instrucción, apartados de la escena política por los regímenes censatarios, no disponían de capital suficiente para introducir innovaciones.

agricultura en europa

Falta de abono, la tierra se convertía en  barbecho  cada   tres   años;   falta   también de maquinaria (se sembraba a mano, se trillaba con el mayal, se segaba con la hoz), una gran parte del suelo se desperdiciaba y los rendimientos obtenidos eran muy escasos. El desconocimiento de los métodos de conservación de la carne, el estado de los animales, desnutridos y sujetos a epidemias, impedía toda explotación ganadera racional, utilizándose el ganado, sobre todo, para los trabajos agrícolas.

Las crisis de subsistencias probaba trágicamente que el destino de millones de  hombres  dependía aún de las cosechas  de   trigo;   por  eso la agricultura estaba orientada hacia los productos de más corriente consumo, y, en pri mer lugar, hacia los cereales, como el trigo el centeno, la cebada, la avena y el alforjón.

La ausencia  de  excedentes  obligaba  a  la: diferentes naciones e incluso a las regione: a  vivir  replegadas  sobre  sí  mismas.   Uni camente  los   productos   exóticos   (especias café) daban lugar a un tráfico importante Sin embargo, este medio siglo conoció cier tos progresos agrícolas, de los que Inglate rra fue la principal beneficiaria. Más  adelantada que sus vecinos, había experimentado, desde el siglo XVIII , nuevos métodos; 2.000 lores, propietarios del tercio de la superficie cultivable, transformaron hectáreas de tierra de labor en fértiles praderas, en las que practicaron una ganadería moderna con selección de razas (la raza Durham llegó a ser la primera de Europa).

Los decretos para la formación de «acotados» (reunión de tierras rodeadas por vallas), concluidos en 1840, los «cornlaws», leyes que prohibían la entrada de trigos extranjeros, habían enriquecido   a   estos   grandes   propietarios que llevaron a cabo una verdadera revolución sustituyendo el barbecho por el cultivo de plantas herbáceas, de trébol, de alfalfa y otras análogas, alternando con los cereales; la utilización de los abonos (cal, guano, fertilizantes industriales descubiertos por Liebig), la mejora de los arados, la desecación de los pantanos, reforzaron esta revolución agraria.

Las Corn Laws fueron aranceles a la importación para apoyar los precios del grano británico doméstico contra la competencia de importaciones, vigentes entre 1815 y 1846.

PEQUEÑAS PROPIEDADES Y GRANDES DOMINIOS: Además  del  tipo inglés (que acabamos de ver mas arriba),  se podían  distinguir otras dos modalidades  de  agricultura en Europa.  Una de ellas predominaba en Francia, Países Bajos, Suiza y norte de Italia; la supresión de las servidumbres señoriales   había   emancipado   jurídicamente   al campesinado, pero éste, dueño en su inmensa mayoría, de pequeñas o medias propiedades, vegetaba y se mantenía gracias a la supervivencia de las prácticas comunales y a la ayuda de trabajos artesanos.

Sin embargo, en estos países fueron realizados importantes   trabajos   de  desecación   (particularmente en Holanda, donde los «polders» alcanzaron una gran extensión) que permitieron acrecentar la superficie cultivable. El rercer tipo de agricultura, el de los grandes dominios   señoriales,  reinaba  en  la  mayor parte de Europa; en el sur de Italia y en Toscana, la aristocracia terrateniente practicaba el absentismo, dejando a los administradores el cuidado de ocuparse de sus inmensas propiedades, y éstos las hacían explotar por los jornaleros a los que apenas les quedaba para vivir. Los grandes propietarios españoles practicaban también la aparcería; pero tenían que hacer frente a la Mesta, poderosa asociación de ganaderos que monopolizaba inmensas extensiones de tierras, oponiéndose al desarrollo de la agricultura.

En Prusia y en Europa Oriental, las reformas napoleónicas fueron abandonadas después de Waterloo y los campesinos tuvieron que devolver a los nobles el tercio de sus tierras, cayendo nuevamente en un estado de semi-servidumbre. Sin embargo, algunos pequeños hidalgos prusianos intentaron modernizar sus posesiones siguiendo el ejemplo de los lores ingleses.

Por último, en Rusia, la tierra estaba en manos de la corona y de los nobles; una parte de sus inmensos dominios era explotada directamente, y la otra repartida en parcelas entregadas a las familias de los siervos a cambio de los servicios que prestaban trabajando las tierras de su señor. Rusia era entonces la mayor exportadora de trigo de Europa, pero las exportaciones se hacían en detrimento de la población, que vivía en condiciones miserables. Esta oposición entre la Europa Occidental y los países orientales, próximos todavía a las estructuras feudales, había de durar hasta nuestros días.

La Era Capitalista El Desarrollo De La Ciencia e Inventos En Europa

LA ERA CAPITALISTA EN EUROPA: EVOLUCIÓN TECNOLÓGICA Y DESARROLLO CIENTÍFICO

A partir del siglo XIX se inician un par de transformaciones que renovaran la economía, la sociedad y la política de todo Europa.Estas dos destacadas transformaciones son la Revolución Industrial y la Revoluciones Burguesas ocurridas entre 1820 y 1848. La primera cambió la forma de producir y de organizar la economía de ese momento, estableciendo un sistema capitalista que se extendió a nivel mundial y la segunda se refiere a los movimientos revolucionarios que luchaban por una sociadad mas justa, con mas libertad y sobre todo participación en la política, que culminaron con las ideas liberales como principio rector de la vida social, de esta manera nacía el liberalismo político y económico.

La Revolución Industrial dio origen a una nueva forma de organizar el trabajo: el trabajo fabril; a un nuevo tipo de trabajador: el obrero industrial; y a una nueva forma de organización económico-social: el capitalismo. El capitalismo surgió luego de una sucesión de grandes y profundos cambios sociales y económicos que se produjeron en el campo y en las ciudades.

El trabajo asalariado se difundió en las ciudades en las que se desarrollaba la industria y también en las zonas rurales en las que la producción agropecuaria se destinaba al mercado. Sin duda el capitalismo significó para el hombre un camino de progreso, pero al mismo tiempo llevó a la formación de una sociedad dividida en clases sociales con intereses contrapuestos. El conflicto más profundo fue el que se planteó entre la burguesía, propietaria de los medios necesarios para la producción, como las industrias, la tierra, las herramientas, y los obreros, que no disponían de bienes ni de tierras ni de herramientas, y que lo único que podían hacer para subsistir era vender su fuerza de trabajo.

revolucion industrial en europa

Hacia la primera mitad del siglo XIX, el capitalismo se consolidó en Europa occidental y los cambios que había introducido la Revolución Industrial se extendieron por otros países del continente europeo y los Estados Unidos. La burguesía se consolidó como clase y fue protagonista de importantes revoluciones —1830, 1848— e impuso al mundo sus ideas, valores e instituciones de corte liberal. Pero este mundo burgués fue también un mundo de fuertes conflictos sociales. Junto a la próspera burguesía, en las ciudades industriales el número de obreros organizados crecía cada vez más: reclamaban por mejores condiciones de vida y mejores salarios. El progreso y la miseria fueron las principales características de esta época.

La industrialización cambió de forma radical el mundo. Las nuevas fuentes de energía condujeron a la mecanización y surgieron nuevas formas de comunicación y transporte. Varios factores provocaron el avance de la industrialización en el siglo XIX. En Europa, la consolidación de grandes imperios, como el británico, conllevó mayores oportunidades comerciales. La ampliación de los mercados de exportación alentó un aumento de la productividad, como resultado de la cual comenzaron a aparecer grandes fábricas modernizadas. En Gran Bretaña, el ritmo del desarrollo industrial se había acelerado durante el siglo xvm, cuando el imperio alcanzó su extensión máxima.

Explica John M. Roberts en su libro: “Historia Universal Ilustrada“: ¿Qué entendemos por «industrialización»? Por lo general, suele interpretarse como producción organizada a gran escala, con mucha gente trabajando junta. Pero el sentido común nos dice que debemos excluir de la definición la agricultura, a pesar de que a menudo se ha practicado con gran número de operarios en una misma finca —los siervos en Europa oriental o los esclavos en las plantaciones, por ejemplo—, y también el comercio, que se ocupa del intercambio de mercancías, y no de su producción. ¿A qué nos referimos, pues, cuando hablamos de industrialización en el contexto de la historia de la humanidad? Una posible definición sería «el proceso que conduce a una sociedad que cada vez resulta más dependiente de la industria fabricante de artículos y menos del comercio o la agricultura».

LA MÁQUINA A VAPOR: En 1765, el inventor inglés James Watt construyó un modelo de máquina de vapor. Cuatro años después, en 1769, construyó su primera máquina de vapor. El invento halló muy pronto aplicación en las empresas de Inglaterra. En 1780, en Birmingham funcionaban 11 máquinas de vapor, on Leeds 20, y en Manchester 32. La invención de la máquina dE vapor marcó una nueva otapa de la revolución técnica. Juntamente con la máquina de vapor entra en escena la ciencia.

En su forma mas simple el vapor utiliza agua hirviendo para producir vapor a presión. Este vapor hace presión contra una turbina o un pistón y fuerza su movimiento, y ese movimiento acciona las ruedas del motor. Pese a haberse inventado ya en 1698, el accionamiento por vapor experimentó diversos refinamientos hasta poder ser usado para accionar el primer barco en 1802. Las modificaciones más importantes del motor de vapor las realizó el escocés James Watt. Nacido en 1732, Watt consagró su vida a mejorar el motor de vapor.

De hecho, de no haber realizado los cambios que realizó, el motor de vapor no habría podido impulsar la Revolución Industrial. Watt ideó la cámara separada en la que se condensaba el vapor y gracias a la cual el motor tenía una mayor eficacia; y también inventó el barómetro o indicador de presión, y la manivela y el volante que provocaron el movimiento rotatorio. Fue un motor de Watt el que impulsó el barco experimental Clermont aguas arriba por el río Hudson en 1807.

maquina newcomen a vapor

La bomba de vapor, empleada para suministrar energía a molinos y fundiciones, la inventó Newcomen en 1712, pero no resultó práctica hasta que james Watt perfeccionó en 1191 esta enorme máquina, basándose en el diseño de Newcomen pero eliminando la mayoría de sus inconvenientes para poderla emplear para impulsar maquinaria. Un elemento fundamental de la máquina era el regulador, que mantiene constante la entrada de vapor, sea cual sea la carga.

LOS TRIUNFOS DE LA CIENCIA
Fue en el siglo xix cuando las ciencias llegaron a ocupar un lugar preponderante en la civilización de la Europa Occidental. Los sabios no fueron ya aficionados, sino profesores e investigadores que se especializaban, publicaron sus trabajos, confrontaron sus métodos de razonamiento y de experimentación.

Descubrimientos matemáticos importantes fueron el origen de un desarrollo general en las otras disciplinas científicas: el alemán Gauss, profesor de la Universidad de Gottinga, puso las bases del cálculo de probabilidades; en Francia, Lagrange hizo progresar el estudio de la mecánica, Monge creó la geometría descriptiva, Laplace demostró la estabilidad del sistema solar, Arago determinó la medida del meridiano. Sus sucesores Cauchy y Evaristo Galois (que murió a la edad de 21 años, a consecuencia de un duelo) fueron los promotores de la nueva álgebra y de las matemáticas puras. Noruega tuvo en Abel su gran matemático.(Ver: Matemáticos y Físicos)

Estos descubrimientos fueron directamente aplicados a la astronomía; Arago logró medir el diámetro de los planetas; Verrier, basándose en cálculos, estableció la existencia de un nuevo planeta, Neptuno, que un astrónomo berlinés, Gall, descubrió muchos años después, con la ayuda de un telescopio. Varios descubrimientos esenciales revolucionaron la física: refutando todas las afirmaciones anteriores, el óptico Fresnel demostró que los fenómenos luminosos eran debidos a la propagación de las ondas vibratorias. A la sombra del viejo Berthollet, Biot y Arago hicieron las primeras medidas precisas relativas a la densidad del aire; el mismo año, Gay-Lussac descubrió las leyes de la dilatación de los gases y estudió la composición de la atmósfera.

Por su parte, Carnot definió en un largo estudio las primeras leyes de la termodinámica. Los progresos más ricos en consecuencias fueron realizados en el campo de la electricidad: en 1800, los italianos Galvani y Volta construyeron a primera pila; el danés Oersted descubrió la acción de la corriente eléctrica sobre una aguja imantada, y el francés Ampére definió las leyes del electromagnetismo. El inglés Faraday y el americano Henry establecieron la noción de la inducción, y el alemán Ohm expuso su teoría matemática de la corriente eléctrica.

Estos descubrimientos permitieron el empleo del telégrafo eléctrico (dispuesto por Steinheil y Morse), que funcionó en Francia y en Inglaterra hacia los años de 1840. Los progresos de la química revistieron el mismo carácter internacional: gracias al inglés Davy y al sueco Berzelius, la pila eléctrica fue utilizada para el análisis de los cuerpos; la electrólisis permitió así aislar nuevos cuerpos simples: el potasio, el sodio, el magnesio, el cromo, aislados por el francés Vauquelin, el yodo y el aluminio por el alemán Woehler.

La química orgánica hizo importantes progresos gracias al francés Chevreul, autor de un estudio sobre los cuerpos grasos naturales, y al alemán Liebig, que creó un centro de estudios sobre los ácidos orgánicos, la fermentación y la descomposición de las materias, y realizó trabajos sobre la aplicación de la química en la agricultura. Por último, el inglés Dalton y el italiano Avogadro concluyeron las primeras teorías del átomo. Dos aficionados, el ofi cial Niepce y el pintor Daguerre, estudiaron la fijación de las imágenes luminosas obtenidas en la cámara oscura; en 1839, el inglés Talbot realizó las primeras fotografías en papel; seis años después, Niepce de Saint-Víctor inventó la fotografía sobre vidrio.

Los biólogos se dedicaron al estudio de la célula, elemento fundamental de los tejidos, descubierta, en 1830. Bichat y Laennec modernizaron los métodos de la medicina, y el descubrimiento de los anestésicos permitió a la cirugía dar un gran paso adelante. Gracias a un estudio detallado de las rocas, los geólogos reconstruyeron las principales etapas de la evolución de la corteza terrestre. Cuvier, partiendo de la observación de los fósiles, lanzó las bases de la paleontología, ayudado por sus discípulos Dufrenoy y Elie de Beaumont.

Estos últimos se convencieron de la estabilidad de las especies después de su creación; los descubrimientos de Boucher de Perthes sobre el hombre prehistórico  pusieron  en  discusión sus conceptos sobre el origen del mundo.   Lamarck y  Geoffroy   Saint Hilaire   se instituyeron, contra Cuvier, en campeones del transformismo, es decir de la evolución de las especies bajo el efecto de los cambios de ambiente y de herencia. Esta teoría parecía  incompatible  con la  enseñanza  de la Iglesia y dio lugar a una larga controversia entre la ciencia y la religión.

La investigación científica no descuidó la historia; atendió sobre todo, a las civilizaciones del pasado:   Champollion descubrió  el  significado de los jeroglíficos de Egipto, fundando así la egiptología; en Mesopotamia y en Grecia   fueron   emprendidas   excavaciones, fundándose  en  ésta  última  la   escuela  de Atenas.

Con la escuela de Diplomas, los investigadores franceses se dedicaron a un estudio sistemático del pasado de su país, y los sabios italianos multiplicaron las excavaciones   para   exhumar  los   innumerables vestigios de la civilización romana. Las ciencias habían abandonado definitivamente el campo del empirismo y tomado una extensión que iba a provocar una nueva revolución industrial, prodigiosamente acelerada, hacia finales de siglo.

La revolución industrial  vino acompañada de una explosión tecnológica que trajo grandes avances en el transporte (el automóvil y el aeroplano), las comunicaciones (el teléfono y las señales inalámbricas) e incluso el ámbito doméstico (la bombilla y el gramófono). En las ciencias, el naturalista británico Charles Darwin transformó el modo de concebir el mundo con la Teoría de la Evolución.

LA TECNOLOGÍA APLICADA A LOS MEDIOS DE COMUNICACIÓN:

Los Caminos: Al ampliarse la producción y el mercado de venta, se necesitaban medios de comunicación más perfectos. Aún antes de comenzar la revolución industrial, los caminos no satisfacían las necesidades de la población. Según testimonios de los contemporáneos, eran “molestos, malos, y dignos tan solo de ser destruídos” Por ellos transitaban penosamente, como mil años atrás, únicamente bestias de carga. Los transportes eran lentos y sumamente caros. Entre Inglaterra y Escocia, en general, no había comunicación regular. De Londres a Oxford se tardaba no menos de dos jornadas, y las cargas requerían más de tres semanas para llegar a Liverpool.

La etapa inicial de la revolución industrial está relacionada con la intensificación de la construcción de caminos. Sólo en el quinquenio de 1769 a 1774, el Parlamento votó más de 450 decretos sobre la construcción de nuevos caminos o mejoramiento de los viejos. Con el mejoramiento de los caminos, la velocidad de las comunicaciones comerciales aumentó a más del doble. A partir de 1756 aparecieron las comunicaciones postales y de viajeros regulares entre Londres y Edimburgo. Las bestias de carga fueron sustituidas en casi todas partes por las carretas. Sin embargo, para la conducción de cargas voluminosas y pesadas, el transporte terrestre continuaba siendo muy caro e incómodo. Surgió la idea de sustituir los caminos por las comunicaciones fluviales. La construcción de canales comenzó a principios de la segunda mitad del siglo XVIII. En 1755 fue construido un canal de 11 millas de longitud entre Liverpool y Manchester.

Como consecuencia de la apertura del canal, los gastos en el transporte de mercancías se redujeron a la mitad. En 1766 se abrió un canal de 29 millas. A fines del siglo XVIII, el Gran Canal de Unión comunicaba a Londres con las ciudades del centro de Inglaterra. Hacia 1825, la red de canales alcanzó 500 millas de longitud A principios de la década del 40 del siglo XIX, Inglaterra disponía de 2.200 millas de canales y de 1.800 millas de ríos navegables.  En Unos 30 años el país se cubrió de todo un sistema de canales, abiertos preferentemente en los condados del centro y del norte del país.

Todos los canales los construyeron particulares, dueños de grandes manufacturas o magnates de la industria. Pero la verdadera revolución en los medios de transporte está relacionada con la aplicación del vapor y la invención de la locomotora y el barco de vapor. En el primer cuarto del siglo XIX, los veleros comenzaron a ser sustituidos por los vapores, y las torpes y pesadas diligencias por los ferrocarriles.

puentes y canales en la revolucion industrial

El primer vapor se botó en 1807 en el río Hudson, en Norteamérica. Su inventor y constructor fue Kobert Fulton. En Gran Bretaña, el primer vapor se construyó en 1811. En 1816 un vapor cruzó por primera vez el Canal de la Mancha. Tres años después, en 1819, el vapor norteamericano Savannah hizo el primer viaje entre el Nuevo y el Viejo Mundo, cruzando el Atlántico en 25 días, o sea en 6 días más que los barcos de vela.

En 1842, el vapor inglés Drover realizó el primer viaje en derredor del mundo. Hasta entonces sólo los barcos de vela habían circundado el globo. En los primeros tiempos, la navegación a vapor fue más letita que la de vela y resultaba más cara; muchos comerciantes y empresarios no querían utilizarla, pero los más sagaces no tardaron en darse cuenta de sus ventajas en un futuro próximo.Todavía la mayor trascendencia fue la construcción de los ferrocarriles.

El Ferrocarril: La aparición del ferrocarril fue esencial para el éxito de la industrialización. En Gran Bretaña funcionaba desde antes del siglo XIX una forma rudimentaria de ferrocarril: desdelas bocaminas y las canteras, unos vagones tirados por caballos transportaban el carbón por medio de unas sencillas vías fabricadas con piedra y hierro.

La invención del motor a vapor fue el catalizador del cambio. En 1804, un minero de estaño de Cornualles, Richard Trevithick, enganchó un motor a vapor a un vagón de una mina. Inspirado por esta acción, George Stephenson creó su Rocket, la primera locomotora móvil capaz de tirar de vagones.

primera linea de ferrocarril

La primera línea de ferrocarril enlazó Liverpool con Manchester en 1830, y tras ella se desató un boom de la construcción ferroviaria. A partir de 1850, el Estado británico tuvo que intervenir para estandarizar el ancho de vía, que hasta entonces había sido variado. Esta intervención dotó a Gran Bretaña del primer sistema de transporte ferroviario nacional totalmente operativo. El ferrocarril fue ampliándose por toda Europa, uniendo las regiones y comunidades más aisladas y contribuyendo a la integración económica.

Desde el descubrimiento de nuevas rutas marítimas en los siglos quince y dieciséis, los mares unieron a los continentes en lugar de separarlos. Con el aprovechamiento de la energía del vapor en el siglo dieciocho, los barcos cubrieron con rapidez esas distancias, o por lo menos lo hicieron a un ritmo más constante y confiable. Al ponerle ruedas a la máquina de vapor, la revolución del transporte terrestre no se hizo esperar.

Vapores en los puertos: La máquina de vapor, que primero se empleaba para bombear agua de las minas de carbón y estaño, llegó a ser el artefacto más importante de la Revolución Industrial. Esta fuente de energía alimentada por carbón fue adaptada con éxito a la propulsión de barcos, a comienzos del siglo diecinueve.

El norteamericano Robert Fulton construyó en 1807 un barco de vapor, el Claremont, que funcionó. Por la misma época, el inglés Patrick Bell construía a su vez un barco similar. Al principio, el vapor fue considerado útil en los viajes por ríos o canales, pero hacia la década del 30 los barcos de vapor realizaban ya viajes transoceánicos. Los buques de vapor, o vapores, que no dependían de los vientos favorables, podían ajustarse a horarios, lo cual nunca había ocurrido antes. En consecuencia el comercio internacional se incrementó con rapidez. El vapor, más que la vela, intercomunicó pronto vastos imperios como el británico.

Hacia 1880, el motor de vapor propulsaba casi todo tipo de barcos: de guerra, de carga y de pasajeros. Las armadas movidas por vapor exhibían acorazados más armados y más blindados que nunca en toda la historia.

barco movido a palas

Automóviles: La historia del automóvil comenzó en 1885, con la aparición de la primera máquina movida por un motor de combustión interna. Nueve años después, un inventor francés llamado Panhard construyó un vehículo de cuatro ruedas, fácilmente identificable como antepasado del automóvil moderno. Durante la siguiente década se construyeron automóviles en Francia y Alemania, que servían como juguetes para los ricos. Este período puede considerarse como la prehistoria del automóvil.

Su verdadera historia comenzó en 1907 en los Estados Unidos, cuando Henry Ford empezó a producir en serie su Modelo T, mucho más barato que ningún otro coche construido hasta la fecha. Ford estaba dispuesto a atraer a un mercado de masas, y sus primeros modelos costaban sólo 950 dólares. En veinte años, gracias al enorme éxito obtenido, pudo rebajar el precio a menos de 300 dólares.

La demanda aumentó con tal rapidez que en 1915 Ford producía ya un millón de coches al año; esto significaba que lo que antes era un lujo se había convertido en un artículo corriente. De este modo, Ford cambió el mundo; a partir de entonces, incluso las personas con ingresos modestos podían disfrutar de una movilidad impensable incluso para los millonarios de cincuenta años antes.

auto antiguo de 1894

Una revista francesa patrocinó en 1894 una carrera para vehículos automáticos de Varis a Ruán. Los vencedores fueron dos vehículos de gasolina de las firmas Panhard.A consecuencia de esta carrera, la industria accedió a respaldar financieramente a los inventores.

El tendido de cables: Samuel Finley Bréese Morse, artista e inventor norteamericano, produjo la primera aplicación práctica masiva de los impulsos electromagnéticos, al inventar el código Morse en 1837. Siete años más tarde envió un mensaje instantáneo que rezaba: “¡Lo que hubiera fraguado Dios!”, por una linea telegráfica que iba de Baltimore a Washington D.C. ¿Qué quería decir con ello? Se trataba de una expresión de admiración respetuosa. Para la época, el telégrafo era una novedad inimaginable, tan importante y sorprendente como es hoy Internet. Los cables no tardarían en extenderse en todas direcciones por los países industrializados de Europa occidental y Norteamérica, para llegar luego a las más remotas regiones del globo.

Hablar por teléfono: Alexander Graham Bell, un terapeuta de la fonoaudiología, se interesó en el sonido y la comunicación junto con la tecnología telegráfica (consultar la sección anterior sobre el telégrafo), y construyó un teléfono experimental en 1876. Bell, inmigrante escocés a Estados Unidos, produjo y comercializó los aparatos y fundó además Bell Telephone Company. A comienzos del siglo veinte el teléfono no era ya una novedad y se había tornado en una comodidad diaria.

El envió de ondas radiofónicas: A finales del siglo diecinueve, Guglielmo Marconi, inventor italiano, demostró que las ondas de radio podían servir para enviar señales sin necesidad de cables. Los escépticos pensaban que las ondas de radio no podían recorrer distancias lo suficientemente grandes para ser de utilidad. Marconi, que vivía y trabajaba en Inglaterra, probó que estaban equivocados enviando una señal en código Morse a 14,5 kilómetros de distancia, a través del canal de Bristol. En 1901 envió una señal a mucho mayor distancia: a través del océano Atlántico, desde Cornualles (situada en la punta suroccidental de la principal isla de Inglaterra), hasta Newfoundland, en Canadá. Marconi ganó el premio Nobel de física en 1909.

Los Zepellin: Durante mucho tiempo —quizá miles de años— los hombres han soñado con poder volar. En el siglo XVIII empezaron a hacerlo: los hermanos Montgolfier realizaron su primera ascensión en globo en 1783. Durante muchos años, los únicos agentes capaces de elevar el artefacto eran el aire y el gas calientes producidos al quemar materiales directamente debajo del globo, de ahí que se los llamara «globos de aire caliente».

En el siglo XIX, las «máquinas más ligeras que el aire» (una denominación curiosa, puesto que en realidad eran más pesadas, y lo único más ligero era el agente elevador) empezaron a utilizar gases como el hidrógeno, que no necesitaban calentarse. El tamaño y la forma de los aparatos fue cambiando, ya que se pretendía que sirvieran para algo más que el mero flotar a capricho del viento. Los primeros «dirigibles» verdaderos —es decir, aparatos que se podían guiar— aparecieron cuando surgió el motor de combustión interna y pudieron abandonarse los extravagantes experimentos realizados hasta entonces con grandes remos e incluso velas. (Ver: Historia de los Zepellin)

Primeros Vuelos en Aviones: (Ver: Los Hermanos Wright)

globo zepellin

El dirigible Zeppelin Sachsen aterrizando en el aeropuerto de Mockaa en 1913.
Estas aeronaves funcionaban con hidrógeno, un gas muy inflamable, con constante riesgo de incendio.

Fuente Consultadas:
Todo Sobre Nuestro Mundo Christopher LLoyd
HISTORAMA La Gran Aventura del Hombre Tomo X La Revolución Industrial
Historia Universal Ilustrada Tomo II John M. Roberts
Historia del Mundo Para Dummies Peter Haugen
La Revolución Industrial M.J. Mijailov

Historia de la Industria Aeronáutica Argentina Pucará, Pampa

AVIONES A REACCIÓN ARGENTINOS: PUCARÁ, PAMPA, PULQUI I Y II

Luego de que la industria aeronáutica sufriera varias derrotas en lo económico, estratégico y político, resulta difícil imaginar que la Argentina haya ocupado el sexto puesto a nivel mundial en la construcción de aviones de reacción con tecnología propia. Sin embargo, la industria aeronáutica supo ser una pujante industria motorizada por una política que consideró a las actividades técnico-científicas como recurso estratégico para el país.

En 1912, juntamente con la creación de la aviación militar, algunos civiles enamorados de estas máquinas, movidos por el fervor y la pasión de sus sueños, comenzaron tímidamente y con escasos recursos el montaje de talleres aeronáuticos de donde surgieron atrevidas construcciones de aeroplanos. Durante ese período se elaboraron montantes, costillas, alas y fuselajes completos, que se tradujo en la fabricación de aeronaves completas para la exportación al Uruguay.

Su nombre significa flecha en lengua mapuche y hace alusión al original diseño de sus alas. Su fin militar era el de un caza interceptor. La construcción del Pulqui fue de gran importancia como medio de estudio para el diseño de otros aviones a turbina que culminó en la producción del “Pampa” en 1980. Cuando se construyó el prototipo la fábrica tenía alrededor de 15.000 empleados.

Pero la base de la industria aeronáutica argentina se consolida con la creación de la Fábrica Militar de Aviones en 1927 de la mano del talentoso Ing. Aer. My. Francisco de Arteaga en la ciudad de Córdoba. Allí se construyeron, años después, una gran cantidad de aviones como los emblemáticos Calquín, Huanquero, Guaraní-GII, Pucará, Pampa, como así también los motores a partir de los lingotes de metal provistos por nuestras fábricas metalúrgicas. Para ello, el Ejército y la Marina de Guerra enviaron, además de civiles, a numerosos oficiales a Europa y EE.UU. para capacitarse en afamados institutos aerotécnicos. De este modo, se fue forjando un nutrido grupo de especialistas que dieron sus frutos de acuerdo a una acertada política de incorporación a las actividades técnico-científicas: la pujante industria aeronáutica de entonces y la colaboración (vislumbrada estratégicamente) universitaria.

Naturalmente, esta política no convenía a los intereses extranjeros, que desencadenaron una campaña sistemática contra la industria nacional, aprovechando cualquier incidente aeronáutico para crear un estado de incomprensión. Esta fábrica se vio en la necesidad de reforzar aún más la fabricación de aeronaves enteramente nacionales, a tal punto que las aeronaves militares eran proporcionadas a pilotos civiles para su instrucción demostrando así la valía del producto argentino.

Todas las aeronaves fueron diseñadas y construidas con materiales propios y personal argentino especializado, prescindiendo entonces de regalías y licencias, que sin embargo todavía eran necesarias para la fabricación de los modelos extranjeros. Habida cuenta de todos esos progresos alcanzados, la industria aeronáutica nacional llegó a un estado de madurez avanzado que permitió a dicha fábrica transformarse en un centro experimental aerodinámico y de construcciones, a la par de los institutos de Italia, EE.UU., Inglaterra, Francia y Alemania. Precisamente, se apuntaba a lograr la independencia tecnológica.

Con este impulso, se funda en 1943 el Instituto Aerotécnico, que abre una nueva página en la historia de la aviación argentina con la creación en 1947 del Pulqui I y el Pulqui II, el primer avión de reacción, de diseño propio producido fuera del grupo de las grandes potencias. Del Pulqui II se llegaron a fabricar 5 unidades prototipo que se convirtieron en los primeros aviones de reacción para combate en el continente, anticipándose incluso a los F-86 de EE.UU. de iguales características.

La “fábrica”, como se la llegó a denominar con el correr de los años, adquirió reconocimiento internacional colocando a la Argentina en el 6to. puesto a nivel mundial en materia de aviones de reacción con tecnología propia después de Alemania, Inglaterra, Estados Unidos, Rusia y Francia. Dichos avances tuvieron como telón de fondo al primer y segundo gobierno peronista que con el apoyo de destacados profesionales argentinos (ingenieros, proyectistas, dibujantes, técnicos, operarios, y otras especialidades), contrata a técnicos y científicos alemanes, italianos y franceses para desarrollar la industria aeronáutica y también la investigación nuclear.

Movido por sus aspiraciones de crear un automóvil nacional, Perón funda en 1951 la Fábrica de Motores y Automotores (FMA), y al año siguiente el Instituto Aerotécnico es reemplazado por las Industrias Aeronáuticas y Mecánicas del Estado (IAME) y quedan unidas ambas especialidades, aeronáutica y automotores, aprovechando de este modo la enorme experiencia de la primera para aplicarla a la industria de vehículos. Así, de la mano de la aeronáutica, surge una industria automotriz enteramente nacional a cargo de la división mecánica con sede en dos Plantas de Córdoba, donde también se radicaron la IKA (Industrias Kaiser Argentina) y FIAT (Fábrica Italiana de Automotores de Turín).

Luego, el gobierno de la Revolución Libertadora desmiembra la IAME reemplazándola por la DINFIA de aeronáutica por un lado, y a la FMA dedicada exclusivamente a la fabricación de motores para vehículos terrestres por las Industrias Mecánicas del Estado (IME), clausurada en 1979 por el entonces ministro de economía Martínez de Hoz.

La DINFIA, rebautizada con el correr de los años como Fábrica Militar de Aviones (FMA) es privatizada en julio de 1995 por el entonces presidente Menem, quien otorgó la concesión y explotación de dicha fábrica a la empresa estadounidense Lockheed Martin Aircraft. Estos últimos hechos conformaron el golpe de gracia definitivo a la Industria Aeronáutica Nacional y Automotriz.

Una dirigencia de muy bajo vuelo
La industria aeronáutica argentina sufrió hasta hace algunos años varias derrotas desde lo económico, estratégico y político, muchas de ellas intencionales a primera vista:

-El Estado Argentino eligió “incomprensiblemente” como socio a la empresa estadounidense LTV para la provisión de aeronaves IA-63 Pampa equipadas con turbinas Garret TFE731, asiento eyectable y sistema de emergencia RAT para ese país. Resultó que dicha empresa estaba bajo la Enmienda Americana de quiebra. Las ilusiones de los ingenieros argentinos, el Proyecto Nacional y los U$ 400 millones del programa fueron a parar a la basura.

-La Real Fuerza Aérea Neozelandesa y la Fuerza Aérea Australiana, convencidos de las bondades del Iae-63 Pampa deciden su compra, pero debido al poco crédito otorgado por nuestro país optaron por comprarle a Italia. No eran mejores, pero ofrecían ventajas firmes de pago.

-En 1982 surge el proyecto “Cóndor”, basado en su antecesor “Castor”, para construir un cohete que permitiría evaluar los recursos naturales propios. El gobierno de Alfonsín finalmente decretó su desmantelamiento y desarme por “falta de recursos financieros, y la necesidad de recibir algún crédito puente del FMI o del tesoro de los EE.UU.”

-El CBA-123 fue el proyecto conjunto firmado entre Argentina y Brasil en 1987 para producir una aeronave turbohélice de 19 pasajeros y velocidad superior a 600km/h. Su costo de inversión se calculó en U$ 300 millones de los cuales la empresa brasileña Embraer aportaría U$200 millones y U$100 millones la Fábrica Argentina de Material Aeronáutico (FAMA).

Cada avión costaría U$ 4,5 millones, y hubo 127 pedidos formales tras su presentación en una exposición en Francia. En 1989 la FMA le comunica a Embraer la imposibilidad de la entrega de los materiales en tiempo y forma, Brasil reduce la participación argentina al 20% pero aún así la Argentina no terminó de entregar los volúmenes de producción previstos. Debido a la falta de interés nacional de parte del gobierno argentino, Embraer decidió ofrecer el proyecto a bancos extranjeros en busca de apoyo financiero porque estaba convencida del amplio mercado internacional que tendría el CBA-123. Así la Argentina quedó fuera del programa de fabricación conjunta.

-En julio de 1995 la Lockheed Martin Aircraft SA (Lmaasa), el mayor contratista de armas del Pentágono con un volumen de negocios de U$20.000 millones anuales, adquiere las instalaciones de la FMA de la mano de la firma del ex presidente Carlos Menem. Esta privatización incluyó también el compromiso de comprar a través de Lmaasa 36 aviones modelo A-4M a la marina de EE.UU. Se prometió la formación de “un excepcional centro de mantenimiento” que “captaría el 30% del mercado con una proyección de creación de hasta 10.000 puestos de trabajo”.

Dos años después, el entonces presidente Menem afirmaba que Lmaasa construiría allí un centro espacial internacional para llegar al Japón en minutos. Sin embargo, el plantel de trabajadores se redujo de 2000 a 900 a poco de concretarse el traspaso y con la amenaza de reducción del plantel a la mitad si el Estado no le firmaba a Lmaasa un nuevo convenio por U$ 230 millones a 5 años y una supuesta deuda de U$ 47 millones. Dicha empresa llegó a darse el lujo de cerrar sus instalaciones por 5 días hasta tanto el gobierno no le firmara un contrato hasta 2007. Los apologistas de turno dijeron maravillas: “…que se redujo la asignación estatal de U$230 millones en 5 años a sólo …U$210 millones”, y que el Estado “antes se hacía cargo del costo total por 12 aviones Pampa, y en cambio ahora los gastos serían 50 y 50…”.

Finalmente la Lmaasa no fabricó nada, sólo reparó aviones con subsidios del Estado Argentino en forma de contratos, y redujeron al 55% el personal. Actualmente se dedica sólo a la re-ingeniería de los AT-63 Pampa.

¿Qué dirían hombres de la talla de De Arteaga, Juan Ignacio San Martín, Taravella, Ruíz, Weiss y tantos otros anónimos que contribuyeron con su esfuerzo a consolidar a la F.M.A.?. Hoy día, toda denuncia de esta increíble estafa no es más que un grito en el desierto, convirtiendo aquella pujante FMA en un recuerdo del pasado.

Fuente:
Sitio WEB SABER COMO… del Instituto Nacional de Tecnología Industrial (conocer el sitio)

Adaptación de “Industria Aeronáutica Argentina” por Horacio A. Benítez

Los Satélites Artificiales Argentinos Historia Plan Espacial

HISTORIA PLAN ESPACIAL DE ARGENTINA

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio. Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos. En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

Mono Juan Enviado al Espacio Por Argentina, Murió en el zoologico de Córdoba.

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio. El tripulante, de la especie caí, había nacido en
Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja. Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal. En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD
A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas. En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos. Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones. La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas. El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social. El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información. La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos. La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES: La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida. En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre. Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó. En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador. Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite. Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento. Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta. En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete. El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:
Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro. Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica. Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se creala Sociedad Argentina Interplanetaria, la primera en América latina, en 1949. Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II. Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro “La Ciencia Argentina”, explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II. Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario. La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B. Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita. En febrero 1994, el New York Times se refería a la empresa argentina como “una pequeña versión argentina de una compañía de Silicon Valley” y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial “Argentina en el Espacio 1995-2006”. Varotto cuenta que este programa “fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo”. Y agrega: “Se decidió concentrar los recursos en ir arriba para mirar para abajo”. El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, “contribuya a la optimización de actividades de determinadas áreas socio-económicas”. Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

SATÉLITES SAC-A Y SAC-B
La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita. Mejor suerte tuvo la misión SAC-A, que se concretó en 1998. El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C
Argentina en su Plan Espacial Nacional – “Argentina en el Espacio 1995-2006” , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae). Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de “proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes”.

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7. Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales. Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la Conae llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino. Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites. El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la Conae- y varias empresas del país, que son las que construyeron el satélite. El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP. Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane
Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas. El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la “sugerencia” de EE.UU.
Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.
Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990. Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat). Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio. El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales. Fabricó el “bus”, o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE. Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina. A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche. De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica. Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre d 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia. La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales. El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
“La Ciencia Argentina” de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario “La Nación”

Beneficios de la Era Espacial Mejoras Para La Sociedad

PRIMEROS AVANCES  TÉCNNICOS APLICADOS A LA SOCIEDAD

Cuando en 1969  descendió sobre la superficie de la Luna,  el famoso módulo Lunar del Apolo XI, dirigido por Armostrong y Collin  su país había  invertido unos 30.000 millones de dólares en programas espaciales; y el esfuerzo soviético seria ,sin dudas, equivalente. ¿Cuáles son las ventajas concretas de tan tremendo esfuerzo? Haremos abstracción de las inmensas posibilidades científicas, para exponer lo que ya se ha conseguido en el campo de la práctica.

Primeros Logros Científicos Aplicados a la Sociedad

Los satélites técnicos. — Antes del Telstar, América y Europa estaban unidas por 343 líneas telefónicas. Este satélite podía retransmitir 300 comunicaciones simultáneas, y los que se proyectan podrán transmitir en dos segundos todo el contenido de un diario.

Los satélites meteorológicos, como el Tiros, permitieron ganar, mediante sus. microondas de rayos infrarrojos, 48 horas en la previsión de los tornados;   además,   economizan   muchos   traslados   inútiles de rompehielos al indicar la ubicación de los campos helados, y, accesoriamente, informan sobre los incendios de bosques. Los satélites de tipo Transit, por su parte, permiten a barcos y submarinos establecer su posición muy rápidamente con un error de menos de 500 metros.

Ver: Los Satélites Artificiales

La miniaturización. — La necesidad de obtener productcs eficaces y livianos y los inmensos créditos disponibles, han sido un latigazo para la industria que produjo ya 3.200 sustancias nuevas con este objeto. Después del perfeccionamiento de los transistores se llega a los circuitos integrados, que permiten acumular una increíble cantidad ce sistemas electrónicos en el volumen de una caja de cerillas.

Una de las técnicas consiste en depositar en el vacío una película metálica de extrema delgadez, a fin de obtener redes interconectadas; otra, ejecuta el circuito complete sobre el minúsculo grano que constituye la cabeza del semiconductor, Gracias a estos circuitos integrados se pudo transformar toda la técnica de las calculadoras electrónicas: existen ahora (1970) computadoras que sólo pesan 8 kilos para una memoria de 16.000 signos, y se calcula que su costo futuro se reducirá a la quinta parte del actual. (Las computadoras invaden la industria y el comercio, y los soviéticos calculan que dentro de 20 años necesitarán un millón de operadores adiestrados para calculadoras.)(ver: microprocesador electronico)

Entre las aplicaciones a la vida cotidiana citemos el radar en miniatura para ciegos, que les permite “oír” los obstáculos, fijos o móviles, por resonancia, un poco a la manera  de   los  murciélagos que emiten chillidos  ultrasónicos.

Ver: La Evolución de las Microcomputadoras

Nuevos materiales. — Aquí no hay nada absolutamente original, pero las exigencias son mucho más severas. Se trata, en efecto, de obtener materiales extremadamente livianos pero de gran resistencia mecánica y térmica. Los nuevos aceros a base de cromo, molibdeno y vanadio, como el Vascojet 1.000, son casi tres veces más resistentes que los aceros clásicos.

El berilio ha entrado en la industria porque, siendo apenas más pesado que el magnesio, es tan rígido como el molibdeno, tan refractario como el titanio, tan resistente a la oxidación como el aluminio y soporte admirablemente la corrosión; sus inconvenientes más graves son su toxicidad y su extrema fragilidad.

El berilio es indispensable en la industria nuclear porque casi no atrae los neutrones, y en la astronáutica, para las ojivas que protegen la nave cuando vuelve a penetrar en la atmósfera; además se lo utiliza para construir giróscopos de gran estabilidad dimensional y considerable rigidez, y como ventana transparente en los aparatos de rayos X. Este año, un coche construido con berilio participó en la célebre carrera de automóviles de Indianápolis.

También se ha perfeccionado el titanio para su uso en la cápsula Mercury y se lo emplea ya en el tren de aterrizaje del Boeing 727, así como para la fabricación de recipientes de hidrógeno líquido. Para soldar los materiales refractarios que emplea la astronáutica hubo que perfeccionar un soplete que emite electrones de alto poder y permite soldar uniones que resisten temperaturas de 1.700°C. Por su parte, los hornos utilizan el pirografito perfeccionado, que se empleó por primera vez en astronáutica.

Energía. — La astronáutica permitió perfeccionar la pila de gases, que transforma directamente la energía química en eléctrica. El rendimiento de las baterías solares se ha multiplicado por 300 y su uso en la superficie terrestre ya puede ser redituable. El hidruro de litio, como reserva de hidrógeno, tendrá, con seguridad, muchas aplicaciones en la industria. Y por último, se encara ya seriamente la realización del famoso motor a eyección de iones de cesio, cuyo poder y posibilidades son inmensas.

Medicina. — Para mejor control de los cosmonautas se construyeron aparatos que permiten mediciones fisiológicas continuas. También se fabrican ahora simuladores cardíacos, munidos de baterías especiales, que han salvado ya muchas vidas humanas, y que, al ser portátiles, podrán permitir al paciente una existencia casi normal.

Para los viajes espaciales largos se estudia y perfecciona la hibernación, consistente en disminuir la temperatura y dejar al paciente en estado de vida latente: cada adelanto que se logra es inmediatamente utilizado en cirugía. Por último, se han creado sustancias químicas que procuran proteger el organismo del cosmonauta de las radiaciones peligrosas y, de esta manera, amplían el campo de los medicamentos antirradiactivos.

Ver: Lo últimos avances en medicina

Fuente Consultada:
TECNIRAMA N°11 Enciclopedia de la Ciencia y la Tecnología – La Astronaútica –

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del “empleado bancario” ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos “bigotes” de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla

HISTORIA Y EVOLUCIÓN DE LA CORRIENTE ELÉCTRICA

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el “príncipe de los experimentadores”. Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que un unan. girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar. Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: “Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética“. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad.

En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las “resplande cientes herraduras que brillaban dentro de los globo en forma de peras”.

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno yj consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

La Corriente alternada
Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  “impulsar” a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

 

Historia de la Produccion en Serie La Cadena de Montaje

CADENA O LÍNEA DE MONTAJE
Cuando pudieron hacerse formas metálicas exactamente iguales, fue lógico pensar en ellas como piezas intercambiables.

Eli Whitney fue quien por primera vez montó piezas intercambiables como un nuevo método de fabricación. Se pudo hacer las piezas en un lugar y luego armarlas en otro. Whitney pensó que en esta forma los productos manufacturados podrían producirse en cantidad mayor con más rapidez y a menor costo.

Ely Whitney

En los primeros años de su juventud, Whitney se ganó la vida batiendo clavos en un yunque. Nunca podía dar a los clavos formas exactamente iguales. Años después, cuando ya había inventado la desmotadora de algodón, en una ocasión en que observaba cómo con un martillo pilón se hacían miles de clavos idénticos, se convenció de que las máquinas tendrían que sustituir a la mano del hombre.

Por esa época, en 1789, Francia estaba en plena revolución, y los Estados Unidos temían que su mejor amiga pudiera volverse contra ellos. Se necesitaban fusiles para la defensa de las costas de América. Para fabricarlos a mano se requerirían años. No es de extrañar que el Departamento de Guerra se alegrase cuando Whitney propuso entregar 10.000 mosquetes en el término de dos años al bajo precio de $ 13,40 cada uno. Se celebró contrato con Whitney, adelantándole una suma para que comenzara la fabricación.

El joven inventor, sin embargo, tropezó con gran dificultad para encontrar hombres que poseyeran la pericia mecánica necesaria para hacer las máquinas cortadoras que reemplazasen al viejo martillo, el escoplo y la lima. Al igual que antes Watt, Whitney tuvo que hacerse las herramientas requeridas y adiestrar en el manejo a los obreros que él tomaba en las fundiciones y talleres de maquinaria.

Su primera tarea fue construir un elemento mecánico que reemplazara a las, manos humanas en la aplicación y dirección del movimiento de un instrumento cortante. No había maquinistas cuyas manos fuesen suficientemente firmes o fuertes como para sostener un instrumento de raspado contra una pieza de hierro que gira más de unos pocos minutos cada vez.

Se necesitaba una presión constante y exacta. Resolvió el problema con una especie de plantilla mecánica, que viene a ser un molde de madera o metal, a lo largo del cual se mueve una herramienta que hace piezas iguales.

Cada pieza del mosquete se sujetaba en una posición prefijada antes que las fresas la cortaran. De esta manera se repetía cada una con precisión absoluta. No sólo se empleaban piezas uniformes, sino que los bancos de trabajo se ubicaban de manera que las piezas pudieran pasarse de un obrero al otro.

La fábrica se dividía en departamentos, cada uno con su máquina especial unida por correa a un eje que impulsaba y hacía todas las herramientas cortantes.

Con esto la fábrica ya estaba preparada para ponerse en marcha, y todas las máquinas comenzaron a trabajar al mismo tiempo. Una máquina daba forma a la caja de madera del fusil, con sus superficies planas y curvadas. En hojas metálicas se hacían agujeros en lugares precisos, a fin de que sirviesen de guías para la producción en masa de trabajo de perforación.

Con grapas se sujetaban hojas metálicas contra los bancos, mientras las fresas las cortaban. Interruptores automáticos-detenían la acción de la herramienta. El mecánico sólo necesitaba agrapar las barras metálicas, las cuales eran cortadas, cepilladas, conformadas, taladradas, lustradas y esmeriladas automáticamente.

Los obreros solamente tenían que reunir las diversas piezas y llevarlas a la sala de montaje, donde se armaban los fusiles en tiempo record.

Finalmente, se dispuso de una forma de producir grandes cantidades de materiales con la rapidez, la uniformidad y la precisión que ningún artesano podía lograr individualmente.

Comienza la producción en masa
En este tiempo las avanzadas de pobladores y colonizadores de zonas lejanas estaban en plena marcha hacia el oeste de los Estados Unidos. Había que preparar las fronteras (que es como se llamaba a los límites entre civilización y regiones incultas) y construir viviendas.

El hacha era la herramienta predilecta del pionero. Pero éste a menudo tenía que esperar meses a que el herrero le forjara un hacha. Cada mango exigía un tallado cuidadoso. Cada hoja de hacha requería un largo y lento proceso de templado y pulimento.

Lo que Whitney había hecho para el fusil, otros entusiastas de la mecánica lo aplicaron al hacha. Las fábricas las hicieron a millares. Se colocaban en tambores giratorios y pasaban por las llamas de un horno en un proceso de calentamiento uniforme. Luego un martinete de fragua les daba rápidos golpes sucesivos, que hacían perforaciones de una medida exacta, por donde entrase a la perfección el mango.

De la noche a la mañana dejaron de faltar hachas. Corrió si se tratase de celebrar la intensificación de la producción fabril, empezaron a salir en cantidad los relojes de las fábricas. Con máquinas se perforaban miles de piezas por día y se montaban tan rápidamente que todo el mundo pudo tener reloj por muy bajo precio.

El hecho de que las máquinas pudieran hacer cosas mejores y con mayor rapidez produjo una conmoción creciente que todo lo inyadió. Elias Howe descubrió la parte esencial de la idea de una máquina de coser un día en que puso el ojo de una aguja en la punía en lugar de la cabeza.

De esta manera fue posible hacer que el hilo atravesase la lela sin necesidad de que la aguja la pasase de lado a lado. Otro hilo que salía de una lanzadera pasaba por dentro del lazo. Cuando la primera aguja retrocedía nuevamente, con un punto de cadeneta se apretaban los dos hilos. Esto resultó cien veces más rápido que coser a mano.

Singer introdujo mejoras. Mediante un pedal consiguió que las manos de la costurera quedasen libres y pudiesen guiar la tela. Se dio a la aguja movimiento vertical, subiendo y bajando, en vez de moverse Imrizontalmente como la aguja de Howe.

Al poco tiempo la máquina de coser pasó del hogar a la fábrica. La producción en masa hizo bajar los precios. Todos pudieron adquirir desde entonces mi traje nuevo, un vestido nuevo. Las máquinas construyeron nuevas máquinas despúes de cada nuevo invento. La lenta salida de los productos manufacturados, parecida a un goteo se transformó en un diluvio.

PARA SABER MAS…
Cadena de Montaje en Ford

La producción dependió de la rapidez con que el hombre pudiese servir a la máquina. En la línea de montaje, cada hombre agregaba una pieza al armazón desnudo que iba avanzando por esa línea. A medida que el magneto, por ejemplo, se desplazaba sobre un medio transportador, los hombres le añadían algo cada uno, hasta que finalmente salía terminado al cabo de trece minutos. Levantando el transportador del magneto veinte centímetros, para que los hombres no tuvieran que agacharse, el tiempo disminuyó a siete minutos. Imprimiendo al transportador un poco más de velocidad, ese tiempo se redujo a cinco minutos.

Con métodos similares, en la línea del ehassis se redujo el número de estaciones, hasta que fue sólo de cuarenta y cinco, y de la última operación salía el auto armado. Fue éste un ejemplo sensacional del método nuevo de producción. En 1915, un coche se terminaba en noventa y tres minutos. Una década después, luego de haberse vendido 16 millones de automóviles del modelo T, cada quince minutos salía un coche nuevo. Lo más sorprendente de todo es que el precio se pudo reducir de 850 a 295 dolores.

Frederick Taylor fue el primero que concibió la idea de que el propio hombre pudiera convertirse en un mecanismo. Taylor es el ingeniero que descubrió un acero de aleación nueva capaz de cuadruplicar la velocidad de las herramientas cortantes. Imaginó que el propio hombre podía llegar a ser igual de eficiente que una máquina si se eliminaban movimientos superfluos. Utilizando un cronógrafo, determinó el tiempo que tardaban distintos obreros y el que se requería en distintos movimientos para concluir una operación.

Otros ingenieros siguieron estudiando los movimientos de los obreros con el propósito de llegar al máximo de producción posible por minuto. Todos estos estudios sobre la forma de lograr que las piezas y los materiales saliesen en forma uniforme y fija; con la velocidad mayor con que las máquinas pudieran producirlas, desembocaron en una sorprendente conclusión: nunca se conseguiría que el hombre fuese una máquina eficiente.

Ver: Henry Ford y su Producción

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer “la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en “V”, puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en “V”, grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en “V”, el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en “V” próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación “vuela” sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en “V”, la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Barcos de Cemento y Prefabricados en la Segunda Guerra

BARCOS CONSTRUIDOS EN SERIE EN LA SEGUNDA GUERRA MUNDIAL

Durante la segunda guerra mundial, la flota mercante aliada sufría pérdidas increíbles bajo la acción del arma submarina y aérea del Eje. La defensa era lenta e incapaz y un dilema se presentaba inexorable: si se seguía construyendo barcos mercantes con los sistemas clásicos, pronto no habría con qué reponer las pérdidas. La urgencia era dramática.

Así surgió el famoso “Liberty”: barco mercante criticado y subestimado, sobre todo por los ingleses, pero que cumplió con el cometido a que fue destinado.

Barco Carguero “Liberty”

El “Liberti” fue el primero de los cargueros fabricado» en gran serie y con partes completamente prefabricadas. Infinidad de grandes piezas se estampaban con enormes balancines y se armaban en lugares alejados del astillero, siendo transportadas hasta éste por ferrocarril. Sin embargo, la soldadura autógena y la eléctrica fueron las que en mayor grado salvaron la situación.

Es cierto que los astilleros alemanes fueron los primeros en usar la soldadura y lo hacían desde mucho antes de la guerra, pero el método no estaba difundido en la industria naviera americana. Así se llegó a fabricar hasta dos “Liberty” diarios. Lo cierto es que aquellos barcos, aceptados por los técnicos de la época sólo en ese “caso de emergencia”, todavía hoy están en servicio.

La industria naviera alemana llegó a fabricar sus torpederos y submarinos ya no como naves sino como simples estructuras producidas en fábricas lejos aun hasta de la costa del mar. En los Estados Unidos, Holanda y Alemania se construyeron naves de tonelaje menor con la quilla hacia arriba; luego eran “volcadas” y botadas de costado. Una rareza notable la constituyeron los llamados “barcos de cemento”. Estas naves estaban construidas en su mayor parte (casco y cubierta) de cemento armado.

La construcción parecía reunir todas las ventajas; era barata, consumía mucho menos hierro, metal precioso en tiempo de guerra; se moldeaba en forma práctica, era relativamente más liviana, y de muy fácil reparación; completamente inoxidable, y prácticamente estaba a salvo de la terrible mina magnética. Pero contra todas las ventajas que le auguraban un gran porvenir “el barco de cemento”, después de algunas pocas construcciones, desapareció. Sólo fue un intento más en la carrera hacia la perfección de la industria naviera.

Barco de Cemento

Muchísimos pequeños adelantos técnicos solucionan hoy, con asombrosa facilidad, lo que ayer representaba problemas de mano de obra y de lenta realización. Sabido es que terminar y recubrir los interiores de un lujoso transatlántico, decorarlo, pintarlo, equiparlo de los miles pequeños elementos que requiere esa ciudad flotante, en fin, vestirlo y acondicionarlo con el confort requerido, era trabajo caro y lento.

Pero los plásticos en todas sus formas, láminas, moldeados, tubos, etc., maderas sintéticas, metales livianos, los adhesivos, los acríbeos y las resinas sintéticas, han llegado también en ayuda de los realizadores de esta parte de la nave.

Motor Wankel Principio de Funcionamiento Ciclos o Fases

En todos los motores de combustión interna se produce la energía por la expansión de los gases de combustión, obtenidos en la quema rápida del combustible en aire comprimido. En una turbina de gas, el proceso es continuo. Un flujo constante de aire, comprimido previamente, entra en la cámara de combustión y, simultáneamente, un chorro de combustible penetra en dicha cámara, quemándose en el aire y produciendo un chorro continuo de gases calientes y altamente comprimidos.

Felix Wankel
El hombre que da nombre a este motor, Félix Wankel, nació en Alemania, en 1902. En su juventud, dedicó mucho tiempo a la experimentación, y trabajó en la resolución de muchos problemas matemáticos. Después de la guerra, restableció su taller, y diseñó una pequeña válvula rotatoria para la fábrica N.S.U. La calidad de los cierres de esta válvula, a pesar de estar sometida a todo el calor de los gases de combustión, le hizo pensar en la posibilidad de construir un motor rotatorio, y lo desarrolló en cooperación con la N.S.U.

Éstos se dirigen a las aletas del rotor de una turbina fijada en el eje motriz, que de esta forma gira sin cesar, y los gases ya usados son expulsados a la atmósfera de una forma continua.

En un motor de cilindros, la producción de energía es discontinua, y se deriva de una serie de procesos: aspiración, compresión, encendido y expansión de los gases que son expulsados. Todo ello se verifica en dos vueltas del eje. Por tanto, el eje motriz de un motor de cuatro tiempos, de un solo cilindro, recibe energía solamente durante media vuelta cada dos vueltas, concretamente, durante la fase de expansión.

Durante vuelta y media se toma energía de él, para llevar a cabo los restantes procesos descritos anteriormente. Esto se manifiesta en vibraciones en la rotación del eje motriz, que pueden subsanarse, parcialmente, con un volante pesado, o mayor número de cilindros.

Todos los procesos anteriormente descritos de aspiración, compresión, expansión y expulsión se originan por el movimiento de vaivén, en una línea recta, de un pistón en el interior del cilindro. El movimiento de rotación del eje motriz se consigue acoplándolo al pistón por medio de una biela.

Cuando el pistón se halla en el extremo superior de su recorrido, es decir, pegado a la cabeza del cilindro, queda estacionario. También está así cuando se encuentra en el extremo inferior de su recorrido; o sea, en la parte más alejada de la cabeza del pistón.

Cuando empieza a moverse, se acelera hasta que alcanza su máxima velocidad, en un punto a la mitad de su recorrido. Entonces comienza a disminuir su velocidad hasta que se para en el extremo de su recorrido, repitiendo luego este proceso a la inversa. Todo esto ocurre durante dos movimientos del pistón, uno en cada dirección, por cada revolución del eje motriz.

En un motor con un recorrido de 10 cm., cuando el eje gira a una velocidad de 4.500 r.p.m., el pistón recorre una distancia total de 4.500 x 10 cm. x 2 = 900 m.; una velocidad media de 900 m/min. La velocidad máxima del pistón no es, sin embargo, 1.800 m/min. (900 x 2), como podía esperarse, sino 1.413,6 m/min. Es la velocidad a la que gira el eje.

Esta discrepancia se debe al hecho de que la aceleración es máxima cuando el pistón comienza a moverse a partir del reposo. Esta aceleración decrece a medida que la velocidad real del pistón se incrementa hasta alcanzar el valor máximo (cuando el pistón está a medio camino, a lo largo del cilindro y la biela, está formando un ángulo de 90° con la línea del cilindro); entonces cesa la aceleración y comienza la desaceleración.

La energía que se utiliza para mover el pistón (y partes de unión) miles de veces por minuto, y la necesaria para vencer el rozamiento de los segmentos o aros con las paredes del cilindro, causan una gran pérdida de energía.

ciclos del motor wankel
En un motor clásico de cuatro tiempos hay una serie de piezas móviles, la mayor parte de ellas con movimiento de vaivén. El motor Wankel trabaja según el principio del motor de cuatro tiempos, pero en él no hay piezas con movimiento de vaivén.

De lo dicho anteriormente, se desprende que un motor como el descrito no es el medio más eficaz para convertir en fuerza motriz el calor latente del combustible. De hecho, el rendimiento calorífico de un motor de petróleo, aun funcionando en las mejores condiciones, no es mayor del 25 %. Además, existe el inconveniente de molestias y pérdidas de energía que produce la vibración inherente a todo movimiento de vaivén.

Se han realizado intentos, a lo largo de estos años, para diseñar un motor que produzca energía motriz por un movimiento puro de rotación. La turbina de gas es un buen ejemplo; pero, a pesar de que a plena carga su rendimiento puede llegar a ser del 38 %, cuando no trabaja a plena carga su consumo de combustible sigue siendo elevado; esto es inconveniente cuando se destina a motores que, la mayoría de las veces, funcionan a velocidades muy inferiores a la máxima.

ciclos del motor wankel

En cada vértice del rotor se produce continuamente un cierre, que permite que los gases contenidos en los espacios entre el rotor y la cámara se nueven  con el rotor, desde la entrada hasta la expulsión. Cuando cada vértice del rotor deja abierta la válvula de entrada, penetra la mezcla de combustión y aire (amarillo) ; luego se comprime (naranja); se quema y se expande impulsando el rotor  y los gases son expulsados por el tubo de escape (marrón).

El motor diseñado por el ingeniero alemán Félix Wankel combina los cuatro procesos del motor clásico de cuatro tiempos en un movimiento rotativo, dentro de una cámara diseñada en forma epitrocoide. Tiene la utilidad de eliminar las partes del vaivén de un motor de émbolo, manteniendo la ventaja de permitir una velocidad de rotación baja.

El peso y el tamaño se reducen considerablemente y la vibración es virtualmente eliminada. Se asegura que la producción de energía de un Wankel es de dos a dos veces y media superior a la de uno de pistón de la misma cilindrada.

La parte fundamental de un motor Wankel es una cámara de formato especial, en la que hay un rotor de forma triangular, con los lados curvos. Los tres vértices están en contacto continuo con las paredes de la cámara, formando tres compartimientos estancos,limitados, por una parte, por el rotor y, por otra, por las paredes de la cámara. Cuando el rotor gira dentro de la cámara, giran con él, por tanto, los tres compartimientos, y la distancia entre cada cara del rotor y la pared de la cámara aumenta o disminuye, variando el volumen de cada compartimiento.

Para asegurar el funcionamiento suave y seguro del rotor, éste va provisto de un piñón con 30 dientes, que engranan excéntricamente con los 20 dientes de otro piñón que es concéntrico (es decir, tiene el mismo centro) con el eje motriz. En otras palabras, el rotor gira con el engranaje como lo hace un “huía hoop” alrededor de la cintura.
A. causa del engranaje excéntrico, y puesto que los dos piñones tienen distinto número de dientes, mientras el eje motriz da una vuelta completa, el rotor sólo ha realizado un tercio de su recorrido en el interior de la cámara, es decir, el eje gira a una velocidad tres veces mayor que la del rotor.

Se puede comprender mejor este movimiento si se imagina una manivela, o palanca, en el lugar de la excéntrica, siendo la longitud de la palanca la distancia entre los centros del rotor y del eje. Cuando el rotor se mueve, el espacio comprendido entre cada cara de éste y la pared de la cámara se agranda, o se hace más pequeño, dos veces por cada revolución completa del rotor.

Corte de un Motor Wankel

La primera expansión es la fase de “inducción”, cuando la mezcla de aire y combustible entra del carburador. La primera contracción de volumen de la cámara comprime la mezcla. La segunda expansión es la base de producción de energía, cuando la mezcla se quema y, por expansión, mueve el rotor. La segunda contracción expulsa los gases. Estas cuatro fases completan un ciclo, y de nuevo hay un espacio, frente a cada cara del rotor; por lo tanto, hay tres de estos ciclos por cada vuelta completa del rotor, es decir, una por cada vuelta del eje.

Comoquiera que la combustión se realiza, sucesivamente, en una cara distinta del rotor, el incremento del calor es razonablemente bajo, con pequeña o nula dilatación del rotor. El interior del rotor está refrigerado con aceite, y el calor se disipa también a través de los contactos que los vértices del rotor realizan sobre las paredes de la cámara, que están refrigeradas por agua.

El eje lleva una rueda dentada para uniformar la rotación entre las fases productoras de energía, y unos pesos en los extremos, para equilibrar el ligero balanceo del rotor. El encendido y el carburador son similares a los del motor clásico de cuatro tiempos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología TECNIRAMA Fasc. N°84 (CODEX)

Aviones Convertibles Primeros Modelos y Tipos

INTRODUCCIÓN: El día 2 de noviembre de 1954 constituye un hito en la historia del aeroplano. Dicho día, en la base de pruebas de la casa Convair, el piloto J. K. Coleman realizó el primer vuelo en un avión que despegó verticalmente desde su posición de partida, basculó en el aire, voló horizontalmente a más de 800 kilómetros por ahora y aterrizó de nuevo en posición vertical hasta quedar apoyado sobre la cola.

El Faire-Rotodyne, convertible para pasajeros, de velocidad superior a los 300 kilómetros por hora.

El avión era un monoplano de ala en delta Corvair XFY-1 equipado con un turbopropulsor Allison de 5.500 HP. Dos hélices tripalas contrarrotativas proporcionan, junto con el empuje del chorro del reactor, la fuerza de sustentación necesaria para el despegue vertical. Se trata de un nuevo tipo de avión, que los norteamericanos designan VTOL (Vertical Take oíi Landing: despegue y aterrizaje vertical) y que en Europa se conoce por «convertible».

En el año 1950, con ocasión de la guerra de Corea, el Gobierno de los Estados Unidos se dio cuenta de la necesidad de disponer de aviones de caza capaces de despegar en cualquier clase de terreno, sin necesitar aeródromos y pistas de aterrizaje.

En efecto, el peso cada vez mayor de los aviones de caza obligó a hacer pistas y campos de aterrizaje de mayor extensión y resistencia, y, por otra parte, el terreno montañoso no ofrecía lugares a propósito para la instalación de tales campos y pistas. Asimismo había que pensar en aviones de caza capaces de despegar de la cubierta de los buques de guerra y de transporte y que pudiesen aterrizar de nuevo en ellos, evitando tener que acompañar las escuadras y convoyes con costosos y vulnerables portaaviones.

A partir de dicho año los proyectos se suceden, la mayoría irrealizables por fantásticos; pero algunos ofrecen posibilidades constructivas, y al cabo de cuatro años se consigue que vuele el primer «convertible».

Qué se entiende por avión convertible:

Un avión convertible es un avión capaz de despegar y aterrizar como un helicóptero, es decir, verticalmente, y una vez alcanzada la altura suficiente, volar como un avión.

Aunque el helicóptero resuelve muchos problemas, como son los del salvamento en zonas difíciles de acceso, vigilancia y enlace, así como transporte del aeropuerto al centro urbano y de ciudad a ciudad con helicopuertos centrales, las misiones de tipo militar, en campaña, quedan limitadas en estos aparatos por su reducida velocidad.

En dos décadas de desarrollo el helicóptero sólo ha alcanzado una velocidad máxima de 251 kilómetros por hora (récord mundial, septiembre de 1953, helicóptero Sikorsky XH-39, piloto Wester, de los Estados Unidos), y no es previsible ni probable que llegue a alcanzar nunca las velocidades sónicas, ya alcanzadas y hasta rebasadas por algunos tipos de aviones de caza.

El 5 de enero de 1959 el Fairey-Rotodyne, primer convertible comercial para pasajeros, ya logró alcanzar en sus vuelos de ensayo los 307 kilómetros por hora sobre un circuito de 100 kilómetros, batiendo con ello la marca de velocidad máxima alcanzada por los helicópteros.

Si motivos militares son los que han impulsado el rápido desarrollo del convertible, no debe olvidarse el problema de la seguridad, que queda ampliamente resuelto con este tipo de avión. Por consiguiente, no deberá extrañar que, una vez puestos a punto los convertibles militares, se construyan paralelamente los convertibles civiles, tanto para el transporte de viajeros como para el turismo o el avión particular.

Tipos de aviones convertibles:

Los convertibles se clasifican en tres grandes grupos:
1.° Los que disponen de rotores, hélices o reactores distintos para la sustentación como helicópteros y para la propulsión como aviones.
2.° Los que tienen un mismo rotor, hélice o reactor para la sustentación y la propulsión, y el eje del propulsor ha de girar 90° al pasar de una a otra clase de vuelo.
3.° Los que se sustentan y avanzan sobre una columna de aire creada por sus elementos propulsores. Son las plataformas volantes.

En el primer grupo, los aparatos reúnen las características del helicóptero combinadas con las del aeroplano: alas y hélices o reactores de avión para el vuelo horizontal, y rotor de helicóptero o reactores para el vuelo vertical. La ventaja principal de estos convertibles estriba en la seguridad de su pilotaje, ya que el paso de vuelo helicóptero al vuelo avión es continuo, conservando siempre el mando del aparato. El grupo primero se subdivide en tres subgrupos:

a)    Los convertiplanos cuyo rotor de despegue se para en el vuelo horizontal, de manera que las palas ofrezcan una resistencia mínima al avance.
b)    Los convertiplanos en que las palas del rotor de sustentación vertical se colocan de manera que en vuelo horizontal actúan como las alas fijas de los aviones normales.
c)    Los combinados de avión y helicóptero, es decir, los helicoplanos o helicópteros combinados, con fuselaje y alas de avión provisto de rotores sustentadores.

Entre los proyectos correspondientes al grupo primero, subgrupo a), destaca el convertiplano de Wilford, con rotor monopala contrapesado, de propulsión por reacción, a tase de chorro de gases comprimidos por el motor y eyectados e inflamados en el extremo acodado de la pala.

En el subgrupo b) merece citarse el convertiplano de Herrick, HV-1, que realizó sus primeros ensayos en 1931, prosiguiendo sus estudios en años posteriores (el HV-2 voló en 1937).

avion convertible herridyne

Modelo norteamericano «Helidyne», convertible, con dos rotores coaxiles y dos motores para vuelo horizontal. Ofrece, en su conjunto, las ventajas del helicóptero, el autogiro y del avión clásico.

Convertiplano de Herrick. Es un biplano con una ala fija y otra giratoria, a voluntad, dotada de turborreactores en sus extremos. Para el despegue y aterrizaje el plano superior actúa como un rotor de helicóptero; este rotor se convierte en plano cuando navega en vuelo horizontal.

El subgrupo c) está formado por los helicópteros «combinados», de los cuales constituye un precursor el autogiro español La Cierva, cuyos primeros vuelos datan del año 1923. El notable ingeniero Juan de la Cierva, con su revolución genial de la articulación de las palas del rotor y el descubrimiento del fenómeno de autogiración, hizo posible el desarrollo posterior del helicóptero y, como consecuencia, el del convertiplano.

Como se sabe, el autogiro primitivo era un avión de alas reducidas en las que una hélice tractora proporcionaba la velocidad suficiente para que el rotor entrase en autogiración, suministrando la fuerza de sustentación necesaria al vuelo. El rotor permitía una velocidad de vuelo muy reducida y el aterrizaje prácticamente vertical, y en los últimos modelos se lograba el despegue vertical acelerando el rotor mediante una transmisión desde el motor.

Soluciones parecidas, aunque no pueden clasificarse   estrictamente   como  convertibles,   son:

El «helicoplano» Hamilton, que se ensayó en los Estados Unidos en 1929, formado por un avión monoplano de ala alta Hamilton con dos hélices de eje vertical de 5,50 metros de diámetro situadas bajo el ala y a ambos lados del fuselaje.

Tipo de avión convertible que despega sobre un trípode, proyectado por L. H. Leonard. Una vez que el aparato ha despegado, gira sobre sí mismo un ángulo de 90 grados, las aletas estabilizadores se reducen por retracción (alas delanteras) y el aparato queda convertido en un cigarro puro volante de grandes alas.

El «giróptero» del francés Chauviére, construido en 1929, provisto de rotor sustentador y hélice tractora.El «clinógiro» de Odier Bessiére, ensayado en Francia en 1932, no es más que un monoplano Caudron 193, con motor de 95 HP, al que se le ha añadido una ala superior giratoria formada por un rotor de cuatro palas. Un proyecto posterior de A. Flettner prevé un avión clásico con cuatro hélices verticales para asegurar despegue y aterrizaje verticales.

Entre los «combinados» modelos pueden citarse los siguientes:

El helicóptero birrotor americano de la «Gyro-dyne Co.» Helidyne 7 A, con alas fijas reducidas de avión y dos motores con hélices propulsoras que le permiten volar a 140 kilómetros por hora con una carga útil de 1.340 kilogramos. Se trata de una adaptación del helicóptero Bendix. Sus primeros vuelos tuvieron efecto en noviembre de 1949. Un nuevo tipo, el Helidyne, destinado al transporte militar, presenta un peso en vuelo de 11.300 kilogramos.

Parecido a éste es el aparato experimental francés Farfadet SO-1310, helicóptero con un rotor de reacción a base de aire comprimido suministrado por una turbina «turbomeca» de 260 HP y alas fijas de superficie reducida, así como una hélice tractora accionada por una segunda turbina. En vuelo horizontal el rotor entra en autogiración. Sus ensayos dieron comienzo en el año 1953.

El Fairey-Rotodyne, que ya se ha citado, corresponde a este subgrupo.
En el grupo segundo, convertiplanos de rotor sobre eje que bascula en 90° para pasar del vuelo vertical al horizontal, también se distinguen dos subgrupos:

a)    Convertiplanos en que el rotor y el fuselaje basculan simultáneamente al pasar del vuelo en helicóptero a vuelo en avión, o sea eje del rotor invariable respecto al fuselaje.

b)    Convertiplanos con rotores o reactores de eje basculante respecto al fuselaje que permanece siempre en posición horizontal.

Los aparatos correspondientes al grupo segundo se caracterizan por tratarse en general de aparatos de alas fijas cuyas hélices son de diámetro mucho mayor al que normalmente sería necesario para el vuelo horizontal. En efecto, en este tipo de convertiplano las hélices, que trabajan con eje vertical, han de proporcionar la fuerza de sustentación necesaria para elevar vertical-mente el aparato.

El Hillar X-18 Propelloplane, avión convertible de ala basculante que despega en vertical.

Entre los aparatos del grupo segundo, subgrupo a), figuran los primeros convertibles de realización práctica y cuyos vuelos permitirán la solución del problema para los aviones de caza. Es el VTOL Convair XFY-1, ya citado, y otros como el Coleóptero, que más adelante describiremos con mayor detalle.

Este subgrupo a) es mecánicamente el de más fácil realización;  en cambio, presenta  otros inconvenientes que la práctica indicará la forma en que deberán solucionarse. Son éstos la difícil maniobra del paso de vuelo vertical a horizontal, y viceversa, basculando todo el aparato.

El embarco de los tripulantes y del material en el fuselaje en posición vertical tampoco será fácil. Por último, la estabilidad en el momento de aterrizaje si sopla viento algo fuerte parece precaria dada la altura del centro de gravedad con relación a la reducida base de apoyo sobre la cola.

Como primeros proyectos y realizaciones, merecen citarse los siguientes:
El de Focke-Wulf, que durante la segunda Guerra Mundial proyectó un convertible a base de substituir las alas por un gran rotor tripala situado tras la cabina de mando, accionado por estatorreactores en el extremo de las palas. Esto obligaba a utilizar cohetes de despegue. Los empenajes de tipo normal soportaban el tren de aterrizaje, sobre el cual se apoyaba el aparato en posición vertical para el despegue y aterrizaje.

Parecido al anterior, pero más atrevido, es el proyecto de L. H. Leonard, en el cual dos grandes rotores impulsan un fuselaje en cuya proa se halla la cabina de mando y los empenajes, y en la popa el tren de aterrizaje que, replegado en vuelo, se despliega para el aterrizaje vertical sobre la cola.

Un convertiplano correspondiente a este grupo, que fue construido por encargo de la Marina de los Estados Unidos, es el ala volante semicircular «Chance Vought» XFSU-1, de Zimmerman. En los extremos del ala dos grandes hélices tractoras despegaban el aparato colocado en ángulo de 45° y el aterrizaje se efectuaba en un espacio muy limitado, lo que permitía su utilización sobre las cubiertas de los buques. Fue rescindido el contrato de construcción en serie debido a la precaria estabilidad en el aterrizaje, defecto que, como indicamos, es inherente a este grupo.

Los aparatos del grupo segundo, subgrupo b), se reducen en general a aviones clásicos en los que, bien los motores, bien las alas, pueden bascular en 90° para lograr la posición vertical de las hélices.

Entre éstos pueden citarse el Bell XV-3, monoplano bimotor con dos rotores de 7 metros de diámetro en los extremos de las alas, cuyos ejes giran a la posición vertical para el despegue y a la horizontal para la propulsión. En el Bell-VTOL, monoplano de ala alta del año 1955, son los turborreactores situados bajo el ala los que basculan.

Otro tipo interesante de convertiplano es el Hiller X-18 Propelloplane, de 18 toneladas, cuyos primeros vuelos se realizaron en 1958. El ala, que gira solidariamente con los propulsores, colocándose en posición vertical para el despegue y horizontal para el avance, soporta dos turborreactores provistos de hélices contrarrotativas.

Una disposición análoga presenta el Vertol 76, cuyo primer vuelo completo se llevó a cabo el 15 de julio de 1958. El Kaman 16-B es un aparato anfibio construido según las mismas directrices.

Fuente Consultada:
Enciclopedia Cultural UNIVERSITAS Tomo N°17 -Los Aviones Convertibles-

Biografia de Cavendish Trabajo Cientifico Vida y Obra

Enrique Cavendish nació en Niza (Francia), en 1731. A la edad de 11 años íue enviado a la escuela en Hackney (Londres). En 1749 pasó a Cambridge, pero salió de allí sin haber obtenido ningún título. Perteneció a la Royal Society desde 1760 y, a partir de ese año, se dedicó, por su cuenta, al estudio de las matemáticas y de la física. Seis años después publicó trabajos sobre las propiedades del hidrógeno y del ácido carbónico.

Enrique Cavendish

Gran científico británico nacido el 10 de octubre de 1731. No muy famoso, pero destacado porque fue el primero en medir la densidad y composición de la atmosfera terrestre. Analizó la densidad media del nuestro planeta, descubrió el gas argón, inventó el pendulo de torsión, y propuso la ley de atracción electrica entre cargas de distinto signo. LLegó a poner en riego su vida al realizar experimentos con corrientes elétricas. Tenía una vida muy excentrica, y gozaba de una excelente posición social y económica.

Al mismo tiempo, investigaba las propiedades del calor, llegando independientemente a los conceptos de calor latente y calor específico, pero nunca se atrevió a publicar los resultados de sus investigaciones. También descubrió el nitrógeno, describiendo sus propiedades más importantes.

La  mayor contribución  de Enrique  Cavendish a la ciencia fue el descubrimiento de la composición del agua. Debe recordarse que la teoría del flogisto desorientó a los químicos durante algún tiempo, y que él, como muchos de sus contemporáneos, la apoyó.

Primero realizó experimentos sobre la composición del aire, demostrando que era constante. Luego mezcló dos partes de aire inflamable (hidrógeno) con una de aire desflogisticado (oxígeno) en el interior de un globo de cristal, haciendo explotar la mezcla por medio de una chispa eléctrica.

Otros químicos de su tiempo no se habían fijado en el rocío o empañamiento que se produce en las paredes de cristal del globo después de esta explosión. Cavendish comprobó que el peso del globo no había variado. Comprendió que los gases se habían combinado, dando agua. Como no publicó sus investigaciones, se suscitó una controversia, puesto que algunos atribuían el descubrimiento a Jacobo Watt, el inventor de la máquina de vapor.

En conexión con este experimento, descubrió la composición del ácido nítrico. A veces, las gotas de condensación que quedaban en ‘ las paredes del recipiente eran ligeramente acidas, y, al analizarlas, comprobó que tenían ácido nítrico. Explicó este hecho mediante la hipótesis de que el ácido se formaba por combinación del nitrógeno con los otros dos gases. El nitrógeno se encontraba allí como impureza.

Esto pudo demostrarlo añadiendo más nitrógeno, con lo cual se formaba más ácido nítrico. En sus años postreros viajó por toda Inglaterra, tomando nota de las formaciones rocosas y del paisaje. Su último gran experimento fue el descubrimiento de la atracción gravitatoria entre los cuerpos, lo que equivale a pesar la Tierra, como es denominado en algunas oportunidades.

obra cientifica de cavendish

El globo de explosión (reacción) que Cavendish usó se llenaba con los gases y se pesaba de la manera mostrada. Entonces se hacía explotar la mezcla por medio de una chispa eléctrica. Averiguó que el peso no cambiaba y que los gases desaparecían, quedando unas gotas de agua condensada en  las  paredes del  globo.  Se  basó en este experimento   para    explicar   ta    composición    del    agua.

Ampliar Sobre El Peso de la Tierra de Cavendish

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos. El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros. La cantidad de metales que existen en la corteza terrestre es relativamente pequeña. Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos. Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral. Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas. La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %. Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—. Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado. Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero. El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.   El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

METALURGIA: El campo de acción que abarca la metalurgia es verdaderamente amplio. Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características. En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales). El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre. Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

Minerales de Hierro

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado. En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado. Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente. Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición. Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente. Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente. Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos. En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables. Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza. El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación. Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada. Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación. También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.
El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia. Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable. Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción. También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta. Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos. Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales. La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia. La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año. En el- futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Significado de Gravedad Cero Ingravidez Aceleración Terrestre

La manzana Newton fue  hacia la Tierra por acción de la fuerza de la gravedad. Una fuerza análoga actúa sobre todas las cosas, tendiendo á acercarlas entre sí. Cuanto mayor sea la masa de los objetos, mayor es la fuerza gravitacional que ejercen sobre los demás. (La fuerza gravitacional ejercida por dos cuerpos entre sí, es proporcional al producto de sus masas individuales).

La Tierra es un objeto gigantesco, con una masa de alrededor de 5.883.000.000.000.000.000.000 toneladas, ejerciendo por consiguiente una fuerza gravitacional muy grande.

Esta fuerza es lo suficientemente intensa como para imprimir a la manzana, en su caída hacia la Tierra, una aceleración de 9,8 metros por segundo Pero la fuerza con que la Tierra atrae a la manzana depende, a su vez, de la distancia de ésta al centro de gravedad de aquélla. Cuando se encuentra sobre la superficie de la misma o en su proximidad la manzana está a casi 6.500 Km. del centro.

Si se dejase caer la manzana desde una altura doble de la distancia hasta dicho centro de la Tierra (13.000 Km. desde el centro, 6.500 Km. desde la superficie), la aceleración hacia la Tierra sería de 2,45 metros por segundo. De modo que, doblando la distancia al centro de gravedad terrestre, la fuerza de la gravedad se ha reducido a la cuarta parte del valor que tenía sobre la superficie de la Tierra. Expresado matemáticamente, la fuerza de la gravedad varía inversamente con el cuadrado de la distancia que separa las dos masas.

De este modo, cuánto más se aleje la manzana de la Tierra, tanto más disminuirá la fuerza gravitatoria, aunque ésta nunca podrá ser nula, porque, para ello, sería necesario que entre la manzana y la Tierra hubiera una distancia infinita. Sin embargo, en el momento en que la manzana estuviese a unas decenas de miles de kilómetros de la Tierra, el efecto de la gravedad terrestre llegaría a ser despreciable.

Si la manzana fuese colocada en este punto, no volvería a caer sobre la Tierra, porque la fuerza sería tan débil que no podría atraerla. En consecuencia, quedaría flotando en el espacio.

Esta es la condición conocida como g cero (gravedad cero) y es una de las primeras dificultades con que tropiezan los astronautas. Nos sorprende porque, inconscientemente, contamos con que la acción de la gravedad es constante. Así, cuando vertemos el té dentro de una taza, ponemos la tetera en un plano superior, casi perpendicular a la taza, y la gravedad arrastra el líquido hasta el interior de la misma.

Si el astronauta intentase hacer esto en las condiciones de gravedad cero, el té quedaría flotando a su alrededor, en forma de gotas, en el interior de la astronave. El movimiento también sería bastante diferente, puesto que no habría fuerza de gravedad que ligase al astronauta sobre el piso. Así, si él tomara impulso, empujando con los pies, continuaría desplazándose hacia arriba, hasta que tropezaría  contra el techo.

ingravidez, astronautas en sus practicas

Por ejemplo en la cabina de un avión entrando en picada en caía libre, el mismo seguirá una curva hacia la Tierra por efecto de la gravedad terrestre. Estas condiciones sólo pueden mantenerse durante unos 20 segundo.

GRAVEDAD Y ACELERACIÓN (ver Principio de Equivalencia)
Los astronautas experimentarán los efectos de la gravedad cero cuando viajen por el espacio con un movimiento estacionario, lejos de las atracciones gravitatorias del Sol y de algunos otros planetas. También notarán la falta de gravedad cuando se muevan con velocidad constante. Pero tan pronto como la nave espacial empiece a acelerar se sentirá una fuerza en sentido contrario al de la marcha, que podría, fácilmente, ser tomada como una fuerza gravita-toria.
La gravedad y la aceleración están estrechamente relacionadas. Del mismo modo que la fuerza de la gravedad acelera la manzana, así también la aceleración crea una “fuerza” muy similar a la gravitatoria.

Mientras la nave espacial no se mueve, acelerándose o retrasándose (o, dicho de otro modo, cuando esté detenida o se mueva con velocidad constante), su movimiento no crea una fuerza que produzca el mismo efecto que la fuerza gravitatoria. Esto se expresa en el primer principio del movimiento de Newton:   “Cuando no actúa fuerza alguna
sobre un cuerpo, nada cambia en él. Si está en reposo, continúa estándolo. Si se está moviendo con una cierta velocidad, continúa moviéndose con la misma velocidad”.

Lo contrario de este principio sigue rigiendo en el espacio, y, siempre que la nave esté quieta o moviéndose con velocidad constante, ninguna fuerza actuará sobre ella. El segundo principio del movimiento de Newton se refiere al efecto de una fuerza sobre el movimiento de un cuerpo: “Las fuerzas producen siempre aceleraciones, y éstas son proporcionales a las magnitudes de las mismas”. De nuevo, lo contrario de este principio sigue siendo válido para la nave espacial que está acelerándose. Toda aceleración produce una fuerza. Si la nave espacial estuviera sometida a una aceleración de 9,8 metros por segundo2 el astronauta tendría la sensación de estar sobre la Tierra. La “fuerza” debida al movimiento sería indistinguible de la fuerza gravitatoria terrestre, porque ésta tiende a acelerar los objetos precisamente a 9,8 metros por seg.².

Por ejemplo, si la nave espacial fuera acelerada, partiendo del reposo, el astronauta que comenzara a servirse su té podría pensar que las cosas suceden con toda normalidad. Quedaría definida una dirección hacia arriba y una dirección hacia abajo (lo mismo que ocurre sobre la Tierra). El “arriba” coincidiría con la dirección de la proa de la astronave, mientras que “abajo” estaría en la dirección de la cola de la misma.

El piso de la nave debe situarse, por tanto, en el extremo más próximo a la cola, y, si el astronauta se pusiera de pie para servirse su taza de té, éste caería en el interior de la taza con toda normalidad. No obstante, aunque al astronauta pudiera parecerle que las cosas suceden del mismo modo que en la Tierra, un observador imparcial, situado fuera de la astronave, observaría lo contrario.

Supóngase que se hubiese dejado atrás, en el espacio, a un astronauta mientras que la nave se moviese uniformemente, y que aquél pudiera ver lo que sucede cuando la nave se acelerase, alejándose de él. Entonces, tan pronto como se vierte, el té no sigue el movimiento de la astronave; no se; acelera hacía delante, como las restantes cosas fijas (incluyendo la tetera), porque no está unido a nada. De modo que ninguna fuerza actúa sobre él y se queda exactamente donde está cuando la astronave se mueve uniformemente.

De hecho, acelerando la nave espacial hacia adelante se recogería el té en la taza. Aquélla se movería hacia el té, pero un astronauta, en ella, por estar sometido a la misma aceleración, no encontraría diferencia entre el movimiento de la nave hacia el té y el de éste hacia abajo, como ocurriría sobre la Tierra.

Y no es porque exista algún error en la percepción, puesto que no existe, absolutamente, ningún procedimiento para encontrar la diferencia. Pero, ¿cómo se podría conseguir que la manzana no volviese a la Tierra, después de haberla lanzado, sin necesidad de alejarla infinitamente de la misma? Este problema está teóricamente resuelto desde que Newton formuló sus importantes principios.

Si hacemos girar una piedra, atada al extremo de una cuerda cuyo otro extremo sujetamos con la mano, notamos que la piedra hace una fuerza, tirando de nuestra mano en la dirección del radio determinado por la misma. Una fuerza de este tipo es la que tiende a hacer volcar a los automóviles al tomar una curva y, para contrarrestarla, las curvas de las carreteras tienen cierto declive o ángulo, llamado peralte.

En general, podemos decir que es necesario aplicar una fuerza de este tipo, siempre que se intenta desviar del camino rectilíneo a un móvil cualquiera. En algún otro lugar, ya dijimos cómo los cuerpos tienden, siempre, a conservar los estados de reposo o de movimiento rectilíneo con velocidad constante.

Para modificar esta tendencia natural de todos los objetos del universo, es necesario aplicarles una fuerza, tanto para sacarlos del reposo, como para variar su velocidad o separarlos de su trayectoria, puesto que, como decimos, tiende a ser rectilínea.

Pues bien, esta fuerza que es necesario aplicar para que la trayectoria descrita por un cuerpo sea curva, y que esté dirigida, siempre, hacia el centro de curvatura de la misma, se llama fuerza centrípeta. Por otra parte, el tercer principio de Newton, el llamado de la acción y la reacción, nos dice: “Siempre que un objeto ejerce una fuerza sobre otro, éste también ejerce una fuerza sobre el primero, llamada reacción (igual y de tido contrario), que tiende a opo-r. al efecto de la misma”.

Pues bien, contra la fuerza centrípeta (hacia adentro) que tenemos que hacer sobre la piedra para  que ésta  describa  un circulo la piedra ejerce una fuerza sobre la mano que, por estar dirigida en sentido contrario al centro, se llama centrífuga (hacia afuera).

¿Por qué razón un satélite que está rando en su órbita no se precipita contra la Tierra, como lo haría cualquier objeto que se dejara libremente, a cierta distancia de la superficie terrestre? respuesta  es   sumamente  sencilla.

Un objeto cualquiera, en el espacio, a cierta ta distancia de nuestro planeta, sufre la acción de la fuerza gravitatoria. Ahora bien, si este objeto se encuentra movimiento,   describiendo   una   órbita más o menos circular, también actua sobre él la fuerza centrífuga debido este movimiento.

Sólo nos queda disponer las cosas de modo que ambas fuerzas se contrarresten y, así, todo ocurríría como si sobre él no actuase fuerza alguna. Esto es lo que se hace al colocar en órbita un satélite artificial. Se calcula   su   trayectoria   de   modo  que conjunto de las fuerzas ejercidas sobre él sea nulo en todo instante.

Como, en principio, la fuerza centrífu dependerá no sólo del radio de giro si también de su velocidad, los científicos han de establecer un compromiso en las  magnitudes   que  entran   en  jueígo que son:  velocidad y radio de la ti yectoria. La masa del satélite sólo interviene durante el lanzamiento, des que sale de la Tierra, hasta que se coloca en órbita. Si suponemos una órbita circular, la relación que debe existir entre las maginitudes anteriores será:

formula velocidad de satelite en una órbita

Fuente Consultada:
Revista TECNIRAMA N°84 Gravedad Cero
Enciclopedia de la Ciencia y la Tecnología