Energía Atómica

Historia de Los Álamos Laboratorio Atómico Militar en México

Historia de Los Álamos Laboratorio Atómico Militar en México

La fundación en Nuevo México del centro atómico de Los Álamos, en 1942, se sumó a las particularidades y contrastes de las regiones desérticas del sudoeste de los Estados Unidos. Este centro atómico, el primero que poseyó Norteamérica, se instaló en medio de un vasto territorio en el que los indios intentaban preservar las tradiciones vigentes en los pueblos, y donde se conservan también las reliquias procedentes de las más viejas comunidades humanas de América del Norte, como ocurre en Santa Fe.

Los Álamos había sido hasta entonces un terreno de camping. El lugar fue elegido por su situación, que era ideal para la instalación de un centro de investigaciones nucleares y para la fabricación de armas atómicas. En efecto, Los Álamos se encuentra sobre una meseta a una altura de 2.200 m, al noroeste de Santa Fe.

vista aerea del laboratorio atomico de Los Alamos en Mexico

El suelo es pedregoso y estéril, y el clima muy seco. El secreto de las experiencias atómicas se ve favorecido por la inhóspita naturaleza y el alejamiento de los centros habitados. Por otra parte, Nuevo México y los estados vecinos poseen las riquezas minerales indispensables, principalmente en metales no ferrosos.

Los primeros sabios y técnicos que trabajaron en Los Álamos tuvieron que contentarse con barracas de madera y tiendas, pero esta situación duró muy poco, porque el personal científico gozó rápidamente de todas las comodidades que puede ofrecer una gran ciudad: se construyeron barrios residenciales, centros comerciales, terrenos de juego y cines.

Se ha afirmado que Los Álamos era la «ciudad más sabia» del mundo debido al gran número de hombres de ciencia reunidos en ella. Sin embargo, la vida de estos sabios  no  era  nada  envidiable,pues estaban continuamente bajo la vigilancia más o menos discreta de agentes de los servicios secretos. Esta vigilancia se reforzó todavía más después de la traición de Klaus Fuchs, sabio inglés de origen alemán.

Había llegado a Los Álamos en 1943, como miembro de la comisión atómica británica. Sabio joven —había nacido en 1911—, Klaus Fuchs tomó parte en investigaciones secretas. Cuando hubo adquirido los conocimientos necesarios y reunido las informaciones que deseaba, volvió a Gran Bretaña, donde continuó sus trabajos en el «Atomic Research Center» de Harwell.

En 1950 fue detenido acusado de espionaje a favor de la Unión Soviética. Condenado a 14 años de cárcel, fue puesto en libertad en 1959 antes de haber cumplido la condena, e inmediatamente se trasladó a Alemania oriental, donde obtuvo la nacionalidad y le fue confiada la dirección del centro de investigaciones atómicas de Alemania del Este.

Las investigaciones científicas realizadas en Los Álamos estaban confiadas al «Nuclear Research and Atomic Weapons Labórate -ry», que depende de la universidad de California. En la ciudad se procedió muy pronto al montaje de bombas atómicas cuyos elementos se fabricaban en otros sitios: el plutonio venía de Hanford (Washington) y el uranio 235 de Oak Ridge, enTennessee.

La primera bomba atómica hizo explosión el 16 de julio de 1945, a las 5’30 de la mañana, en el desierto de Nuevo México, exactamente en Trinity, cerca de Alamogordo, a unos centenares de kilómetros al sur de Los Álamos. Nadie sospechaba que acababa de empezar un nuevo capítulo de la historia de la humanidad. Ni siquiera los habitantes de las localidades de los alrededores, aunque es indudable que algunos vieron el famoso resplandor verde de la explosión.
El 6 de agosto de 1945 se destruía la ciudad japonesa de Hiroshima. Tres días más tarde, Nagasaki. La segunda Guerra Mundial finalizó poco después, pero esto no impidió que en Los Álamos se prosiguieran febrilmente las investigaciones. Los norteamericanos excavaron unos formidables refugios subterráneos en el flanco de un cañón, pues el radio de los medios de destrucción de un enemigo potencial era también mayor cada día.

La guerra fría incitó a los Estados Unidos a buscar y fabricar ingenios cada vez más poderosos. Se trasladó el lugar de las experiencias, y las explosiones experimentales se efectuaron en islas del Pacífico y en Nevada, la región más desértica de los Estados Unidos.

Cuando las explosiones fueron observadas desde Los Ángeles, a 250 km de distancia, la Comisión norteamericana de Energía Atómica decidió, en 1951, proceder a explosiones subterráneas. De este modo Los Álamos perdió su importancia. En 1962, el Gobierno norteamericano decidió incluso poner a la venta ciertas instalaciones de la ciudad atómica.

Sin embargo, el valor estratégico de los desiertos norteamericanos no deja de ser muy grande. Los aviadores de la Marina reci ben todo su entrenamiento en El Centro, a pocos kilómetros de la frontera mexicana, donde está instalada la Naval Auxiliary Air Sta-tion. El sitio es ideal para los ejercicios aéreos: un cielo eternamente azul, lejos de todo lugar habitado. En esta misma región se experimentaron las posibilidades de aterrizaje de la cápsula Mercury.

White Sands, en Nuevo México, es también desde hace mucho tiempo una importante base militar. En ella se procede a la experimentación de los cohetes. El célebre cohete Atlas, enviado al espacio desde Cabo Kennedy, fue fabricado cerca de San Diego y probado en los cañones del sur de California.

Fuente Consultada:
Enciclopedia Juvenil Tomo I A Zeta Editorial Credsa

Combustibles Que Se Extraen de la Tierra: carbón, petroleo, uranio

MATERIALES COMBUSTIBLES NATURALES: CARBÓN, PETRÓLEO Y URANIO

Aún antes que la civilización organizara el mundo del hombre, éste, en algunas partes de la Tierra, había hecho sus primeras tentativas de usar no sólo el suelo, sino también las sustancias enterradas profundamente en él. En el transcurso de su larga carrera como fabricante de utensilios, aprendió que ciertas clases de piedras se moldean más fácilmente y dan un filo más cortante que otras. Así, durante el período neolítico, hizo tal uso del pedernal, que éste comenzó a escasear en las capas superficiales de la tierra, y el hombre se vio obligado, entonces, a cavar minas, no muy profundas, para abastecerse de esta piedra.

Cuando hablamos de la Edad del Bronce y de la Edad del Hierro, imaginamos al hombre ya como minero experimentado. Las minas de cobre y las de estaño y hierro se encuentran raramente cerca de la superficie; estos minerales deben ser extraídos de las entrañas de la Tierra.

No es posible decir exactamente cuándo los hombres comenzaron a extraer carbón. A fines del siglo XVIII, Marco Polo trajo noticias de que los chinos conocían una «piedra que se enciende», pero por entonces, el carbón era usado ya, probablemente, en unos pocos lugares de Europa.

En aquella época, la mayor parte de Europa tenía todavía grandes bosques y había pocas ciudades muy pobladas. La mayoría de la gente podía obtener tanta leña como necesitara, de una manera simple y a bajo costo. De modo que el carbón, al principio, fue empleado para unas pocas tareas, por ejemplo, en la forja del hierro. Las pequeñas cantidades que se necesitaban para estos fines se obtenían fácilmente haciendo un corte en la ladera de una elevación y abriendo un túnel por ese lado.

Desde fines de la Edad Media, en adelante, con el crecimiento de las poblaciones, y a medida que los bosques eran talados y que nuevas industrias aparecían, el carbón se convirtió en un elemento importante. Por primera vez, las casas se construían con ventanas de vidrios y los ingredientes para la fabricación de éstos tenían que llegar a altas temperaturas. Se comenzaba a usar cañones y los largos tubos de hierro eran mejor forjados al calor intenso de un horno de carbón.

A principios del siglo XIX, se hallaron aún más usos para el carbón. Las fábricas que comenzaban a surgir en Gran Bretaña usaban la fuerza del vapor; así, más y más hierro fue fundido para hacer maquinarias y, por primera vez, las calles comenzaron a ser iluminadas con gas de carbón.

Con el tiempo, no fue suficiente el mineral que se extraía simplemente por cortes en las laderas de las montañas; de manera que se comenzaron a cavar minas cada vez más profundas con el objeto de hallar estratos, y así surgió un nuevo problema: el de drenar el agua de las capas interiores y el de mantener ventilados los lugares de trabajo en las minas.

Nuestra lámina muestra un corte longitudinal de una mina moderna, con elevadores, columnas de ventilación, sistemas de transporte y poderosas bombas para drenaje. Abajo, hay tres láminas que muestran aspectos del trabajo subterráneo y arriba vemos algunas de las muchas formas en que el carbón ayuda a la comodidad de la vida moderna. Las posibilidades de su uso son enormes. Cuando utilizamos una cocina de gas y cuando encendemos un aparato de televisión, estamos usando gas y electricidad producidos, probablemente, por el carbón.

corte de una mina de carbon

El carbón varía desde el lignito, el más blando y más recientemente formado (hace alrededor de 50 ó 60 millones de años), hasta la antracita, el más duro y más viejo (formado quizás hace 300 millones de años).

Los estratos carboníferos varían en espesor desde unos pocos centímetros, como en la mayoría de las minas de Gran Bretaña, hasta varios metros, como en muchas minas de América y de la Unión Soviética. Se estima que un poco menos de la mitad de las reservas mundiales de carbón están en Estados Unidos.

Ampliar Información sobre el Carbón

COMBUSTIBLE LÍQUIDO: Al igual que el carbón, el petróleo o aceite mineral se formó hace muchos millones de años. Durante los grandes levantamientos sufridos por la corteza terrestre, densas capas de restos marinos y de vegetales en descomposición, que descansaban en el lecho oceánico, fueron elevados hasta la superficie de las aguas y luego enterrados por nuevos movimientos sísmicos. Por la elevada presión de muchas formaciones sedimentarias acumuladas encima de los restos, éstos se convirtieron poco a poco en petróleo.

petroleo en el mundo

En algunas partes de la Tierra, los hombres parecen haber conocido el petróleo desde tempranas épocas. Ciertamente, el asfalto, una sustancia similar al petróleo, fue conocido en la antigua Mesopotamia. Herodoto cuenta que el asfalto fue utilizado para levantar las grandes murallas de Babilonia, y sabemos, también, que los romanos lo han usado alguna vez. Marco Polo relata que el petróleo se usaba para la iluminación en la parte sur de Rusia alrededor del año 1300, y que el comercio de este producto llegaba hasta Bagdad. Se cree también que los incas del Perú y los aztecas de México lo usaban, aunque limitadamente, mucho antes de que el hombre blanco llegara a América.

Sea mucha o poca la verdad que encierran estos relatos, lo cierto es que el petróleo, hasta hace pocos años, se usó únicamente allí donde salía solo a la superficie y se lo consideró un combustible común, de la categoría de los aceites vegetales y de la grasa animal.

En 1859 el estadounidense Drake inició, con sus perforaciones en Titusville (Pensilvania), la era comercial del petróleo. Entonces el hecho se consideró menos importante de lo que hoy parece, pues en 1859 el petróleo era simplemente un combustible; su única ventaja considerable sobre otros aceites era su alta tensión superficial, lo que hace que una mecha se impregne más fácilmente; por esto se logró fabricar mejores lámparas de aceite con mechas regulables.

El petróleo fue realmente valorado cuando se inventó la máquina de combustión interna, a fines del siglo XIX. A principios de nuestro siglo, los automóviles y motocicletas se volvieron elementos comunes de los caminos; en el término de unos pocos años, los primeros grandes barcos que funcionaban con petróleo cruzaban los mares y, a fines de la Primera Guerra Mundial, los aviones dejaron de ser una novedad.

Hoy, los caminos de todas las grandes ciudades del mundo están cruzados por vehículos motorizados; enormes aviones supersónicos consumen unos 70.000 litros de combustible en un vuelo regular, a lo largo de las rutas aéreas del mundo, y miles de fábricas queman en sus hornos petróleo en lugar de carbón.

corte terreno capas de petroleo

La lámina se muestra  cómo el petróleo está contenido bajo muchos estratos sedimentarios;grandes pozos que hoy existen en zonas desérticas.

El petróleo no sólo ha revolucionado el transporte, sino que ha hecho posible el uso de más maquinarias en la agricultura. Ha dado también lugar a industrias totalmente nuevas, que utilizan sus subproductos, como la de la goma sintética y una amplia línea de materiales plásticos.

Las principales zonas petroleras, en el presente, están en Estados Unidos, el Cercano Oriente, Venezuela, Unión Soviética, Kuwait, cerca de la costa norte del golfo Pérsico, e Irak. Juntas alcanzan los siete octavos de la producción total del mundo.

Los geólogos e ingenieros de minas están constantemente a la búsqueda de nuevas fuentes de abastecimiento y la producción, en varias partes del mundo, puede por esto cambiar drásticamente en unos pocos años.

MATERIAL COMO COMBUSTIBLE ATÓMICO:  Ciertos metales sólo adquirieron importancia cuando los hombres de ciencia estuvieron en los umbrales de la era atómica. Uno de los más importantes, el uranio, fue descubierto ya en 1789, el año de la Revolución Francesa, pero ese descubrimiento, al principio, atrajo muy poca atención. Más de un siglo después, cuando Rontgen ya había descubierto los rayos X, un francés, llamado Becquerel, notó que las sales de uranio, y también las de torio, emiten rayos que producen precisamente los mismos efectos que los primeros en una placa fotográfica bien protegida. De hecho, descubrió que estos metales son radiactivos. Hoy, un isótopo del uranio llamado uranio 235, tiene gran demanda para las plantas de energía atómica y también, desgraciadamente, para producir armas atómicas.

El uranio se extrae principalmente de un mineral llamado pechblenda, que se encuentra de preferencia en rocas graníticas o cerca de ellas. Antes de 1939 cualquiera que quisiese molestarse podía enterarse de cuánto uranio se producía y dónde se extraía; pero actualmente muchos países guardan celosamente el secreto de sus fuentes de uranio.

Sólo podemos decir con certeza que el uranio se extrae, entre otras regiones, en Checoslovaquia, en el Congo, y cerca del Gran Lago del Oso, en Canadá. También se extrae, junto con oro, en ciertas partes de Sudáfrica. Otros depósitos han sido encontrados en Groenlandia, Australia, Polonia, Francia, Hungría y en dos regiones de la U.R.S.S.

Otro metal radiactivo muy importante, aun más radiactivo que el uranio, es el radio, que María y Pedro Curie aislaron por primera vez de la pechblenda en 1898. De una tonelada de pechblenda, obsequio del emperador de Austria, extrajeron sólo unos nueve miligramos de radio.

Durante largo tiempo, Bélgica tuvo casi el monopolio mundial de la obtención de radio; sin embargo, su producción anual rara vez excedió de los 40 gramos.

Hoy, los cirujanos usan las penetrantes radiaciones del radio para destruir las células cancerosas en el cuerpo humano; pero se toman extremadas precauciones para no dañar las células normales, que rodean el cáncer. Las radiaciones de otro metal radiactivo, el cobalto 60, se usan de modo similar. Las del radio también se emplean en la industria, para descubrir diminutas rajaduras o fallas de las máquinas, que de otro modo no podrían encontrarse sin desmantelarlas.

Siempre que se usan el radio y otros metales altamente radiactivos, se tiene gran cuidado en impedir que la gente sea accidentalmente expuesta a la radiación. Esos metales generalmente se guardan en recipientes y lugares protegidos por gruesas planchas de plomo, a través de las cuales los rayos no pueden pasar.

Ver: Usos de la Energía Atómica

Historia de la Evolución del Uso De Energía Desde el Fuego

HISTORIA DEL DESCUBRIMIENTO Y  EVOLUCIÓN DEL USO DE LA ENERGÍA
DESDE EL FUEGO A LA ENERGÍA ATÓMICA

LAS ENERGIA PRIMARIAS: Una fuente de energía primaria es toda forma de energía disponible en la naturaleza antes de ser convertida o transformada, y ellas son: el petróleo, gas natural, el carbón, la madera o leña, caída de agua, la del sol o solar, la eólica, mareomotriz y nuclear.

Observa el siguiente cuadro, donde se indica la clasificación de las fuentes de energía:

cuadro clasificacion de las fuentes  de energía

PRIMEROS USOS DEL FUEGO: Una fuente de energía —el combustible al arder—- tiene un lugar muy especial en la historia del hombre. Efectivamente, muchos antiguos pueblos consideraron que el fuego era sagrado, y algunos, como los griegos, tenían leyendas que contaban cómo los hombres habían arrancado a los dioses el secreto del fuego. Según la leyenda griega, Prometeo robó fuego de la forja del dios Hefestos (Vulcano) y lo escondió en un tallo hueco de heno.

uso del fuego por el hombre

Si nos detenemos a pensar por un momento acerca de las otras fuentes de energía que usaron los hombres primitivos, podremos comprender por qué se consideró el fuego de este modo. Los hombres de la Edad de Piedra podían advertir la energía muscular de los animales en acción cada vez que iban de caza; no podían menos de observar la energía del viento, que lo mismo meneaba las hojas de los árboles que desgajaba sus ramas, y ellos deben haberse dado cuenta muchas veces de la energía del agua en movimiento al arremolinar pesados troncos corriente abajo. Pero la energía dejada en libertad cuando el fuego arde es mucho más difícil de notar.

Los primeros hombres que vieron en un bosque un incendio causado por el rayo, probablemente pensaron en el fuego sólo como un elemento destructor y deben haber pasado muchas generaciones hasta que el hombre se diera cuenta de que el fuego podía usarse para realizar trabajo útil. Además, la energía del viento y la del agua estaban allí a disposición del hombre para que las usara. Pero antes de que él pudiera usar el fuego tuvo que aprender a producirlo.

Durante miles de años la única manera de hacer fuego era golpeando dos piedras o pedernales para producir una chispa. Ése es el método que aún emplean ciertas tribus primitivas de Australia y de Sudamérica, y es muy parecido al que usaba la gente cuando se valía de cajas de yesca, hasta que se inventaron los fósforos, hace poco más de un siglo.   Efectivamente, aún utilizamos pedernales para encender cigarrillos o picos de gas. Con el tiempo la gente aprendió a producir fuego haciendo girar dos palitos juntos encima de algún combustible seco, en polvo, hasta hacer saltar una chispa.

Una vez que el hombre tuvo el fuego, pronto descubrió que le podía prestar dos servicios para los que era insustituible. Sobre todo, le suministró calor y luz, y aún hoy el fuego es nuestra mayor fuente de calor y de iluminación. Aun teniendo casas donde todo está electrificado, casi seguramente la electricidad que nos proporciona luz y calor proviene de generadores movidos por el vapor que produce la combustión del carbón. También el fuego podía realizar cosas que el viento, la energía muscular y el agua no eran capaces de hacer.

Podía producir cambios físicos y químicos en muchas clases de substancias. Aunque el hombre primitivo no se diese cuenta, el fuego en el cual él cocía su pan contribuía a transformar varias substancias químicas en la masa del almidón y a producir el anhídrido carbónico que hacía fermentar el pan.

El fuego con que cocía sus vasijas cambiaba las propiedades físicas de la arcilla y la hacía dura y frágil, en vez de blanda y moldeable. Aún hoy usamos el fuego para cambiar las propiedades físicas de las materias primas: al extraer el metal de sus minerales, en la fabricación del vidrio y del ladrillo y en otras muchas. También lo usamos para provocar cambios químicos: en la cocina, en la destilería, en el horneado y en infinito número de procesos industriales.

También hemos aprendido a hacer uso del poder devastador del fuego. Empleamos su tremendo calor destructivo, concentrado en un rayo del grosor de un lápiz, para perforar duros metales. Usamos la fuerza de poderosos explosivos, encendidos por una pequeña chispa, para despejar montañas de escombros, que de otro modo llevaría semanas de trabajo el acarj-ear, y frecuentemente utilizamos el fuego para destruir residuos que deben ser eliminados si queremos mantener sanos nuestros pueblos y ciudades.

HISTORIA DEL CALOR COMO ENERGÍA: El hombre dejó, al fin, de considerar el fuego como objeto sagrado, mas durante cientos de años siguió mirándolo como a cosa muy misteriosa.

La mayoría creía que el fuego quitaba algo de toda materia que quemaba. Veían que las llamas reducían sólidos troncos a un puñado de blandas cenizas y unas volutas de humo. Llenaban una lámpara de aceite, la encendían y descubrían que el aceite también se consumía.

Encendían una larga vela y en pocas horas apenas quedaba un cabo.

Solamente hace 200 años un gran francés, Lavoisier, demostró que el fuego, en realidad, agrega algo a aquello que quema. Hay un experimento muy simple para demostrar que esto es así. Tomamos una balanza sensible y colocamos una vela en un platillo, con un tubo de vidrio repleto de lana de vidrio, puesto justamente encima de aquélla para recoger el humo. En el otro platillo colocamos suficiente peso para equilibrar exactamente la vela, el tubo y la lana de vidrio. Si ahora prendemos la vela y la dejamos arder, descubrimos que el platillo de la balanza sobre la cual se apoya desciende gradualmente. Esto significa que lo que queda de vela y los gases que ha producido durante su combustión pesan más que la vela íntegra.

Lavoisier pudo ir más allá y demostrar qué es lo que se añade a las substancias cuando arden. Descubrió que es oxígeno del aire. Efectivamente, si colocamos un recipiente boca abajo sobre una vela prendida, la llama se apaga tan pronto como el oxígeno del recipiente ha sido consumido. Del mismo modo, el carbón no puede arder en una estufa, ni el petróleo dentro de un cilindro del motor de un auto, sin una provisión de oxígeno del aire.

calor como energia

Al calentar agua, el vapor puede generar trabajo, es decir movimiento

Pero muchas substancias se combinan muy lentamente con el oxígeno y sin producir ninguna llama. Una es el hierro. Si se expone el hierro al aire húmedo, aunque sólo sea por un día o dos, una fina capa de óxido se forma sobre su superficie, y es que el hierro se ha combinado con el oxígeno. En algunas partes del mundo, también los compuestos de hierro se combinan con el oxígeno, bajo el suelo, produciendo depósitos de color castaño rojizo.

Cuando las substancias se combinan con el oxígeno no siempre producen fuego, pero casi siempre originan calor. Y es el calor producido de este modo el que da a los hombres y animales toda su energía física, toda su fuerza muscular. En nuestros pulmones el oxígeno del aire pasa al torrente sanguíneo y es llevado por la sangre a las células de todas las partes del cuerpo, donde se combina con las partículas alimenticias para originar calor y energía. También produce anhídrido carbónico que expelemos al aire.

El peso del alimento que tomamos en un día no es muy grande ciertamente, y, por lo tanto, la cantidad de calor que producimos en un día tampoco lo es. Y no todo este calor lo convertimos en energía para el trabajo, porque parte de él lo consumimos en el propio cuerpo, para mantener nuestra temperatura y en otros procesos fisiológicos.

Cuando pensamos cuánto trabajo puede realizar un hombre en un día, pronto nos damos cuenta de que una pequeña cantidad de calor puede transformarse en una gran cantidad de trabajo. Así podríamos elevar un peso de 1 tonelada a 30 metros de altura, si transformáramos en trabajo todo el calor necesario para poner en ebullición 1 litro de agua. A grandes alturas, los aviadores no pueden obtener suficiente oxígeno del aire que los rodea, para que sus cuerpos produzcan el calor y la energía que necesitan.

Entonces se colocan una máscara de oxígeno y el ritmo de producción de calor y energía se acelera inmediatamente. De manera similar, en la soldadura, que requiere intenso calor, a menudo se mezcla oxígeno puro con el combustible, en lugar de utilizar el aire común.

LA ENERGIA EÓLICA:  Energía eólica, energía producida por el viento. La primera utilización de la capacidad energética del viento la constituye la navegación a vela . En ella, la fuerza del viento se utiliza para impulsar un barco.

La utilización de la energía eólica no es una tecnología nueva, se basa en el redescubrimiento de una larga tradición de sistemas eólicos empíricos. No es posible establecer con toda claridad el desarrollo histórico de los «sistemas de conversión de energía eólica», sólo es posible identificar los importantes papeles que desempeña la energía eólica en el pasado.

La utilización de la energía del viento resulta muy antigua. La historia se remonta al año 3 500 a.C, cuando los sumerios armaron las primeras embarcaciones de vela, los egipcios construyeron barcos hace al menos cinco mil años para navegar por ei Nilo y más tarde por el Mediterráneo.

Después, los griegos construyeron máquinas que funcionaban con el viento. Así, desde la antigüedad éste ha sido el motor de las embarcaciones. Algunos historiadores sugieren que hace más de 3,000 años la fuerza del viento se empleaba en Egipto cerca de Alejandría para la molienda de granos. Sin embargo, la información más fehaciente de la utilización de la energía eólica en la molienda apunta a Persia en la frontera Afgana en el año 640 D.C.

balsa a vela energia eolica

Barcos con velas aparecían ya en los grabados egipcios más antiguos (3000 a.C.). Los egipcios, los fenicios y más tarde los romanos tenían que utilizar también los remos para contrarrestar una característica esencial de la energía eólica, su discontinuidad.

molino de viento

Uno de los grandes inventos a finale de la Edad Media, el molino de viento, muy usado en el campo argentino para extraer agua de la napa freática y darle de beber  a los animales.

parque eolico

Actualidad: Parque Eólico: Los generadores de turbina de los parques eólicos aprovechan la fuerza del viento para producir electricidad. Estos generadores dañan menos el medio ambiente que otras fuentes, aunque no siempre son prácticos, porque requieren al menos 21 km/h de velocidad media del viento.

ENERGÍA GAS NATURAL: Como gas natural se define la mezcla de hidrocarburos livianos en estado gaseoso, donde la mayor proporción corresponde al metano (CH4) en un valor que oscila entre el 80 al 95 %.

El porcentaje restante está constituido por etano (C2H6), propano, butano y superiores, pudiendo contener asimismo en proporciones mínimas, vapor de agua, anhídrido carbónico, nitrógeno, hidrógeno sulfurado, etc.
El gas natural proviene de yacimientos subterráneos que pueden ser de gas propiamente dicho o de petróleo y gas, según que en su origen se encuentre o no asociado al petróleo.

El gas natural procede generalmente de las perforaciones que se realizan en los yacimientos petrolíferos, de la descomposición de la materia orgánica con el tiempo.

En dichos yacimientos, el petróleo más liviano que el agua, suele flotar sobre lagos subterráneos de agua salada. En la parte superior se encuentra el gas, que ejerce enormes presiones, con lo cual hace fluir el petróleo hacia la superficie.

Ampliar: Gas Natural

LA ENERGÍA ELÉCTRICA: El fuego fue muy importante para el hombre primitivo, porque le capacitó para hacer cosas que con la energía del viento, del agua o del músculo no podía realizar. La humanidad no logró descubrir otra forma de energía capaz de realizar cosas completamente nuevas hasta hace 200 años, cuando comenzó a dominar la electricidad, la fuerza poderosa escondida en el rayo.

energia electrica

Hoy, con la radio, podemos oír a una persona que habla desde comarcas remotas; con la televisión podemos ver sucesos que ocurren a muchas millas de distancia; con cerebros electrónicos o computadoras podemos encontrar en pocos segundos las respuestas a complicadísimos problemas matemáticos. El viento, los músculos, el agua y el fuego no nos podrían ayudar a hacer ninguna de estas cosas; sólo la electricidad.

Varios siglos antes de Cristo, los griegos sabían que el ámbar, al cual llamaban elektron, atraía el polvo y trocitos de plumas después de frotarlo con lana seca, piel o paño. En tiempos de Shakespeare, muchos hombres de ciencia europeos sé interesaron en ésta extraña fuerza de atracción, y un inglés, Guillermo Gilbert, la llamó electricidad.

Alrededor de un siglo más tarde, otro investigador, llamado Guericke, descubrió que la electricidad originada rotando una bola de azufre contra la palma de su mano hacía saltar una chispita con un ruido marcado de chisporroteo. En realidad él había producido un relámpago y un trueno en miniatura.

La electricidad que parece estar contenida, en reposo, en una substancia y es súbitamente liberada, por contacto con otra substancia, se llama electricidad estática. Antes de que los hombres pudieran hacer uso de la electricidad, necesitaban que ésta fluyera de un modo constante y que se lograse controlar, es decir, obtener lo que hoy llamamos una corriente eléctrica.

El primer paso para descubrirla se dio por casualidad.   Más o menos a mediados del siglo xvin, un anatomista italiano, Luis Galvani, dejó las patas de unas ranas recién muertas en contacto con dos alambres, uno de bronce y otro de hierro. Notó que las patas de las ranas comenzaban a estremecerse y pensó que cierta energía animal quedaba en ellas todavía. Pero otro científico italiano, Volta, demostró que el estremecimiento se debía a que estos dos diferentes metales tomaban parte en la producción de electricidad.

volta cientifico creador de la pila

Volta, inventor de la pila eléctrica

Pronto Volta hizo la primera batería, apilando planchas de cobre y de cinc alternadamente una sobre la otra, y separadas sólo por paños empapados en una mezcla débil de ácido y agua. Dos alambres, uno conectado a la plancha de cobre de un extremo y el otro a la plancha de cinc del otro extremo, daban paso a una continua corriente de electricidad.

Las baterías generan electricidad por medio de cambios químicos y aun las más poderosas no producen corrientes lo bastante grandes para muchas necesidades actuales. Los modernos generadores en gran escala producen electricidad por medio de imanes que rotan rápidamente.

Oersted, un danés, y Ampére, un francés, hicieron la mayor parte del trabajo que llevó a descubrir las relaciones entre la electricidad y el magnetismo; pero fue un inglés, Miguel Faraday, quien primero usó un imán en movimiento para producir una corriente eléctrica. Esto ocurrió hace más de un siglo.

Pronto nuevos inventos dé un físico belga, llamado Gramme, y un hombre de ciencia nacido en Alemania, sir Guillermo Siemens, abrieron la nueva era de la energía eléctrica en abundancia. Tomás Edison, un inventor norteamericano, fabricó las primeras bombillas eléctricas y así dio difusión a los beneficios de la electricidad en la vida diaria.

Medimos la fuerza de un generador —la fuerza que pone a una corriente en movimiento— en unidades llamadas voltios, en honor de Volta. Medimos la intensidad de la corriente en amperios, en honor de Ampére. Los voltios, multiplicados por los amperios, nos indican cuánto trabajo puede realizar una corriente, y medimos éste en vatios, en honor de Jacobo Watt, famoso por su invento de la máquina de vapor.

Ampliar Sobre el Descubrimiento de la Electricidad

LA ENERGÍA ATÓMICA: Miles de años transcurrieron desde que se dominó el fuego hasta que se empezó a utilizar la electricidad. Sin embargo, solamente se necesitaron tres generaciones para que surgiese el uso de la energía atómica. Los más grandes hombres de ciencia tardaron más de un siglo en descubrir los secretos del átomo, y no podemos pretender abarcar esa historia completa en una página. Pero podemos dar una rápida ojeada y ver cómo algunos de ellos se lanzaron a esa labor.

Ya en la antigua Grecia había ciertos filósofos que creían que toda la materia está constituida por partículas tan pequeñas que no se pueden dividir. Dieron a estas partículas el nombre de átomos, de dos palabras griegas que significan «no susceptible de ser dividido». Pero hasta hace poco más de 150 años había pocas pruebas, o ninguna, que apoyasen esta creencia.

Antes de 1800 los químicos conocían pocas substancias simples y puras, de la clase que ahora se llaman elementos, y no sabían mucho acerca de cómo combinar los elementos para formar compuestos. Pero en ese año, dos químicos ingleses, Carlisle y Nicholson, usaron una corriente eléctrica para descomponer el agua en dos elementos: hidrógeno y oxígeno. Con la electricidad pronto consiguieron los químicos una cantidad de otros elementos y pronto aprendieron que los elementos se combinan invariablemente en proporciones fijas según el peso.

centrales atomicas

Esto hizo que un químico inglés, Dalton, reviviera la teoría de los átomos. Él creía que cada elemento diferente está constituido por átomos distintos, y que cada uno de éstos tiene un peso especial. Pero poco después de que la gente comenzara a creer en la existencia de los átomos, o partículas indivisibles de materia, los hechos demostraron que los átomos pueden en realidad dividirse en partículas aún más pequeñas.

Primero Róntgen, un científico alemán, advirtió que ciertas substancias químicas pueden obscurecer una placa fotográfica aun cuando esté bien protegida. Había descubierto los rayos X, rayos hechos de partículas que no son átomos enteros. Más tarde, Madame Curie analizó un mineral llamado pechblenda, que emite rayos similares, y descubrió el elemento altamente radiactivo llamado radio. Las sales de radio emiten rayos sin desintegrarse aparentemente.

Marie Curie

Varios científicos, incluyendo a Rutherford y Soddy, estudiaron estos rayos y lograron descomponerlos en tres partes: rayos alfa, que poseen carga eléctrica positiva; rayos beta, o rayos de electrones, que conducen una carga negativa, y rayos gamma, o rayos X.

Más tarde, Rutherford bombardeó una lámina de oro con partículas alfa. Casi todas ellas atravesaron el oro, pero algunas rebotaron.

Esto le hizo suponer que los átomos de la lámina de oro no estaban contiguos, sino muy espaciados, como las estrellas en el cielo. También advirtió que hay gran espacio vacío dentro de cada átomo.

Madame Curie en el Laboratorio

Un danés llamado Niels Bohr encontró que en el centro de cada átomo hay partículas cargadas positivamente (protones) y partículas no cargadas (neutrones), apretadas para formar el centro o núcleo. A distancia del núcleo hay partículas mucho más pequeñas todavía, llamadas electrones, que poseen una carga de electricidad negativa. Estos electrones giran alrededor del núcleo, como los planetas alrededor del Sol.

Otón Hahn, un físico alemán, fue uno de los primeros en descubrir cómo liberar energía de los átomos por reacción en cadena, en la cual los neutrones de un átomo chocan con el núcleo de otro átomo y lo destruyen, liberando así más neutrones, que golpean a su vez los núcleos de otros átomos. Otro alemán, Max Planck, ya había descubierto cómo calcular la cantidad de energía liberada cuando se fisiona un átomo.

Planck y Borh

Los Físicos Planck y Ruthenford

Actualmente obtenemos energía no sólo dividiendo átomos pesados (fisión nuclear), sino también combinando átomos livianos (fusión nuclear).

CUADRO EVOLUCIÓN DEL CONSUMO A LO LARGO DE LA HISTORIA:

cuadro consumo de energia en la historia

Se observa que el consumo de energía va vinculado directamente con el desarrollo de las sociedades, y se pueden diferenciar dos fases: 1) preindustrial donde la energía utilizada era la propia muscular, mas la generada por el carbón, desechos orgánicos. hidraúlica y eólica y 2) la actual a partir de la energía del vapor de agua, la electricidad y el petróleo.

Ampliar: La Energía Atómica

Ampliar: Energía Mareomotriz

Ampliar: Energía Geotérmica

Fuente Consultada:
La Técnica en el Mundo Tomo I CODEX – Globerama – Editorial Cuántica

Historia de la Industria Aeronáutica Argentina Pucará, Pampa

HISTORIA DE AVIONES A REACCIÓN ARGENTINOS: PUCARÁ, PAMPA, PULQUI I Y II

Luego de que la industria aeronáutica sufriera varias derrotas en lo económico, estratégico y político, resulta difícil imaginar que la Argentina haya ocupado el sexto puesto a nivel mundial en la construcción de aviones de reacción con tecnología propia. Sin embargo, la industria aeronáutica supo ser una pujante industria motorizada por una política que consideró a las actividades técnico-científicas como recurso estratégico para el país.

En 1912, juntamente con la creación de la aviación militar, algunos civiles enamorados de estas máquinas, movidos por el fervor y la pasión de sus sueños, comenzaron tímidamente y con escasos recursos el montaje de talleres aeronáuticos de donde surgieron atrevidas construcciones de aeroplanos. Durante ese período se elaboraron montantes, costillas, alas y fuselajes completos, que se tradujo en la fabricación de aeronaves completas para la exportación al Uruguay.

Su nombre significa flecha en lengua mapuche y hace alusión al original diseño de sus alas. Su fin militar era el de un caza interceptor. La construcción del Pulqui fue de gran importancia como medio de estudio para el diseño de otros aviones a turbina que culminó en la producción del “Pampa” en 1980. Cuando se construyó el prototipo la fábrica tenía alrededor de 15.000 empleados.

Pero la base de la industria aeronáutica argentina se consolida con la creación de la Fábrica Militar de Aviones en 1927 de la mano del talentoso Ing. Aer. My. Francisco de Arteaga en la ciudad de Córdoba. Allí se construyeron, años después, una gran cantidad de aviones como los emblemáticos Calquín, Huanquero, Guaraní-GII, Pucará, Pampa, como así también los motores a partir de los lingotes de metal provistos por nuestras fábricas metalúrgicas. Para ello, el Ejército y la Marina de Guerra enviaron, además de civiles, a numerosos oficiales a Europa y EE.UU. para capacitarse en afamados institutos aerotécnicos. De este modo, se fue forjando un nutrido grupo de especialistas que dieron sus frutos de acuerdo a una acertada política de incorporación a las actividades técnico-científicas: la pujante industria aeronáutica de entonces y la colaboración (vislumbrada estratégicamente) universitaria.

Naturalmente, esta política no convenía a los intereses extranjeros, que desencadenaron una campaña sistemática contra la industria nacional, aprovechando cualquier incidente aeronáutico para crear un estado de incomprensión. Esta fábrica se vio en la necesidad de reforzar aún más la fabricación de aeronaves enteramente nacionales, a tal punto que las aeronaves militares eran proporcionadas a pilotos civiles para su instrucción demostrando así la valía del producto argentino.

Todas las aeronaves fueron diseñadas y construidas con materiales propios y personal argentino especializado, prescindiendo entonces de regalías y licencias, que sin embargo todavía eran necesarias para la fabricación de los modelos extranjeros. Habida cuenta de todos esos progresos alcanzados, la industria aeronáutica nacional llegó a un estado de madurez avanzado que permitió a dicha fábrica transformarse en un centro experimental aerodinámico y de construcciones, a la par de los institutos de Italia, EE.UU., Inglaterra, Francia y Alemania. Precisamente, se apuntaba a lograr la independencia tecnológica.

Con este impulso, se funda en 1943 el Instituto Aerotécnico, que abre una nueva página en la historia de la aviación argentina con la creación en 1947 del Pulqui I y el Pulqui II, el primer avión de reacción, de diseño propio producido fuera del grupo de las grandes potencias. Del Pulqui II se llegaron a fabricar 5 unidades prototipo que se convirtieron en los primeros aviones de reacción para combate en el continente, anticipándose incluso a los F-86 de EE.UU. de iguales características.

La “fábrica”, como se la llegó a denominar con el correr de los años, adquirió reconocimiento internacional colocando a la Argentina en el 6to. puesto a nivel mundial en materia de aviones de reacción con tecnología propia después de Alemania, Inglaterra, Estados Unidos, Rusia y Francia. Dichos avances tuvieron como telón de fondo al primer y segundo gobierno peronista que con el apoyo de destacados profesionales argentinos (ingenieros, proyectistas, dibujantes, técnicos, operarios, y otras especialidades), contrata a técnicos y científicos alemanes, italianos y franceses para desarrollar la industria aeronáutica y también la investigación nuclear.

Movido por sus aspiraciones de crear un automóvil nacional, Perón funda en 1951 la Fábrica de Motores y Automotores (FMA), y al año siguiente el Instituto Aerotécnico es reemplazado por las Industrias Aeronáuticas y Mecánicas del Estado (IAME) y quedan unidas ambas especialidades, aeronáutica y automotores, aprovechando de este modo la enorme experiencia de la primera para aplicarla a la industria de vehículos. Así, de la mano de la aeronáutica, surge una industria automotriz enteramente nacional a cargo de la división mecánica con sede en dos Plantas de Córdoba, donde también se radicaron la IKA (Industrias Kaiser Argentina) y FIAT (Fábrica Italiana de Automotores de Turín).

Luego, el gobierno de la Revolución Libertadora desmiembra la IAME reemplazándola por la DINFIA de aeronáutica por un lado, y a la FMA dedicada exclusivamente a la fabricación de motores para vehículos terrestres por las Industrias Mecánicas del Estado (IME), clausurada en 1979 por el entonces ministro de economía Martínez de Hoz.

La DINFIA, rebautizada con el correr de los años como Fábrica Militar de Aviones (FMA) es privatizada en julio de 1995 por el entonces presidente Menem, quien otorgó la concesión y explotación de dicha fábrica a la empresa estadounidense Lockheed Martin Aircraft. Estos últimos hechos conformaron el golpe de gracia definitivo a la Industria Aeronáutica Nacional y Automotriz.

Una dirigencia de muy bajo vuelo
La industria aeronáutica argentina sufrió hasta hace algunos años varias derrotas desde lo económico, estratégico y político, muchas de ellas intencionales a primera vista:

-El Estado Argentino eligió “incomprensiblemente” como socio a la empresa estadounidense LTV para la provisión de aeronaves IA-63 Pampa equipadas con turbinas Garret TFE731, asiento eyectable y sistema de emergencia RAT para ese país. Resultó que dicha empresa estaba bajo la Enmienda Americana de quiebra. Las ilusiones de los ingenieros argentinos, el Proyecto Nacional y los U$ 400 millones del programa fueron a parar a la basura.

-La Real Fuerza Aérea Neozelandesa y la Fuerza Aérea Australiana, convencidos de las bondades del Iae-63 Pampa deciden su compra, pero debido al poco crédito otorgado por nuestro país optaron por comprarle a Italia. No eran mejores, pero ofrecían ventajas firmes de pago.

-En 1982 surge el proyecto “Cóndor”, basado en su antecesor “Castor”, para construir un cohete que permitiría evaluar los recursos naturales propios. El gobierno de Alfonsín finalmente decretó su desmantelamiento y desarme por “falta de recursos financieros, y la necesidad de recibir algún crédito puente del FMI o del tesoro de los EE.UU.”

-El CBA-123 fue el proyecto conjunto firmado entre Argentina y Brasil en 1987 para producir una aeronave turbohélice de 19 pasajeros y velocidad superior a 600km/h. Su costo de inversión se calculó en U$ 300 millones de los cuales la empresa brasileña Embraer aportaría U$200 millones y U$100 millones la Fábrica Argentina de Material Aeronáutico (FAMA).

Cada avión costaría U$ 4,5 millones, y hubo 127 pedidos formales tras su presentación en una exposición en Francia. En 1989 la FMA le comunica a Embraer la imposibilidad de la entrega de los materiales en tiempo y forma, Brasil reduce la participación argentina al 20% pero aún así la Argentina no terminó de entregar los volúmenes de producción previstos. Debido a la falta de interés nacional de parte del gobierno argentino, Embraer decidió ofrecer el proyecto a bancos extranjeros en busca de apoyo financiero porque estaba convencida del amplio mercado internacional que tendría el CBA-123. Así la Argentina quedó fuera del programa de fabricación conjunta.

-En julio de 1995 la Lockheed Martin Aircraft SA (Lmaasa), el mayor contratista de armas del Pentágono con un volumen de negocios de U$20.000 millones anuales, adquiere las instalaciones de la FMA de la mano de la firma del ex presidente Carlos Menem. Esta privatización incluyó también el compromiso de comprar a través de Lmaasa 36 aviones modelo A-4M a la marina de EE.UU. Se prometió la formación de “un excepcional centro de mantenimiento” que “captaría el 30% del mercado con una proyección de creación de hasta 10.000 puestos de trabajo”.

Dos años después, el entonces presidente Menem afirmaba que Lmaasa construiría allí un centro espacial internacional para llegar al Japón en minutos. Sin embargo, el plantel de trabajadores se redujo de 2000 a 900 a poco de concretarse el traspaso y con la amenaza de reducción del plantel a la mitad si el Estado no le firmaba a Lmaasa un nuevo convenio por U$ 230 millones a 5 años y una supuesta deuda de U$ 47 millones. Dicha empresa llegó a darse el lujo de cerrar sus instalaciones por 5 días hasta tanto el gobierno no le firmara un contrato hasta 2007. Los apologistas de turno dijeron maravillas: “…que se redujo la asignación estatal de U$230 millones en 5 años a sólo …U$210 millones”, y que el Estado “antes se hacía cargo del costo total por 12 aviones Pampa, y en cambio ahora los gastos serían 50 y 50…”.

Finalmente la Lmaasa no fabricó nada, sólo reparó aviones con subsidios del Estado Argentino en forma de contratos, y redujeron al 55% el personal. Actualmente se dedica sólo a la re-ingeniería de los AT-63 Pampa.

¿Qué dirían hombres de la talla de De Arteaga, Juan Ignacio San Martín, Taravella, Ruíz, Weiss y tantos otros anónimos que contribuyeron con su esfuerzo a consolidar a la F.M.A.?. Hoy día, toda denuncia de esta increíble estafa no es más que un grito en el desierto, convirtiendo aquella pujante FMA en un recuerdo del pasado.

Fuente:
Sitio WEB SABER COMO… del Instituto Nacional de Tecnología Industrial (conocer el sitio)

Adaptación de “Industria Aeronáutica Argentina” por Horacio A. Benítez

Beneficios de la Era Espacial Mejoras Para La Sociedad

Beneficios de la Era Espacial y Las Mejoras Para La Sociedad

Cuando en 1969  descendió sobre la superficie de la Luna,  el famoso módulo Lunar del Apolo XI, dirigido por Armostrong y Collin  su país había  invertido unos 30.000 millones de dólares en programas espaciales; y el esfuerzo soviético seria ,sin dudas, equivalente. ¿Cuáles son las ventajas concretas de tan tremendo esfuerzo? Haremos abstracción de las inmensas posibilidades científicas, para exponer lo que ya se ha conseguido en el campo de la práctica.

Primeros Logros Científicos Aplicados a la Sociedad

Los satélites técnicos. — Antes del Telstar, América y Europa estaban unidas por 343 líneas telefónicas. Este satélite podía retransmitir 300 comunicaciones simultáneas, y los que se proyectan podrán transmitir en dos segundos todo el contenido de un diario.

Los satélites meteorológicos, como el Tiros, permitieron ganar, mediante sus. microondas de rayos infrarrojos, 48 horas en la previsión de los tornados;   además,   economizan   muchos   traslados   inútiles de rompehielos al indicar la ubicación de los campos helados, y, accesoriamente, informan sobre los incendios de bosques. Los satélites de tipo Transit, por su parte, permiten a barcos y submarinos establecer su posición muy rápidamente con un error de menos de 500 metros.

Ver: Los Satélites Artificiales

La miniaturización. — La necesidad de obtener productcs eficaces y livianos y los inmensos créditos disponibles, han sido un latigazo para la industria que produjo ya 3.200 sustancias nuevas con este objeto. Después del perfeccionamiento de los transistores se llega a los circuitos integrados, que permiten acumular una increíble cantidad ce sistemas electrónicos en el volumen de una caja de cerillas.

Una de las técnicas consiste en depositar en el vacío una película metálica de extrema delgadez, a fin de obtener redes interconectadas; otra, ejecuta el circuito complete sobre el minúsculo grano que constituye la cabeza del semiconductor, Gracias a estos circuitos integrados se pudo transformar toda la técnica de las calculadoras electrónicas: existen ahora (1970) computadoras que sólo pesan 8 kilos para una memoria de 16.000 signos, y se calcula que su costo futuro se reducirá a la quinta parte del actual. (Las computadoras invaden la industria y el comercio, y los soviéticos calculan que dentro de 20 años necesitarán un millón de operadores adiestrados para calculadoras.)(ver: microprocesador electronico)

Entre las aplicaciones a la vida cotidiana citemos el radar en miniatura para ciegos, que les permite «oír» los obstáculos, fijos o móviles, por resonancia, un poco a la manera  de   los  murciélagos que emiten chillidos  ultrasónicos.

Ver: La Evolución de las Microcomputadoras

Nuevos materiales. — Aquí no hay nada absolutamente original, pero las exigencias son mucho más severas. Se trata, en efecto, de obtener materiales extremadamente livianos pero de gran resistencia mecánica y térmica. Los nuevos aceros a base de cromo, molibdeno y vanadio, como el Vascojet 1.000, son casi tres veces más resistentes que los aceros clásicos.

El berilio ha entrado en la industria porque, siendo apenas más pesado que el magnesio, es tan rígido como el molibdeno, tan refractario como el titanio, tan resistente a la oxidación como el aluminio y soporte admirablemente la corrosión; sus inconvenientes más graves son su toxicidad y su extrema fragilidad.

El berilio es indispensable en la industria nuclear porque casi no atrae los neutrones, y en la astronáutica, para las ojivas que protegen la nave cuando vuelve a penetrar en la atmósfera; además se lo utiliza para construir giróscopos de gran estabilidad dimensional y considerable rigidez, y como ventana transparente en los aparatos de rayos X. Este año, un coche construido con berilio participó en la célebre carrera de automóviles de Indianápolis.

También se ha perfeccionado el titanio para su uso en la cápsula Mercury y se lo emplea ya en el tren de aterrizaje del Boeing 727, así como para la fabricación de recipientes de hidrógeno líquido. Para soldar los materiales refractarios que emplea la astronáutica hubo que perfeccionar un soplete que emite electrones de alto poder y permite soldar uniones que resisten temperaturas de 1.700°C. Por su parte, los hornos utilizan el pirografito perfeccionado, que se empleó por primera vez en astronáutica.

Energía. — La astronáutica permitió perfeccionar la pila de gases, que transforma directamente la energía química en eléctrica. El rendimiento de las baterías solares se ha multiplicado por 300 y su uso en la superficie terrestre ya puede ser redituable. El hidruro de litio, como reserva de hidrógeno, tendrá, con seguridad, muchas aplicaciones en la industria. Y por último, se encara ya seriamente la realización del famoso motor a eyección de iones de cesio, cuyo poder y posibilidades son inmensas.

Medicina. — Para mejor control de los cosmonautas se construyeron aparatos que permiten mediciones fisiológicas continuas. También se fabrican ahora simuladores cardíacos, munidos de baterías especiales, que han salvado ya muchas vidas humanas, y que, al ser portátiles, podrán permitir al paciente una existencia casi normal.

Para los viajes espaciales largos se estudia y perfecciona la hibernación, consistente en disminuir la temperatura y dejar al paciente en estado de vida latente: cada adelanto que se logra es inmediatamente utilizado en cirugía. Por último, se han creado sustancias químicas que procuran proteger el organismo del cosmonauta de las radiaciones peligrosas y, de esta manera, amplían el campo de los medicamentos antirradiactivos.

Ver: Lo últimos avances en medicina

Fuente Consultada:
TECNIRAMA N°11 Enciclopedia de la Ciencia y la Tecnología – La Astronaútica –

Calor Producido Por la Corriente Electrica Aplicaciones

Calor Producido Por la Corriente Electrica Aplicaciones

Una corriente eléctrica se asemeja a una caravana de electrones; en movimiento; el conductor sería como un bosque contra cuyos árboles chocarían los electrones al recorrerlo produciendo una agitación general. Los «árboles» son en este caso átomos o moléculas del conductor y el movimiento que nace del choque con los electrones se traduce en un aumento de las vibraciones habituales de los átomos y moléculas. Dichas oscilaciones se perciben como temperatura. De ahí que el calor sea uno de los efectos invariables de la corriente eléctrica al pasar por un conductor. Podemos decir también que ese calor se produce al tratar la corriente de superar la resistencia del conductor.

RESISTENCIA
La resistencia de una sustancia es la dificultad que ofrece al paso de una corriente eléctrica. Puesto que una corriente es un flujo de electrones que saltan de un átomo a otro, la resistencia depende fundamentalmente de la firmeza con que los electrones están sujetos a los átomos.

En un buen conductor como el cobre, algunos de los electrones están muy débilmente unidos a los átomos y ía resistencia es muy pequeña, mientras que en un mal conductor de la electricidad (aislador) como el caucho, todos los electrones están firmemente unidos a sus respectivos núcleos y la resistencia es muy grande.

En los buenos conductores la resistencia depende del calibre y de la longitud. Cuanto más grueso y corto sea un conductor, tanto menor será su resistencia; cuanto más fino y largo, más resistirá al paso de la corriente, pues al reducirse su sección los electrones tienen menos espacio para pasar.

CONDUCTIBILIDAD Y  NATURALEZA QUÍMICA
Hay dos tipos de sustancias: las que conducen la corriente, llamadas «conductoras», y las que.no la conducen o «aisladoras». Pero entre las primeras se distinguen dos clases: conductores de primera clase y conductores de segunda clase.

Entre los de primera clase se encuentran los metales, cuya estructura química no varía por el paso de la corriente eléctrica; en ellas los electrones «viajan» solos. Los de segunda clase son los electrólitos, sustancias cuyas moléculas disueltas en agua se separan en iones o partículas electrizadas que al conducir la corriente (en solución o fundidos) sufren reacciones «electrolíticas» que alteran su constitución.

En estas sustancias los electrones son transportados por los iones hasta los bornes o «electrodos». De allí la disociación de los electrólitos al apartarse los iones de cargas eléctricas opuestas.

EL CALOR,  FORMA DE ENERGÍA
Veamos qué relación hay entre calor y trabajo. El calor es una forma de energía o capacidad de realizar un trabajo que consiste en vencer una cierta resistencia. Las distintas formas de energía pueden transformarse unas en otras. Por ejemplo, un cuerpo colocado a cierta altura posee energía «potencial» que, al caer el cuerpo, se transforma gradualmente en «cinética».

Al caer contra el suelo produce una pequeña cantidad de calor, como el martillo al dar contra el clavo. La energía se conserva (éste es un principio fundamental de la Física): en el ejemplo de la caída a medida que la energía potencial disminuye, la energía cinética o de movimiento aumenta  y  la  suma de  ambas permanece  constante.

EL TRABAJO MECÁNICO
Cuando una fuerza mueve un cuerpo efectúa un trabajo mecánico (en nuestro ejemplo, la fuerza que actúa es el peso del cuerpo) y ese trabajo es igual al producto de la fuerza por el camino recorrido en su dirección, es decir, por una longitud.

De modo que si queremos expresar el trabajo en unidades, la unidad de trabajo será igual a la unidad de fuerza multiplicada por la unidad de longitud. La unidad de fuerza se llama dina (en el sistema de medidas cuyas unidades fundamentales son el centímetro, el gramo-masa y el segundo, llamado por eso «sistema c.g.s.»).

La dina es la fuerza que aplicada al gramo-masa le comunica una aceleración de 1 centímetro por segundo a cada segundo. La unidad de longitud es el centímetro. Pero como la dina es una unidad muy pequeña, el trabajo de una dina a lo largo de 1 centímetro es una unidad diminuta, llamada ergio. Por eso se usa como unidad otra de diez millones de ergios, denominada julio (o joule).

EQUIVALENTE MECÁNICO DEL CALOR
En numerosas experiencias se comprueba que a la realización de un trabajo corresponde la aparición de una cantidad de calor. Por ejemplo, cuando usamos un inflador de bicicleta comprimimos un gas (el aire) y notamos que el tubo metálico se calienta.

Si se ha convertido un trabajo T en una cantidad de calor Q que verifica que T= J x Q, esa «J» es una cantidad constante que permite calcular la reciprocidad entre joules y calorías y se llama equivalente mecánico del calor.

Su valor es 4,18 (1 caloría equivale a 4,18 joules) y lo descubrió el gran sabio inglés James Joule (1818-1889) quien también enunció una sencilla fórmula que permite conocer la cantidad de calor producida poruña corriente eléctrica.

CORRIENTE  ELÉCTRICA Y CALOR
Para abreviar sus fórmulas, los físicos representan las magnitudes por letras, que son generalmente las iniciales de la palabra o la unidad que expresan. «T» significa «trabajo», medido en joules. «I» significa  «intensidad de la corriente», medida en  amperios. «R« significa «resistencia» del circuito, medida en ohmios. «t»  significa  «tiempo»,  medido en  segundos. «V» significa «voltaje», medido en  voltios.

El   trabajo   realizado   por  una   corriente   eléctrica depende del voltaje, de la intensidad de la corriente y, naturalmente, del tiempo transcurrido, o sea T = V x I x t que ue se expresa T = V .I. t (1) pues los signos de multiplicación (.) se sobreentienden.

Pero según la ley de Ohm: volt = ohmio x amperio,… ósea V = R x I

Al reemplazar «V» por su valor I x R en la fórmula anterior tenemos: T=R x I x l x t  ósea, T = R. I². t (2)

En otros términos, el trabajo  que efectúa una corriente eléctrica es, medido en joules, el resultado de multiplicar la resistencia del circuito en ohmios por el cuadrado de la intensidad en amperios y por los segundos de tiempo transcurrido.

El trabajo se obtiene en joules. Para transformarlo en calorías (una pequeña caloría es la cantidad de calor necesaria para elevar en un grado centígrado la temperatura de un gramo de agua) basta dividir por 4,18 ya que 4,18 julios equivalen a una pequeña caloría.

De modo que conociendo esta relación podemos saber con exactitud cuánto calor produce una corriente. Pero ignoraremos aún cuánta energía   útil  se  produce porque  ésta  depende  de nuestro  designio y siempre  se  gasta  una  parte  de esa energía en fenómenos colaterales indeseables.

CÓMO SE  APROVECHA   EL  EFECTO  CALÓRICO DE LA ELECTRICIDAD
En casi todos los artefactos eléctricos que producen calor o luz se emplean hilos metálicos de muy pequeño calibre y gran longitud, o que por su naturaleza oponen mucha dificultad al paso de la corriente. Estos hilos, arrollados en espiral, se llaman resistencias y logran un rendimiento próximo al 100 % al transformar la energía eléctrica en calor (no en luz).

Otro sistema basado en el mismo principio es el arco eléctrico, donde el hilo metálico es reemplazado por dos electrodos de carbón que también constituyen una resistencia. El arco se forma merced a los vapores de carbón incandescente y se logran temperaturas muy elevadas (unos 3.600°C). Hay otros métodos de producir calor y que sólo mencionaremos. Mediante corrientes alternas de alta frecuencia es posible calentar en todo su espesor sustancias no conductoras (aisladoras llamadas también «dieléctricos»)   por  el   sacudimiento   que   el  campo eléctrico produce en su masa.

Se logra un calentamiento muy uniforme, aprovechable en ciertas industrias (plásticos). Otro método es el calentamiento por inducción en el que se utiliza un campo electromagnético variable (ya hemos visto la relación entre electricidad y magnetismo). También se logra un calentamiento muy uniforme. Pero en estos dos métodos el rendimiento es muy inferior al ciento por ciento.

RESISTIVIDAD Y RESISTENCIA
La resistencia total de un circuito depende, además de su longitud y calibre, de la resistencia especifica o resistividad de la sustancia que lo constituye, y que indicaremos por la letra «r».

La fórmula se obtiene así: la resistencia R del circuito es tanto más grande cuanto mayor es su longitud «l» y la resistividad «r» del material que lo compone. Por otra parte R es tanto más pequeño cuanto mayor es la sección «s» del conductor.

En resumen, R es igual a la resistividad multiplicada por la longitud y dividida por la sección del conductor, o sea: R = r.l/s

Esta fórmula guía a ios ingenieros en la elección de la sustancia conductora apropiada a cada caso, pues la resistividad «r» es característica de cada material, y hay tablas para conocerlas. Generalmente aumenta con la temperatura (excepto en los semiconductores, el carbón y otras sustancias o mezclas).

Ejemplo: Un calentador electrico para 220 Volt, tiene una resistencia  de 80 Ohmios. Calcular la cantidad de calor T que produce este calentador en 2 minutos.

Antiguo Calentador Eléctrico

Sabemos que: T = R. I². t

La corriente I la obtenemos de la ley de Ohm: I=V/R=220/80=2,75 Amperios

Entonces: T=80. (2.75)². 120 seg.=72.600 Joules y multiplicado por 0,24 lo pasamos a calorias: 17.224 cal.

LÁMPARAS ELÉCTRICAS DE FILAMENTO
Las aplicaciones prácticas del efecto térmico de la corriente son muy numerosas. Una de las más importantes es la lámpara eléctrica. Ésta se compone de un largo y fino filamento de tungsteno que ofrece una considerable resistencia al paso de la corriente (el filamento puede tener hasta 60 centímetros de largo aunque está arrollado en una espiral de menos de 2,5 centímetros de longitud).

La fórmula de Joule nos dice que cuanto mayor sea la resistencia del hilo conductor, mayor es el calor producido. En este caso, debido al escaso calibre y gran longitud, se produce suficiente calor como para que que el tungsteno se vuelva incandescente y emita una luz casi blanca. Aunque ahora parezca simple, los primeros intentos para hallar un filamento adecuado fueron penosos.

Thomas Alva Edison, el inventor americano de la primera lámpara eléctrica útil (1879) empleó hilos de bambú carbonizado y evitó que ardieran haciendo el vacío dentro de la lámpara, es decir, retirando el oxígeno necesario para la combustión. Luego se recurrió al filamento de tungsteno pero el metal se vaporizaba gradualmente y depositábase en una capa negruzca en la pared de vidrio. Para impedirlo, la mayoría de las lámparas actuales están llenas de un gas inerte como el argón, que no reacciona   con   el  metal   y  evita su   vaporización.

ESTUFAS ELÉCTRICAS
Las estufas eléctricas se componen también de un alambre arrollado en espiral que se calienta al rojo cuando pasa la corriente; entonces el hilo conductor no sólo caldea el aire sino que emite rayos caloríficos. El filamento se arrolla sobre un soporte de material no conductor y refractario para que soporte temperaturas bastante altas. Generalmente se usa mica o materiales cerámicos.

El metal de la resistencia es una aleación, por lo general de níquel y cromo. La mayoría de los otros metales se oxidarían (combinación con el oxígeno del aire) y se quemarían muy rápidamente. Existen calentadores llamados de inmersión porque se colocan dentro del agua que se desea calentar, construidos en forma similar a las estufas; su filamento queda  aislado  del  agua  por una  cápsula  metálica  hermética.

FUSIBLES
Los fusibles usados para proteger circuitos eléctricos, representan otra útil aplicación del efecto calórico de la electricidad. Si, por alguna razón, pasa por ellos una corriente más intensa que la prevista se calientan excesivamente y se derriten. Evitan así que el contacto fortuito entre dos cables desnudos, que permite a la corriente utilizar un camino más corto y fácil (de allí viene el nombre de «cortocircuito») sobrepase la capacidad prevista para el circuito  y pueda provocar un desastre.

El alambre de un fusible se compone de un metal o aleación de bajo punto dé fusión. Si una corriente demasiado intensa recorre el circuito engendra suficiente calor como para fundir el alambre del fusible. Esto corta el  circuito  y se  evitan  serios daños.

El fusible es un simple trozo de alambre fino cuya temperatura de fusión es muy inferior a la del resto del circuito. Se lo intercala de modo que toda la corriente deba pasar por él, y si la intensidad de ésta sobrepasa cierto límite el alambre del fusible se calienta hasta fundir, interrumpiendo el circuito.

HORNOS  ELÉCTRICOS
Otra aplicación importante son los hornos eléctricos. Existen dos tipos: el horno de resistencia que funciona como las estufas domésticas aunque en mayor escala y el horno de arco que se base en el arco eléctrico ya mencionado. Se utiliza la formación de chispas entre los dos electrodos mantenidos a corta distancia y la gran cantidad de calor producida se debe a la resistencia que ofrece el aire al paso de corriente por ser mal conductor.

Estos hornos de arco se usan para fundir metales y en algunos el metal se funde por el calor de dos electrodos de carbón puestos por encima del metal. En otros el mismo metal sirve de electrodo mientras que el otro es de carbono y se funde por el calor del arco.

PLANCHA ELECTRICA: Idem al caso anterior, utiliza calor generado por una resistencia a partir de la corriente eléctrica. las amas de casa todavía no no la podían utilizar ya que no existía la conexion a la red eléctrica y no se había inventado aun el termostato. El calor se producía en una resistencia colocada en el interior de la plancha que con el paso de la corriente eléctrica se calentaba por el efecto Joule.

Esto consiste en que la circulación de corriente eléctrica por la resistencia, desprende mas o menos cantidad de calor dependiendo de tres factores: el valor del cuadrado de la intensidad, la resistencia y el tiempo de funcionamiento del aparato eléctrico.

Fuente Consultada:
Revista TECNIRAMA N°14 Enciclopedia de la Ciencia y La Tecnología – Ciencia: La Electricidad-

Barcos de Cemento y Prefabricados en la Segunda Guerra

BARCOS DE CEMENTO CONSTRUIDOS EN SERIE EN LA SEGUNDA GUERRA MUNDIAL

Durante la segunda guerra mundial, la flota mercante aliada sufría pérdidas increíbles bajo la acción del arma submarina y aérea del Eje. La defensa era lenta e incapaz y un dilema se presentaba inexorable: si se seguía construyendo barcos mercantes con los sistemas clásicos, pronto no habría con qué reponer las pérdidas. La urgencia era dramática.

Así surgió el famoso «Liberty»: barco mercante criticado y subestimado, sobre todo por los ingleses, pero que cumplió con el cometido a que fue destinado.

Barco Carguero «Liberty»

El «Liberti» fue el primero de los cargueros fabricado en gran serie y con partes completamente prefabricadas. Infinidad de grandes piezas se estampaban con enormes balancines y se armaban en lugares alejados del astillero, siendo transportadas hasta éste por ferrocarril. Sin embargo, la soldadura autógena y la eléctrica fueron las que en mayor grado salvaron la situación.

Es cierto que los astilleros alemanes fueron los primeros en usar la soldadura y lo hacían desde mucho antes de la guerra, pero el método no estaba difundido en la industria naviera americana. Así se llegó a fabricar hasta dos «Liberty» diarios. Lo cierto es que aquellos barcos, aceptados por los técnicos de la época sólo en ese «caso de emergencia», todavía hoy están en servicio.

La industria naviera alemana llegó a fabricar sus torpederos y submarinos ya no como naves sino como simples estructuras producidas en fábricas lejos aun hasta de la costa del mar. En los Estados Unidos, Holanda y Alemania se construyeron naves de tonelaje menor con la quilla hacia arriba; luego eran «volcadas» y botadas de costado. Una rareza notable la constituyeron los llamados «barcos de cemento». Estas naves estaban construidas en su mayor parte (casco y cubierta) de cemento armado.

La construcción parecía reunir todas las ventajas; era barata, consumía mucho menos hierro, metal precioso en tiempo de guerra; se moldeaba en forma práctica, era relativamente más liviana, y de muy fácil reparación; completamente inoxidable, y prácticamente estaba a salvo de la terrible mina magnética. Pero contra todas las ventajas que le auguraban un gran porvenir «el barco de cemento», después de algunas pocas construcciones, desapareció. Sólo fue un intento más en la carrera hacia la perfección de la industria naviera.

Barco de Cemento

Muchísimos pequeños adelantos técnicos solucionan hoy, con asombrosa facilidad, lo que ayer representaba problemas de mano de obra y de lenta realización. Sabido es que terminar y recubrir los interiores de un lujoso transatlántico, decorarlo, pintarlo, equiparlo de los miles pequeños elementos que requiere esa ciudad flotante, en fin, vestirlo y acondicionarlo con el confort requerido, era trabajo caro y lento.

Pero los plásticos en todas sus formas, láminas, moldeados, tubos, etc., maderas sintéticas, metales livianos, los adhesivos, los acríbeos y las resinas sintéticas, han llegado también en ayuda de los realizadores de esta parte de la nave.

Significado de Gravedad Cero Ingravidez en una Nave Espacial

Significado de Gravedad Cero
Estado de Ingravidez en una Nave Espacial

La manzana Newton fue  hacia la Tierra por acción de la fuerza de la gravedad. Una fuerza análoga actúa sobre todas las cosas, tendiendo á acercarlas entre sí. Cuanto mayor sea la masa de los objetos, mayor es la fuerza gravitacional que ejercen sobre los demás. (La fuerza gravitacional ejercida por dos cuerpos entre sí, es proporcional al producto de sus masas individuales).

La Tierra es un objeto gigantesco, con una masa de alrededor de 5.883.000.000.000.000.000.000 toneladas, ejerciendo por consiguiente una fuerza gravitacional muy grande.

Esta fuerza es lo suficientemente intensa como para imprimir a la manzana, en su caída hacia la Tierra, una aceleración de 9,8 metros por segundo Pero la fuerza con que la Tierra atrae a la manzana depende, a su vez, de la distancia de ésta al centro de gravedad de aquélla. Cuando se encuentra sobre la superficie de la misma o en su proximidad la manzana está a casi 6.500 Km. del centro.

Si se dejase caer la manzana desde una altura doble de la distancia hasta dicho centro de la Tierra (13.000 Km. desde el centro, 6.500 Km. desde la superficie), la aceleración hacia la Tierra sería de 2,45 metros por segundo. De modo que, doblando la distancia al centro de gravedad terrestre, la fuerza de la gravedad se ha reducido a la cuarta parte del valor que tenía sobre la superficie de la Tierra. Expresado matemáticamente, la fuerza de la gravedad varía inversamente con el cuadrado de la distancia que separa las dos masas.

De este modo, cuánto más se aleje la manzana de la Tierra, tanto más disminuirá la fuerza gravitatoria, aunque ésta nunca podrá ser nula, porque, para ello, sería necesario que entre la manzana y la Tierra hubiera una distancia infinita. Sin embargo, en el momento en que la manzana estuviese a unas decenas de miles de kilómetros de la Tierra, el efecto de la gravedad terrestre llegaría a ser despreciable.

Si la manzana fuese colocada en este punto, no volvería a caer sobre la Tierra, porque la fuerza sería tan débil que no podría atraerla. En consecuencia, quedaría flotando en el espacio.

Esta es la condición conocida como g cero (gravedad cero) y es una de las primeras dificultades con que tropiezan los astronautas. Nos sorprende porque, inconscientemente, contamos con que la acción de la gravedad es constante. Así, cuando vertemos el té dentro de una taza, ponemos la tetera en un plano superior, casi perpendicular a la taza, y la gravedad arrastra el líquido hasta el interior de la misma.

Si el astronauta intentase hacer esto en las condiciones de gravedad cero, el té quedaría flotando a su alrededor, en forma de gotas, en el interior de la astronave. El movimiento también sería bastante diferente, puesto que no habría fuerza de gravedad que ligase al astronauta sobre el piso. Así, si él tomara impulso, empujando con los pies, continuaría desplazándose hacia arriba, hasta que tropezaría  contra el techo.

ingravidez, astronautas en sus practicas

Significado de Gravedad Cero

Por ejemplo en la cabina de un avión entrando en picada en caía libre, el mismo seguirá una curva hacia la Tierra por efecto de la gravedad terrestre. Estas condiciones sólo pueden mantenerse durante unos 20 segundo.

GRAVEDAD Y ACELERACIÓN (ver Principio de Equivalencia)
Los astronautas experimentarán los efectos de la gravedad cero cuando viajen por el espacio con un movimiento estacionario, lejos de las atracciones gravitatorias del Sol y de algunos otros planetas.

También notarán la falta de gravedad cuando se muevan con velocidad constante. Pero tan pronto como la nave espacial empiece a acelerar se sentirá una fuerza en sentido contrario al de la marcha, que podría, fácilmente, ser tomada como una fuerza gravitatoria.

La gravedad y la aceleración están estrechamente relacionadas. Del mismo modo que la fuerza de la gravedad acelera la manzana, así también la aceleración crea una «fuerza» muy similar a la gravitatoria.

Mientras la nave espacial no se mueve, acelerándose o retrasándose (o, dicho de otro modo, cuando esté detenida o se mueva con velocidad constante), su movimiento no crea una fuerza que produzca el mismo efecto que la fuerza gravitatoria. Esto se expresa en el primer principio del movimiento de Newton:   «Cuando no actúa fuerza alguna sobre un cuerpo, nada cambia en él. Si está en reposo, continúa estándolo. Si se está moviendo con una cierta velocidad, continúa moviéndose con la misma velocidad».

Lo contrario de este principio sigue rigiendo en el espacio, y, siempre que la nave esté quieta o moviéndose con velocidad constante, ninguna fuerza actuará sobre ella.

El segundo principio del movimiento de Newton se refiere al efecto de una fuerza sobre el movimiento de un cuerpo: «Las fuerzas producen siempre aceleraciones, y éstas son proporcionales a las magnitudes de las mismas». De nuevo, lo contrario de este principio sigue siendo válido para la nave espacial que está acelerándose.

Toda aceleración produce una fuerza. Si la nave espacial estuviera sometida a una aceleración de 9,8 metros por segundo2 el astronauta tendría la sensación de estar sobre la Tierra. La «fuerza» debida al movimiento sería indistinguible de la fuerza gravitatoria terrestre, porque ésta tiende a acelerar los objetos precisamente a 9,8 metros por seg.².

Por ejemplo, si la nave espacial fuera acelerada, partiendo del reposo, el astronauta que comenzara a servirse su té podría pensar que las cosas suceden con toda normalidad. Quedaría definida una dirección hacia arriba y una dirección hacia abajo (lo mismo que ocurre sobre la Tierra). El «arriba» coincidiría con la dirección de la proa de la astronave, mientras que «abajo» estaría en la dirección de la cola de la misma.

El piso de la nave debe situarse, por tanto, en el extremo más próximo a la cola, y, si el astronauta se pusiera de pie para servirse su taza de té, éste caería en el interior de la taza con toda normalidad. No obstante, aunque al astronauta pudiera parecerle que las cosas suceden del mismo modo que en la Tierra, un observador imparcial, situado fuera de la astronave, observaría lo contrario.

Supóngase que se hubiese dejado atrás, en el espacio, a un astronauta mientras que la nave se moviese uniformemente, y que aquél pudiera ver lo que sucede cuando la nave se acelerase, alejándose de él. Entonces, tan pronto como se vierte, el té no sigue el movimiento de la astronave; no se; acelera hacía delante, como las restantes cosas fijas (incluyendo la tetera), porque no está unido a nada. De modo que ninguna fuerza actúa sobre él y se queda exactamente donde está cuando la astronave se mueve uniformemente.

De hecho, acelerando la nave espacial hacia adelante se recogería el té en la taza. Aquélla se movería hacia el té, pero un astronauta, en ella, por estar sometido a la misma aceleración, no encontraría diferencia entre el movimiento de la nave hacia el té y el de éste hacia abajo, como ocurriría sobre la Tierra.

Y no es porque exista algún error en la percepción, puesto que no existe, absolutamente, ningún procedimiento para encontrar la diferencia. Pero, ¿cómo se podría conseguir que la manzana no volviese a la Tierra, después de haberla lanzado, sin necesidad de alejarla infinitamente de la misma? Este problema está teóricamente resuelto desde que Newton formuló sus importantes principios.

Si hacemos girar una piedra, atada al extremo de una cuerda cuyo otro extremo sujetamos con la mano, notamos que la piedra hace una fuerza, tirando de nuestra mano en la dirección del radio determinado por la misma. Una fuerza de este tipo es la que tiende a hacer volcar a los automóviles al tomar una curva y, para contrarrestarla, las curvas de las carreteras tienen cierto declive o ángulo, llamado peralte.

En general, podemos decir que es necesario aplicar una fuerza de este tipo, siempre que se intenta desviar del camino rectilíneo a un móvil cualquiera. En algún otro lugar, ya dijimos cómo los cuerpos tienden, siempre, a conservar los estados de reposo o de movimiento rectilíneo con velocidad constante.

Para modificar esta tendencia natural de todos los objetos del universo, es necesario aplicarles una fuerza, tanto para sacarlos del reposo, como para variar su velocidad o separarlos de su trayectoria, puesto que, como decimos, tiende a ser rectilínea.

Pues bien, esta fuerza que es necesario aplicar para que la trayectoria descrita por un cuerpo sea curva, y que esté dirigida, siempre, hacia el centro de curvatura de la misma, se llama fuerza centrípeta. Por otra parte, el tercer principio de Newton, el llamado de la acción y la reacción, nos dice: «Siempre que un objeto ejerce una fuerza sobre otro, éste también ejerce una fuerza sobre el primero, llamada reacción (igual y de tido contrario), que tiende a opo-r. al efecto de la misma».

Pues bien, contra la fuerza centrípeta (hacia adentro) que tenemos que hacer sobre la piedra para  que ésta  describa  un circulo la piedra ejerce una fuerza sobre la mano que, por estar dirigida en sentido contrario al centro, se llama centrífuga (hacia afuera).

¿Por qué razón un satélite que está rando en su órbita no se precipita contra la Tierra, como lo haría cualquier objeto que se dejara libremente, a cierta distancia de la superficie terrestre? respuesta  es   sumamente  sencilla.

Un objeto cualquiera, en el espacio, a cierta ta distancia de nuestro planeta, sufre la acción de la fuerza gravitatoria. Ahora bien, si este objeto se encuentra movimiento,   describiendo   una   órbita más o menos circular, también actua sobre él la fuerza centrífuga debido este movimiento.

Sólo nos queda disponer las cosas de modo que ambas fuerzas se contrarresten y, así, todo ocurríría como si sobre él no actuase fuerza alguna. Esto es lo que se hace al colocar en órbita un satélite artificial. Se calcula   su   trayectoria   de   modo  que conjunto de las fuerzas ejercidas sobre él sea nulo en todo instante.

Como, en principio, la fuerza centrífu dependerá no sólo del radio de giro si también de su velocidad, los científicos han de establecer un compromiso en las  magnitudes   que  entran   en  jueígo que son:  velocidad y radio de la ti yectoria. La masa del satélite sólo interviene durante el lanzamiento, des que sale de la Tierra, hasta que se coloca en órbita. Si suponemos una órbita circular, la relación que debe existir entre las maginitudes anteriores será:

formula velocidad de satelite en una órbita

Significado de Gravedad Cero

Fuente Consultada:
Revista TECNIRAMA N°84 Gravedad Cero
Enciclopedia de la Ciencia y la Tecnología

Ver: La Presurización en Aviones

Los Sucesos mas importantes del Siglo XX

Los Sucesos Mas Importantes del Siglo XX:Guerras Mundiales,Descolonización,Progreso Científico

sucesos mundiales

Los avances científicos y técnicos han cambiado radicalmente la vida cotidiana de las personas.  De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX. Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso. A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables. (picar en la foto para mas información)

linea divisoria

sucesos mundiales

Entre 1914 y 1918 se desarrolló en Europa la mayor conflagración hasta entonces conocida. Motivada por conflictos imperialistas entre las potencias europeas, la «gran guerra», como se denominó originalmente a la primera guerra mundial, implicó a toda la población de los estados contendientes, así como a la de sus colonias respectivas. La segunda guerra mundial fue un conflicto armado que se extendió prácticamente por todo el mundo entre los años 1939 y 1945. Los principales beligerantes fueron, de un lado, Alemania, Italia y Japón, llamadas las potencias del Eje, y del otro, las potencias aliadas, Francia, el Reino Unido, los Estados Unidos, la Unión Soviética y, en menor medida, la China. La guerra fue en muchos aspectos una consecuencia, tras un difícil paréntesis de veinte años, de las graves disputas que la primera guerra mundial había dejado sin resolver.(picar en la foto para mas información)

linea divisoria

sucesos mundiales

El comunismo defiende la conquista del poder por el proletariado (clase trabajadora), la extinción por sí misma de la propiedad privada de los medios de producción, y por lo tanto la desaparición de las clases como categorías económicas, lo cual, finalmente, conllevaría a la extinción del Estado como herramienta de dominación de una clase sobre otra. Adoptó la bandera roja con una hoz y un martillo cruzados (símbolo de la unión de la clase obrera y el campesinado), y desde su origen tuvo carácter internacionalista, aunque el Stalinismo recuperó el discurso nacionalista de la «madre Rusia» durante la Segunda Guerra Mundial, a la que la propaganda soviética siempre llamó «gran Guerra Patriótica». (picar en la foto para mas información)

linea divisoria

sucesos mundiales

El proceso de descolonización constituye uno de los más decisivos factores de la configuración de una nueva realidad histórica en el panorama global de la época actual, y ha dado origen no solo a un nuevo Tercer Mundo, con una dinámica interna propia, sino también a una serie de cuestiones y problemas que se proyectan directamente en el plano de la historia universal. Es por ello una tarea no solo posible, sino necesaria, emprender descripciones históricas de la primera fase de este naciente Tercer Mundo, que constituye el campo problemático más reciente del siglo XX, y a la vez quizá el mas importante para el futuro de la historia actual. (picar en la foto para mas información)

linea divisoria

sucesos mundiales

En la actualidad, se teme que la humanidad haya alcanzado, e incluso sobrepasado, la capacidad de carga que tiene a nivel planetario. El ser humano consume el 35% del total de recursos utilizados por la totalidad de las especies vivientes, y a medida que la población crece, esta proporción también aumenta. Hacia el año 1835, la humanidad alcanzó por primera vez en su historia los 1.000 millones de habitantes, pero la población se duplicó en tan solo un siglo. En la actualidad, la población humana mundial se incrementa a razón de 1.000 millones cada década, y la proporción de tiempo amenaza con ser incluso más reducida. Esto se debe a que la población aumenta de manera exponencial (por ejemplo, en caso de duplicarse la población cada generación con una población inicial de 10 millones, en una generación habría 10 millones, a la siguiente 20, a la próxima 40, después 80, y así sucesivamente). (picar en la foto para mas información)

linea divisoria

Avances Cientificos Despues de la Guerra Television Color TV Color

Avances Científicos Después de la Guerra
Televisión Color TV Color

La televisión en colores es uno de, los astros domésticos más jóvenes de la era electrónica. Y, a pesar de haberse vendido inicialmente a precios astronómicos, ese nuevo juguete va, poco a poco, penetrando en las casas de los estratos medios. No obstante, la calidad técnica de esas transmisiones aún no ha alcanzado un punto «óptimo» de realización tecnológica, y los costos de producción continúan siendo bastante elevados, lo que impide que ella ocupe definitivamente el lugar conquistado por su rival en blanco y negro.

Al respecto, investigaciones recientes estudian la posibilidad de substituir f/ tubo de la TV en colores —que representa cerca del 50 al 60 % del costo del aparato— por un sistema menos costoso, como pantallas «planas» o el cristal líquido, usado ya en calculadoras de bolsillo y relojes electrónicos.

Los Primeros Pasos….La Televisión
La idea de utilizar ondas de radio para transportar información visual se remonta a los primeros tiempos de la radio, pero no llegó a ser factible hasta 1926. El principio básico es fragmentar la imagen en una serie de puntos que entonces se transmiten y muestran en una pantalla tan rápidamente que el ojo humano los percibe como una imagen completa.

En 1926 el inventor escocés John Logie Baird (1888-1946) mostró una televisión basada en el método mecánico de repasar una imagen en líneas de puntos de luz. De todas formas, el sistema de Baird tenía poco futuro y fue rápidamente sustituido por un sistema totalmente electrónico. Este último fue desarrollado por Vladimir Zworykin (1889-1982), ingeniero de origen ruso pero que trabajaba en EUA. Su primera cámara útil, hecha en 1931, enfocó la imagen sobre un mosaico de células fotoeléctricas (ver p. 36-37). El voltaje inducido en cada célula fue una medida de la intensidad de luz en este punto, y podía transmitirse como una señal. Una cámara de televisión moderna opera esencialmente de la misma manera, midiendo la intensidad de luz en cada punto de la imagen. Esta información se codifica y transmite entonces en la onda de radio.

En el extremo receptor, la señal tiene que ser decodificada. Un televisor es básicamente un tubo de rayos catódicos, en el cual un «cañón» dispara un haz de electrones hacia una pantalla luminescente. Cuando chocan con ella, la pantalla se ilumina. Para reconstruir la imagen en su totalidad, el haz se mueve de lado a lado en una serie de líneas (625) en los televisores, cubriendo toda la pantalla en 1/25 segundos.

Historia Evolución Tecnológica Post Guerra Mundial
LA TELEVISIÓN COLOR: Los principios de la moderna televisión electrónica estaban bien establecidos hacia mediados de los años 30, época en que tanto en EE.UU. como en Gran Bretaña se realizaban transmisiones regulares, aunque para una audiencia relativamente reducida. La definición era mala, la imagen era titilante y las técnicas de realización eran primitivas, pero aun así se ofrecía un servicio aceptable. Los adelantos en este campo quedaron bruscamente detenidos por el estallido de la guerra en Europa.

Una vez finalizado el conflicto, las investigaciones continuaron más o menos desde el punto donde habían quedado en 1939. La calidad mejoró considerablemente gracias a la aplicación de algunos adelantos en electrónica logrados durante la guerra, pero uno de los rasgos básicos seguía inalterado: la imagen era en blanco y negro.

No había en realidad dificultades técnicas, ya que los problemas de la televisión en color son básicamente los mismos que los de la fotografía en color, que se habían superado mucho tiempo antes. En esencia, la imagen transmitida debía separarse en tres imágenes, una roja, otra verde y una tercera azul, que luego se reproducirían, superpuestas, en la pantalla del receptor.

De manera bastante sorprendente, teniendo en cuenta la determinación con que se abandonaron los sistemas fotomecánicos de televisión en los años 30, el primer sistema adoptado (diseñado por Peter Goldmark en 1951, en Estados Unidos) consistía en un disco giratorio con filtros de color, colocado delante del objetivo de la cámara. Sin embargo, en 1953, la compañía RCA perfeccionó un sistema completamente electrónico por el cual, el rayo de luz transmitido a través del objetivo de la cámara se divide en sus componentes rojo, verde y azul mediante espejos selectores del color. Las tres imágenes se transforman entonces en una señal que se transmite en dos modalidades. La primera, denominada luminancia, depende del brillo de la imagen.

La segunda, llamada crominancia, está relacionada con el color. En el receptor, la señal de crominanciaes recibida por tres cañones de electrones cuyos rayos barren la pantalla, activando un gran número de puntos fosforogénicos que producen una luminosidad roja, verde o azul. Como los sistemas de luminancia y crominancia están separados, las transmisiones de televisión en color pueden ser recibidas también por receptores de blanco y negro.

En 1960, la televisión ya no era una novedad en el mundo occidental y el televisor se había convertido en un elemento corriente entre los aparatos domésticos. El número de receptores ascendía para entonces a unos 100 millones, el 85 % de los cuales se encontraban en Estados Unidos.

En 1970, la cifra había aumentado a más del doble, con unos 230 millones de aparatos. A principios de los años 80, los televisores en color habían desplazado a los aparatos de blanco y negro. Para entonces, había en casi todos los hogares de Estados Unidos (98 %) por lo menos un televisor, que era en color en el 80 % de los casos.

Estas cifras se refieren. naturalmente, a los receptores domésticos y no tienen en cuenta los numerosos sistemas de televisión muchos de circuito cerrado) utilizados con fines especiales: por ejemplo, dispositivos antirrobo en los comercios, demostraciones de operaciones quirúrgicas a estudiantes y observaciones de la superficie terrestre desde satélites.

PARA SABER MAS SOBRE LOS COMIENZOS DE LA TELEVISIÓN:

En 1925, el año en que el inventor escocés John Logie Baird se convirtió en la primera persona que transmitió imágenes en movimiento a un receptor lejano, solo un puñado de ingenieros y hombres de negocios de amplios horizontes habían oído hablar de la nueva tecnología que iba a transformar la cultura.

No obstante, entre estos primeros visionarios el desarrollo de la televisión todavía estaba en estado embrionario. Trabajando en el laboratorio casero de su ático londinense, Baird, desconocido y pobre, construyó una cámara que registraba los objetos con un haz concentrado de luz. Utilizó una célula fotoeléctrica para convertir la luz y la sombra del objeto registrado en electricidad y fabricó un receptor que realizaba el proceso inverso.

El 2 de octubre registró la cabeza de un muñeco y observó con alegría que su cara se reproducía temblorosa en la pantalla que había colocado en la habitación contigua. Corriendo hacia un edificio del otro lado de la calle, le pidió a un portero que se sentara frente a su cámara. El joven William Taynton fue la primera persona televisada.

El sistema de Baird consistía en un aparato mecánico rudimentario que utilizaba discos con agujeros para registrar el objeto, deshacer la luz en rayos y convertir los en una imagen proyectable del objeto original. Funcionaba, pero las temblorosas imágenes provocaban dolor de cabeza al espectador.

Mientras Baird trataba de mejorar su modelo mecánico, otros pioneros trabajaban en sistemas electrónicos. La televisión electrónica ya había sido tratada en teoría por el físico británico Campbell Swinton en 1908. Swinton escribió: «Debe descubrirse algo apropiado. Creo que la visión eléctrica a distancia entra en el reino de lo posible».

Los descubrimientos a los que aludía fueron realizados por Vladimir Kosma Zworykin y Philo T. Farnsworth. El físico norteamericano nacido en Rusia y el estudiante de Utah desarrollaron las primeras lámparas de imágenes. En 1927, Farnsworth presentó un sistema sin los discos de Nipkow en los que confiaba Baird. Con la invención de Farnsworth, el reino de lo posible ya era probable.

Los nuevos medios de comunicacion o transporte en el siglo XIX

Los nuevos medios de comunicación o transporte en el siglo XIX

Hacia una nueva técnica industrial: Después de 1840, el maquinismo industrial se complicó en el término de cincuenta años todas las industrias fueron reequipadas eficaz y completamente. En las ciudades se concentró la industria con sus grandes fábricas y los talleres desaparecieron progresivamente. El obrero ya no fue responsable del producto final, sino un pequeño engranaje dentro del proceso productivo. Prueba de ello fueron los nuevos métodos de trabajo (Taylorismo). Estos intentaban obtener el máximo de rendimiento en el menor tiempo posible. La especialización y la producción en serie fueron también rasgos típicos de este período.

El aprovechamiento de las nuevas fuentes de energía sumado a la invención de nuevas máquinas, abrieron paso a la era de la siderurgia moderna. Comenzaron a utilizarse la rotativa y la máquina de escribir (1867), el cemento y el hormigón (1883), las armas arepetición (1862) y la dinamita (1866), además de os tornos y las perforadoras neumáticas, Inglaterra, Francia, Alemania y los Estados Unidos, dominaron la producción mundial y se convirtieron en potencias de primer orden..

A su vez, también el maquinismo agrícola se diversificó: se fabricaron trilladoras, segadoras, tractores, etc. Estas nuevas máquinas comenzaron a utilizarse a partir de 1870 en los Estados Unidos e Inglaterra. Se adoptaron métodos intensivos de agricultura; el guano peruano, por ejemplo, fue utilizado como fertilizante.

A partir de 1850, el libre cambio y el deseo de competir, aceleró las transformaciones agrícolas estimuladas, a su vez, por la ampliación de nuevos mercados consumidores. Se fortalecieron, de este modo, los lazos coloniales que sometieron a las naciones pequeñas, productoras de materias primas, a la voluntad de las poderosas.

Transportes comunicaciones: las distancias se acortan.

Los transportes y las comunicaciones alcanzaron gran despliegue a partir de la segunda mitad del siglo XIX, merced a los grandes avances científicos descubrimiento de nuevas fuentes de energía y a la importancia que había cobrado la industria del carbón, el hierro y el acero.

El barco a vapor. El transporte marítimo se vio favorecido por la adopción del barco de vapor en reemplazo del velero. Esto posibilitó no sólo una mayor rapidez,. sino que permitió el traslado de gran cantidad de mercancías a lugares distantes. Así el mercado internacional creció en forma notable. También aparecieron grandes transatlánticos que favorecieron el traslado de emigrantes europeos hacia América, Asia o África. Los puertos cambiaron su fisonomía y fueron remodelados para adecuarlos a las nuevas necesidades comerciales.

Primeros Barcos de Acero

El ferrocarril. La gran revolución del transporte terrestre fue protagonizada por el ferrocarril. Los malos caminos y la precariedad de los vehículos no podían competir con este “caballo de hierro”. En 1860, los Estados Unidos y Europa contaban con 108.000 Km. de vías férreas y hacia comienzos del siglo XX, existían en el mundo aproximadamente 1.000.000 Km. de vías. El ferrocarril, al igual que el barco de vapor, amplió el mercado internacional, ya que partía de los centros de producción industrial y agrícola hasta las terminales que se encontraban en los puertos desde donde los productos eran exportados (ampliar sobre el ferrocarril)

tren siglo xix

El automóvil La segunda revolución en el transporte terrestre se introdujo con e4 automóvil. Hasta mediados de siglo existían ciertos vehículos propulsados por vapor. Sin embargo, eran peligrosos, demasiado pesados y lentos (aproximadamente 4 Km. por hora).

En 1884, los alemanes Daimler y Maybach inventaron el motor de gasolina, mucho más liviano que el anterior, y al año siguiente Daimler y Benz fabricaron el automóvil. A partir de entonces la industria automotriz creció yse desarrolló cambiando el aspecto y la atmósfera de las ciudades hasta alcanzar el nivel y la importancia de los que gozan en nuestros días Esto favoreció también el mejoramiento de caminos y puentes. El tránsito en las ciudades también se vio innovado por la aparición del tranvía. (ampliar sobre la industria automotriz)

La bicicleta. Ya hacia 1879 había aparecido una de las tantas antecesoras de la actual bicicleta. A diferencia de la bicicleta moderna, aquélla tenía la rueda de atrás mucho más grande que la de adelante. Con el correr el tiempo experimentó grandes cambios. Para 1890 ostentaba un aspecto muy similar a las bicicletas de nuestros días y en 1895, casi todas contaban con ruedas neumáticas. Fue uno de los medios de transporte más difundido, ya que facilitó enormemente la movilidad individual en el campo y la ciudad. En la actualidad se la utiliza también con fines recreativos y deportivos.

Historia de la Bicicleta

Canales: El mercado internacional se había ampliado, pero se necesitaban rutas más cortas entre Europa y los demás continentes. En 1869 se abrió el Canal de Suez que redujo de 25 a 18 días el viaje de Marsella a Bombay. Gracias al éxito obtenido se construyeron luego el de Corinto en Grecia (1893), el de Kiel, en Alemania (1895), y el de Panamá, en América (1914)

El avión. El hombre había conquistado el mar y la tierra entonces miró hacia el cielo. En 1900 Zepellin realizó los primeras experiencias con el dirigible, nave que permitiría el transporte de pasajeros. En 1903 los hermanos Wright inventaron el aeroplano. Estas experiencias fueron continuadas por Alberto Santos Dumont y Luis Blériot y se iniciaron, entonces, los primeros vuelos y servicios regulares. En 1914 se recorrió una distancia de 1.021 km en casi 21 horas a una velocidad de 203,85 Km. por hora a la altura de 6228 metros.(ampliar sobre la historia de la aviación)

Comunicaciones. Gran desarrollo alcanzaron las comunicaciones postales debido al avance de los transporte. El telegrafo creado por Morse en 1837 se extendió con increíble rapidez. En 1845 se instaló el primer cable bajo el agua en los Estados Unidos y en 1878 se instalaron los primeros cables transatlánticos. La importancia 4 de este nuevo medio queda corroborada por el siguiente dato: en 1908 se enviaron por telégrafo 334.000.000 de despachos.

En 1876, Alejandro Graham Bell inventó el teléfono que se difundiría a partir de 1879. En 1877 Tomás Alva Edison construyó el primer fonógrafo y en 1887 apareció la telegrafía sin hilos (radio) producto de la inventiva de Guillermo Marconi.

Otras técnicas. La técnica tipográfica (la imprenta) evolucionó también notablemente al igual que la fotografía. En 1895 los hermanos Lumiére inventaron el cinematógrafo que se transformó, no sólo en un elemento importante de información y difusión de ideas, sino en una de las más importantes expresiones artísticas del Sigo XX.

Las exposiciones industriales: la esperanza de una nueva era:

El auge adquirido por el industrialismo produjo en las naciones europeas un sentimiento de orgullo y satisfacción por el progreso alcanzado.

Se realizaron entonces múltiples exposiciones con el fin de mostrar al mundo el nivel técnico e industrial logrado. En 1851, Gran Bretaña mandó construir, a instancias del príncipe Alberto, el Palacio de Cristal, en el que se realizó la primera de estas exposiciones. En 1862 se efectuó la segunda, también en Londres. En 1867, París organizó su primera exposición a la que asistieron no sólo los más importantes científicos y representantes de la industria, sino también las más destacadas personalidades políticas del momento. En años subsiguientes se efectuaron nuevas muestras en Holanda, España, Estados Unidos, Australia y nuevamente en Francia. (Ver: La torre de Eifel)

En todas ellas, los protagonistas fueron las máquinas,, los descubrimientos científicos, los nuevos productos industriales. De esta manera, el mundo parecía afrontar con un optimismo creciente los conflictos internacionales que, día a día, eran más profundos. Así, se festejaba el comienzo de una nueva era cuyo progreso y desarrollo se creía no tendría límites y cuyos alcances posibilitarían el mejoramiento del nivel de vida medio.

AMPLIACIÓN DEL TEMA
LOS FERROCARRILES TRANSCONTINENTALES Y EL AUTOMÓVIL
La revolución más espectacular tuvo lugar en los ferrocarriles. Dos cifras bastan para dar una idea de este extraordinario desarrollo: año 1850, en el mundo había 38.700 kilómetros de vías férreas; año 1913, 1.100.000. Las zonas de mayor densidad ferroviaria eran Europa y los Estados Unidos. Y este enorme aumento se debió al progreso de la técnica: al uso del acero y del cemento armado en la construcción de puentes, y al de la perforadora de aire comprimido en la de túneles (el túnel de San Gotardo se construyó entre 1871 y 1882, y el del Simplón fue acabado en 1906).

El aumento de la velocidad fue el resultado del perfeccionamiento de las locomotoras, que se convirtieron en más potentes y menos pesadas, y del de los rieles, que en lo sucesivo serían de acero, en vez de hierro. La segunda mitad del siglo xix fue el gran período de la construcción de ferrocarriles. Cada país construyó su propia red, y, después, las naciones establecieron acuerdos para construir líneas transcontinentales. A este fin, decidieron adoptar, en general, el mismo ancho de vía (1,44 m.).

En Norteamérica, la construcción del primer ferrocarril transcontinental, Nueva York-San Francisco, fue concluida en 1869. Unos años después, el zar Alejandro III de Rusia tomó la decisión de construir el transiberiano, que fue acabado en 1904, y puso a Vladivostok a sólo 15 días de viaje de Moscú. Ferrocarril que se vería prolongado, en seguida, por el transmanchuriano, que llegaba hasta el mar de la China. De menor importancia fueron el transcaspiano (que iba del Caspio a la frontera china), el transaraliano (de Samara a Tachkent), y el transandino (de Buenos Aires a Valparaíso).

El sueño de Cecil Rhodes, de unir a Ciudad del Cabo con El Cairo, no llegó a realizarse. En efecto, de los 11.000 kilómetros de distancia, hay que recorrer 3.500 kilómetros por carretera o en barco, y en los 7.500 kilómetros de ferrocarril, hacer catorce transbordos.

La utilización práctica del ferrocarril tuvo importantes consecuencias. Permitió el transporte rápido de los productos (a partir de 1900, sería posible recorrer 1.200 Km. diarios): los nuevos países pudieron consagrarse, en lo sucesivo, al monocultivo.

Al tiempo que se desarrolló este medio de transporte colectivo, lo hicieron dos medios de transporte individual: la bicicleta, «la pequeña reina» (la primera vuelta a Francia se organizó en 1903), y, sobre todo, el automóvil. El lejano antepasado de éste fue el carro de vapor, de Cugnot, cuyo modelo tuvieron presente, pasado 1820, los ingleses Griffith y Hancok para su diligencia de vapor, cuyo desarrollo quedó detenido por el del ferrocarril. El francés Amadée Bollée, construyó nuevamente un coche de vapor (1873), la «Mancelle». Pero el progreso decisivo no tuvo lugar, sin embargo, hasta que se perfeccionó el motor de explosión, y se produjo, después, la invención del neumático por Dunlop y Michelin.

En 1891, la fábrica Panhard-Levassor construyó según el diseño de Daimler, un coche que alcanzaba una velocidad de 22 kilómetros por hora. Tres años después, la carrera París-Lyon enfrentó a más de cien monstruos ruidosos y tosedores. Varios de ellos eran de motor de vapor, otros de motor de bencina, habiendo otros más de motor de aire comprimido, o movido por electricidad. Pero sólo veinte de ellos lograron tomar la salida siendo el coche con motor de vapor De Dion quien ganó la carrera, a una media de 22 kilómetros hora.

Mas, a pesar de este triunfo, el automóvil de vapor no consiguió tener un porvenir como su rival, el de bencina. Poco a poco, este último se fue perfeccionando.En 1914, la velocidad récord superó los 100 kilómetros por hora. La industria automovilística, aunque nacida en Europa, se desarolló, sobre todo, en Estados Unidos. En vísperas de la primera guerrao mundial, ,circulaban por el mundo dos millones de automóviles, la mitad de los cuales pertenecía a Estados Unidos.

 

Toyotismo Criterio Para La Organizacion Industrial de Producion

TOYOTISMO, Organización Industrial Científica
En Busca de la Eficacia Productiva

ABANDONO DE LA PRODUCCIÓN EN CADENA
Al final de los años sesenta se llegó a la conclusión —principalmente en los países escandinavos— de que ya no era totalmente válido el principio de Ford según el cual un producto resulta tanto más barato cuanto más racional es su fabricación. El crecimiento de la producción se veía amenazado por los altos índices de absentismo laboral, frecuentes bajas por enfermedad, descenso de la calidad y dificultad para contratar nueva mano de obra. Algunas grandes empresas suecas, entre ellas Saab-Scania y Volvo, crearon equipos de investigación en los cuales los propios trabajadores pudieron aportar sus experiencias y sugerencias. En 1972 se eliminó la cadena de producción en el taller de fabricación de motores de las fábricas Saab-Scania. En Volvo cada trabajador monta «su» automóvil de forma ampliamente autónoma.

El dinamismo de la empresa japonesa se atribuye a los secretos” de la organización productiva que presenta fuertes diferencias con el taylorismo y fordismo de la industria norteamericana.

toyotismo, produccion japonesa

Estas características de las empresas japonesas son, en primer lugar, el sistema de empleo «de por vida», el sindicato por empresa que tiende más a la cooperación que al conflicto (huelgas) y el salario por antigüedad

Pero son sin duda las innovaciones introducidas por el ingeniero Ohno de la empresa automotriz Toyota  que impusieron un modelo de producción —el toyotismo— con las siguientes características:

  • Se produce a partir de los pedidos hechos a la fábrica (demanda), que ponen en marcha la producción
  • La eficacia del método japonés está dado por los llamados “cinco ceros”: “cero error, cero avería (rotura de una máquina), cero demora, cero papel (disminución de la burocracia de supervisión y planeamiento y cero existencias (significa no inmovilizar capital en stock y depósito: sólo producir lo que ya está vendido, almacenar ni producir en serie como en el fordismo). Lo comercial (el mercado) organiza el taller.
  • La fabricación de productos muy diferenciados y variados (muchos modelos) en bajas cantidades (producción acotada). Recordemos que el fordismo implicaba la producción masiva de un mismo producto esta standard, ppor ejemplo, el Ford T negro).
  • Un modelo de fábrica mínima, con un personal reducido y flexible.
  • Un trabajador multifuncional que maneja simultáneamente varias máquinas diferentes. Los puestos bajo son polivalentes, cada obrero se encarga de operar tres o cuatro máquinas y realiza varias tareas de ejecución, reparación, control de calidad y programación. En el taylorismo los obreros realizan tareas parciales y un trabajo repetitivo.
  • La disposición de las máquinas y de los trabajadores en torno a ellas también es distinto a la que imponía  la cinta transportadora en la cadena de montaje de Ford.
  • La adaptación de la producción a la cantidad que efectivamente se vende: producir «justo lo necesario a tiempo”.
  • La llamada autonomatizacíón, introduce mecanismos que permiten el paro automático de la máquina so de funcionamiento defectuoso, para evitar los desperdicios y fallos.

El automóvil de mayor producción en el mundo después del Ford T, el Volkswagen «escarabajo», se montaba en la cadena de producción, en la que cada trabajador realizaba una única operación  La firma sueca Volvo ha prescindido de este sistema; cada operario monta «su» automóvil.

CRISIS DEL FORDISMO: La suba del 400 % del precio del petróleo crudo, establecida por la Organización de Países Exportadores de Petróleo (OPEP) entre 1973 y 1974, determinó la disminución de la producción de los países industriales. A pesar de las estrictas restricciones impuestas por los gobiernos al consumo de petróleo y sus derivados, el encarecimiento se trasladó al resto de los productos, cuyos precios aumentaron en forma vertiginosa y la inflación se incrementó notablemente, tanto en Europa como en los Estados Unidos.

Las innovaciones tecnológicas no alcanzaron a resolver estos problemas. Al mismo tiempo, la progresiva saturación de los mercados internos condujo a una mayor apertura internacional del comercio, y se hicieron sentir los efectos de la competencia de otros países con economías pujantes, como el Japón. Mientras tanto, las múltiples fundones que desarrollaba el Estado determinaron que el gasto público creciera a la par de la inflación, y las ideas de Keynes comenzaron a ser discutidas.

Con más gastos que ingresos, es decir, con déficit, los gobiernos recurrieron al endeudamiento externo, a la emisión de moneda y al aumento de los impuestos para poder financiar su gestión. Esta conjunción de situaciones desalentó las inversiones de las empresas y el consumo de la población. Entonces, el crecimiento económico se estancó y el Estado obtenía aún menos recursos, lo que condujo al aumento del déficit, el endeudamiento y a la inflación. Así, progresivamente, las economías entraron en crisis.

No hay una explicación unánime acerca de los ciclos de crecimiento y depresión de las economías capitalistas. Para algunas teorías, esta sucesión se atribuye solo a factores económicos (por ejemplo el precio de las materias primas, el estancamiento del consumo, la tecnología); para otras, inciden también factores sociales o políticos (como migraciones y conflictos gremiales). Por ello, el debate sobre las causas de la crisis del fordismo sigue vigente.

TABLA COMPARATIVA DE AMBOS SISTEMA

tabla comparativa: producción ford - toyota

Historia del Primer Vuelo Con Motor Los Hermanos Wright

Historia del Primer Vuelo Con Motor Los Hermanos Wright

UN POCO DE HISTORIA: Desde los tiempo mas remotos volar siempre ha sido el gran sueño del hombre, e impulsados por ese deseo de transformarse en pájaros ha hecho que muchos valerosos intrépidos hayan ideado todo tipo de artilugio para luego lanzarse desde lo mas alto de su zona, y muchas veces estrellarse contra el duro piso.

Pero debemos agradecer infinitamente a ese grupo de soñadores porque fueron ellos lo que pusieron la semilla inicial para que luego otros mas osados probaran nuevos artefactos voladores.

Como casi todos sabemos, el gran genio del Renacimiento europeo, llamado Leonardo Da Vinci comenzó a esbozar en su cuaderno de anotaciones diarias, las primeras formas de esos artefactos, pero sin llegar a realizar experiencia alguna, pues él estaba mas ocupado con otras prioridades que le daban grandes satisfacciones sin arriesgar su pellejo, como fue el arte y la comida.

Se sabe que los primeros intentos fueron en Francia por el siglo XVIII, los hermanos Montgolfier hicieron las primeras pruebas con globos aerostáticos y otros menos conocidos se han lanzado desde grandes alturas.

En 1785, un francés y un americano cruzan el Canal de la Mancha en globo, y no tardarán en realizarse los primeros intentos de volar en avión.

Un inglés de apellido Cagley en 1849 construye un planeador de tres alas, y hace sus pruebas usando como piloto a un niños de solo 10 años y se convierte en el primer aparato en flotar un mínimo tiempo en el aire.

Deberán pasar unos 40  años para que en 1890, otro francés,  Clément Ader realice un  primer vuelo de la historia en un aparato propulsado por vapor.

Pero despacio estamos entrando al siglo XX, pero sin olvidarnos de otros grandes inventores, como Lawrence Hardgrave que construye un modelo impulsado por paletas movidas por un motor de aire comprimido que vuela 95 metros, Otto Lilienthal que en 1877 inventa un planeador con alas curvadas. Samuel Pierpont Langley también se anima y ahora consigue elevar durante un minuto de aeroplano impulsado por vapor y que bajaba lentamente planeando.

Y ahora si llegamos a 1903, Orville Wright realiza el primer vuelo de la historia en un aeroplano propulsado y bajo control humano, durante 12 larguísimos segundos. Trabajando junto a su hermano Wilbur, desarrolla los primeros aviones propulsados por un pequeño motor.

Los Wright eran fabricantes de bicicletas y empezaron diseñando planeadores, con los que realizaron cientosde pruebas; incluso diseñaron su propio túnel de viento.

Según sus experiencias a ellos les faltaba una fuerza poderosa que trate de impulsar con potencia el aeroplano hacia adelante y oro colega llamado Charlie Taylor, les fabricara un motor de gasolina de doce caballos que pesa poco más de ochenta kilos, mas o menos el peso de una persona.

Después de varias pruebas y de estrellarse  varias veces en la arena con su planeador motorizado, consiguieron recorrer unos 31 metros el día 17 de diciembre de 1903 con el Flyer.

El brasilero Alberto Santos Dumon, en Francia logrará tres años después un vuelo de 220 metros en 22 segundo.

 Los hermanos Wright eran hijos del obispo estadounidense Milton Wright, ministro de la Iglesia United Brethren (Hermanos unidos), y de Susan Koerner Wright.

Wilbur, el mayor, nació en Millville, Indiana, el 16 de abril de 1867 en tanto Orville, en Dayton, Ohio, el  19de agosto de 1871.

Desde niños se interesaron por los juguetes, cometas y objetos mecánicos, y uno de sus preferidos era una hélice que se cargaba con unas gomas elásticas  y lograba elevarse mientras la hélice giraba.

Si bien muy tenían personalidades muy distintas, a los hermanos los unía el mimo espíritu inquieto e ingenioso, pues por curiosidad los hacía desarmar, explorar construir nuevos objetos mecánicos.

 En 1889 instalaron su propia imprenta e Dayton, donde editaron y publicaron el diario West Side News, y tres años más tarde, entusiasmados con la aparición de Ir bicicletas, dejaron la imprenta para instalar un taller de reparación que se transformaría en la Wright Cycle Co., que vendía su propio modelo de bicicleta.

Los ingresos ayudaban a su manutención mientras ellos investigaban sobre aeroplanos.

Wilbur se interesó en el vuelo cuando se enteró del fatal accidente de Otto Lilienthal mientras investigaba el planeo en 1896. Por aquel entonces, la investigación sobre el vuelo se orientaba a emular el movimiento de las alas de las aves. Mientras observaba el vuelo de un águila, Wilbur comprendió que además de utilizar el planeo, movían las alas para girar.

El control del vuelo era vital además de la propulsión. Un aeroplano tenía que poder ladear, subir o bajar, y girar a derecha e izquierda, y dos o tres de estas actividades debían realizarse simultáneamente.

Los hermanos Wright decidieron enfrentarse a los problemas del control del vuelo antes de pensar en la fuerza propulsora.

Escribieron a la Smithsonian Institution pidiendo material sobre investigación aeronáutica y leyeron todo lo que pudieron encontrar sobre el tema. En 1899 ya habían diseñado una cometa de dos alas que podían moverse mecánicamente de forma que una tenía más sustentación y la otra menos.

Entre 1900 y 1902 diseñaron tres planeadores biplanos, utilizando un túnel de viento en Dayton para ayudarse en la investigación. Llegaron a diseñar mecanismos fiables que les permitían tener el dominio de los movimientos de los aparatos en el aire, como por ejemplo en los virajes mediante una técnica denominada alabeo.

Eso los ayudó luego a conseguir un avión controlable, que comenzaron a construir en 1902.

Los vuelos se iniciaron en una playa llamada Kitty Hawk, en Carolina del Norte, que eligieron después de que el Weather Bureau les proporcionara una lista de lugares ventosos. La arena protegería los planeadores y la soledad del lugar les daría privacidad.

La versión final de los planeadores tenía timón trasero para girar a izquierda y derecha, alerones para ascender o descender, y las alas podían plegarse. Una vez que estuvieron satisfechos con los planeadores, diseñaron el motor, una máquina de cuatro cilindros y doce caballos de potencia.

Al primer aparato experimental lo llamaron Flyer. Realizaron su primer vuelo exitoso de prueba el 17 de diciembre de 1903, en Kitty Hawk, estado de Carolina del Norte, en EE.UU. Lo piloteó, acostado sobre la máquina, Orville Wright.

Su hermano Wilbur corrió a su lado para mantenerlo equilibrado. Pese a que disponía de motor, emplearon una catapulta para impulsarlo y rieles para que carreteara derecho.

Unavez en el aire, el biplano voló unos 40 metros durante 12 segundos, a un metro del suelo. Lo hizo llevado por su planta impulsora de cuatro cilindros, alimentada a nafta y con un sistema de transmisión por cadena que trasladaba su empuje a las hélices.

Ese mismo día realizaron otros tres vuelos, presenciados por cuatro socorristas y un niño de la zona, siendo los primeros de su tipo hechos en público y documentados.

En la última prueba, Wilbur Wright consiguió volar 260 metros en 59 segundos.

Al día siguiente, diarios como el Cincinnati Enquirer y el Dayton Daily News publicaron la noticia.

Según algunos biógrafos Orville, ganó la prioridad de manejo con  el lanzamiento de una moneda, el 17 de diciembre de 1903.

portada de una revista sobre los hermanos wright

El Flyer realizó su primer vuelo exitoso en 1903, en Carolina del Norte. Lo piloteó, acostado sobre la máquina, Orville Wright. Su hermano Wilbur corrió a su lado para mantenerla equilibrada.

Esa mañana un fuerte viento de más de 40 kilómetros por hora,  soplaba sobre la franja de dunas que interrumpen el mar. A las nueve de la mañana  los hermanos Wilbur y Orville Wright, inventores y constructores del aparato, ayudados por cinco hombres, arrastraron la mole de 275 kilogramos desde su cobertizo hasta la llanura de arena, al pie de Kill Devil Hill, una elevada duna de 30 metros de altitud.

El viento consigue levantar el planeador número 3 de los hermanos Wright en Kitty Hawk (Carolina del Norte). Ambos fueron excelentes pilotos de planeadores, y el año 1902 sometieron a prueba en Kitty Hawk las teorías aeronáuticas que desarrollaron en Dayton. En esta foto tomada por Orville, su hermano Wilbur (al fondo) y Dan Tate, de Kitty Hawk, hacen volar el planeador como una cometa.

17 DE DICIEMBRE DE 1903, LA PRIMERA EXPERIENCIA:

Para conseguir suficiente velocidad para ese primer despegue, habían encendido la máquina en una duna arenosa. Hoy, el viento haría todo el trabajo. Se llevaría el aparato hacia arriba como una cometa: una cometa sin pita, empujada hacia delante por un motor, lista a retar la gravedad y a volar hasta donde quisiera.

Los dos hombres habían diseñado el motor ellos mismos. Habían fabricado cada parte del avión que esperaba por ellos en el cobertizo -experimentando, investigando y probando sus descubrimientos. Ahora sólo faltaba la gran prueba.

El viento no era el único hambriento en esa costa desolada. Wilbur y Orville Wright también lo estaban, pero por el trabajo. El viento sería su amigo, no su enemigo. Les ayudaría en el despegue y suavizaría el aterrizaje.

Los dos hermanos sonrieron. Yahabían esperado suficiente tiempo. Era el momento de empezar.

Tomada la decisión, los Wright salieron de su pequeño campo rápidamente. Verificaron el viento otra vez. Colgaron una señal para llamar a los salvavidas desde su base, a una milla de distancia a través de la arena. Los salvavidas habían estado informados del plan desde el principio; no podían quedarse por fuera ahora.

Era tiempo de revisar la aeronave.

Los fabricantes la sacaron del cobertizo y la chequearon por todas partes. Las alas, los puntales, los cables que unían los controles: todos estaban en su sitio, como deberían estar. Las hélices se movían fácilmente.

También el control que accionaba el estabilizador frontal que salía por delante de las alas. Los patines con forma de trineo que sostenían la máquina no mostraban ningún signo del accidente que había tenido días antes. La aeronave estaba lista.

Los hermanos Wright la colocaron en la carrilera de lanzamiento y la amarraron con algunos trozos de alambre para mantenerla quieta. Wilbur puso unacuña debajo del ala derecha.

A unos pocos pies de distancia, Orville organizó su cámara.

Mientras fijaba los trípodes firmemente en la arena, los salvavidas llegaron al campo sonriendo y hablando a gritos para que los oyeran.Miraban fijamente mientras los dos hermanos prendían el motor de la nave.

Funcionó muy suavemente, con vibraciones regulares, calentándose para el momento en que tuviera que correr por la rampa de lanzamiento hacia el vacío.

«Dale Orville», dijo Wilbur. «Yo ya tuve mi turno, ahora te toca a ti».

Cautelosamente, Orville se acomodó en la nave, y se extendió cuan largo era en el ala baja. El viento le daba de frente en sus ojos y la arena le pegaba en los párpados. Miró hacia abajo a las pequeñas piedras en el piso bajo su cara.

Era el último chequeo a los controles, moviendo sus caderas de un lado al otro. Sí, el receptáculo donde él estaba se movía con él, torciendo las estructuras de las alas hacia los lados.

En la punta del ala derecha estaba Wilbur, esperando para sostener el ala nivelada, a medida que se fuera moviendo por la carrilera. Realmente, ya era el momento de despegar. Orville, con su mano, soltó los alambres que le servían de ancla a la nave.

 Se estaba moviendo hacia delante a una velocidad de caminante.

No, más rápido que eso. Con el rabillo de su ojo, Orville podía ver que su hermano tenía que ir corriendo a su lado. Corriendo más rápido. Acelerando la carrera… y, de repente, Wilbur ya no estaba allí. La nave había despegado. ¡Estaba subiendo muy alto ¡Rápidamente, Orville movió la palanca que controlaba el estabilizador frontal.

De repente, ahí estaba el piso, solamente a diez pies debajo de él y subiendo rápidamente Desesperado, Orville haló la palanca hacia atrás.Fue como si le hubieran pegado en el estómago. Con un golpe y un vacío, la nave frenó su caída alocada. La tierra empezó a quedarse lejos, al tiempo que la máquina apuntaba hacia arriba; el paisaje se llenó de cielo. Un ventarrón cogió sus alas con un golpe y las hizo subir todavía más.

Orville movió de nuevo la palanca. Con velocidad acelerada, la máquina se inclinó en el aire. Luego se fue hacia el piso como una golondrina en picada. Otra corrección, y volvió a apuntar hacia el cielo. Y hacia abajo.

Y hacia arriba… Y para abajo. Y con un crujido, una sacudida de choque y un montón de arena que volaba, la máquina se estrelló contra el suelo. Y se quedó allí. Medio mareado y sin aliento, Orville salió arrastrándose fuera de la estructura y miró hacia atrás, al punto desde donde había despegado.

La distancia recorrida en aquel primer vuelo con motor dirigido fue de sólo 37 metros, menos que la longitud de la cabina de un jumbo.  Quizá parezca insignificante, pero supuso el inicio de una nueva era.  En menos de setenta años, el hombre llegó a la luna.  Los hermanos Wright habían abierto un camino que otros pronto seguirían. 

La conquista del aire
Solamente había volado ciento veinte pies, y durante doce segundos. Pero esa distancia corta y ese pequeño tiempo, se sumaban a nada menos que a una victoria. Orville y su hermano habían logrado lo que nadie había hecho hasta ese momento.

Habían construido una máquina más pesada que el aire, que podía llevar una persona en vuelo libre. Se mantuvo suspendida por su propia fuerza y sus movimientos se podían controlar difícil, pero definitivamente por su piloto.

Entre los dos habían diseñado y creado el primer aeroplano de tamaño completo, con éxito.

En las arenas al sur de Kitty Hawk, Carolina del Norte, Orville y Wilbur Wright habían conquistado el aire.

Lo ocurrido en aquella jornada quedó señalado para el común de la gente como el inicio de la aviación moderna y así lo registra la mayoría de las páginas históricas. Sin embargo, hay quienes sostienen que no es así.

Argumentan que durante las pruebas el Flyer no se elevó por sus propios medios, sino ayudado por rieles y una catapulta. Más allá de las polémicas, los Wright patentaron su avión y siguieron mejorándolo.

Durante 1904, efectuaron un centenar de vuelos. En uno de ellos recorrieron casi 40 kilómetros en 38 minutos.

En los años siguientes, realizaron infinidad de pruebas y exhibiciones tanto en su país como en Europa y batieron numerosos récords. A partir de 1908, los aviones de los hermanos Wright ya no necesitaron más de una catapulta para alzar vuelo.

El 17 de septiembre de ese año, mostrando un modelo biplaza a militares de su país, Orvalle Wright se accidentó y quedó malherido. Desafortunadamente, su ocasional acompañante, el teniente Thomas Selfridge (1882-1908), se transformó en la primera víctima fatal de la aviación con motores tal cual la conocemos en la actualidad.

A continuación, intentaron vender su aeroplano a los ejércitos francés, británico y americano. Pedían grandes cantidades de dinero pero no ofrecieron ninguna exhibición y se encontraron con la incredulidad de los responsables.

No empezaron los vuelos de demostración hasta 1908, ya que antes temían el espionaje, y el mundo empezó a creer en la posibilidad del vuelo tripulado. A los pocos años la aviación europea había superado sus esfuerzos. Wilbur murió en 1812 y Orville en 1948. Ambos permanecieron solteros: el vuelo era su única pasión.

Luego de esa histórica primer experiencia, el piloto Orville comentó «Después  de calentar el motor durante unos minutos, tiré del cable que sujetaba el aparato a la guía, y comenzó a moverse. Wilbur corría (…) sujetando un ala para que mantuviese el equilibrio en la guía (…) El manejo del aparato durante el vuelo fue desastroso, subiendo y bajando continuamente (…) El vuelo duró sólo 20 segundos, pero a pesar de todo fue la primera vez que un artilugio manejado por un hombre había conseguido elevarse por sí mismo gracias a su propia potencia y volar una distancia sin reducir su velocidad y aterrizar poco después en un punto alejado de donde había empezado (…)».

Con estas palabras, publicadas en 1913 en el semanario American Aviation Journal, Orville Wright recordaba el primer vuelo con motor en el biplano Flyer 1,  realizado en diciembre de 1903, iniciando así la historia de la aviación moderna.

Un diario italiano La Domenica ilustra en 1908 el fracaso de Orville Wright y de Thomas Selfridge en unos de sus experimentos que termina con una caída desde unos 30 metros.

SANTOS DUMONT: El brasileño a bordo de la nave 14 bis, de 1906. Muchos consideran que el suyo fue el vuelo inaugural de la aviación, tal como la entendemos hoy.


Cerca de Chicago, EE.UU., se realiza una prueba del planeador de alas múltiples ideado por Octave Chanute (1832-1910). Este ingeniero estadounidense, de origen francés, está considerado entre los pioneros de la aviación, que además contribuyó al éxito de los legendarios hermanos Wright.

CRONOLOGÍA DE LOS PRIMEROS INTENTOS

852 — El hispano musulmán Abas Ibn Firnas se lanza desde una torre de Córdoba con lo que se considera el primer paracaídas de la historia.

875 — El mismo Firnas se hizo unas alas de madera recubiertas de seda y se lanzó desde una torre en Córdoba. Permaneció en el aire unos minutos y al caer se rompió las piernas, pero fue el primer intento conocido científico de realizar un vuelo.

1010 — El inglés Eilmer de Malesbury, monje benedictino, matemático y astrólogo, se lanza con un planeador de madera y plumas desde una torre y vuela 200 metros, pero al caer se rompe las piernas.

1250 — El inglés Roger Bacon hace una descripción del ornitóptero en su libro Secretos del arte y de la naturaleza. El ornitóptero es un artilugio parecido a un planeador, cuyas alas se mueven como las de un pájaro.

1500 — Leonardo da Vinci realiza los primeros diseños de un autogiro que habría de elevarse haciendo girar las aspas impulsado por los brazos. También diseña un ornitóptero como el de Roger Bacon y un planeador.

I709 — El jesuita brasileño Bartolomeo de Gusmao, también conocido como «el padre volador», describe, y probablemente construye, el primer globo de la historia, y se lo enseña y hace una demostración, con el ingenio de papel, en el patio de la Casa de Indias, en Lisboa, al rey Juan V de Portugal.

1783 — El francés Jean Frangois Pilátre de Rozier es el primer hombre en ascender, en un globo de aire caliente, diseñado por Joseph y Etienne Montgolfier. • En diciembre, los franceses Jacques Alexandre-César Charles y Marie-Noél Robert realizan el primer vuelo en un globo aerostático de hidrógeno, hasta una altura de 550 metros.

1785 — El francés Jean Pierre Blanchard y el estadounidense John Jeffries cruzan por primera vez el canal de la Mancha en globo. • Los franceses Frangois Pilátre y Jules Román se convierten en los primeros hombres en morir en un accidente aeronáutico al estrellarse su globo, dos años después de aquel primer ascenso de Pilátre.

1794 — El Servicio de Artillería Francesa crea la primera fuerza aérea del mundo en la forma de una compañía de globos bajo el mando del capitán Coutelle, que entrará en combate ese mismo año en Fleurus, Bélgica. Hasta 1908 no se creará una fuerza aérea dotada de aeroplanos.

1797 — El francés André-Jacques Garnerin realiza el primer descenso en paracaídas desde una aeronave al lanzarse desde un globo a 680 m de altura sobre el parque Mongeau, en París.

1836 — El Gran Globo de Nassau vuela desde Londres hasta Weilburg en Alemania, a 800 Km., en 18 horas.

1849 — El británico George Cayley construye un planeador de tres alas que vuela con un niño de diez años a bordo y se convierte en el primer aparato en volar más pesado que el aire.

Fuente Consultada:
El Diario de National Geographic N°39
Genios de la Humanidad Los Hermanos Wright
PIONEROS Teo Gómez

Adelantos Tecnologicos Post Guerra Mundial Avances Cientificos

Adelantos Tecnológicos Post Guerra Mundial

Historia Evolución Tecnológica Post Guerra Mundial
Durante los años de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental.

Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos.

Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Desarrollos tecnológicos de la posguerra
Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación.

Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado.

En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Las transmisiones regulares en color comenzaron en 1950

Los automóviles de la inmediata posguerra eran básicamente iguales a los de antes de la guerra. Chrysler se adentró por nuevos terrenos en 1949, al introducir los frenos de disco que, sin embargo, habían sido concebidos por Lanchester a principios de siglo.

Los neumáticos radiales, con mayor capacidad de agarre a la carretera, fueron introducidos en 1953.

En los propios automóviles hubo sin embargo una marcada tendencia hacia modelos más pequeños, conforme al menor poder adquisitivo de la población.

El Volkswagen («coche del pueblo») alemán se había fabricado en muy pequeño número antes de la guerra, pero después del conflicto volvió a aparecer como el popular «Escarabajo», del que se vendieron millones en un período de 40 años. (imagen abajo)

auto escarabajo wolkwagen

En 1949, la firma automovilística francesa Citroen lanzó su famoso «dos caballos», del que se vendieron cinco millones en los 30 años siguientes y que seguía siendo popular en 1987, cuando se interrumpió su fabricación.

La mecanización en agricultura, explotación de bosques y actividades afines quedó reflejada en el Land Rover británico, presentado en 1948, con un sistema de tracción en las cuatro ruedas adoptado del jeep militar norteamericano.

antigui citroen 2cv

También las motocicletas entraron en una nueva fase, con la aparición de una variedad de modelos de baja potencia. La famosa Vespa apareció en Italia en 1946 y diez años más tarde se habían vendido un millón de unidades.

vespa antigua

En Japón, en 1947, Soichiro Honda sentó las bases de una gigantesca industria internacional al añadir pequeños motores a bicicletas corrientes.

Como era de esperar, algunos de los cambios más importantes se produjeron en los sectores en que los adelantos realizados con fines exclusivamente militares pasaron a estar disponibles para usos civiles.

La expansión fue rápida por dos motivos: en primer lugar, la fase de investigación y desarrollo ya se había superado y, en segundo lugar, los fabricantes habían perdido los contratos con el gobierno y necesitaban urgentemente un mercado civil para no precipitarse en la bancarrota.

La industria de la aviación fue uno de los casos más destacados. Tenía una gran capacidad productiva, pero carecía de contratos.

Esta situación favoreció una enorme y rápida expansión de la aviación civil, que se benefició asimismo de los sistemas de radar para la navegación y el control del tráfico aéreo. Se produjo así una revolución en los medios utilizados para viajar, por ejemplo, en las travesías del Atlántico.

Resultado de imagen para primeros aviones comerciales historiaybiografias.com

En los viajes transatlánticos, los grandes paquebotes habían competido entre sí, en los años anteriores a la guerra, ofreciendo buenas condiciones de comodidad y rapidez.

En 1952, la flota existente se vio ampliada con el nuevo buque United States, construido a un coste entonces enorme de 75 millones de dólares y con un diseño sumamente innovador, basado en la utilización de aleaciones ligeras de aluminio para la superestructura.

Pero el buque era ya obsoleto en el momento de la botadura pues la aviación civil ofrecía la travesía transatlántica en una décima parte de tiempo.

En 1957, más pasajeros cruzaron el Atlántico por aire que por mar y, hacia fines de los años 60, más del 97 % de los viajeros transatlánticos utilizaron el avión. El mismo cambio se registró en todo el mundo y el factor de la velocidad abrió un mercado completamente nuevo.

Durante los años de la preguerra, la industria química había inventado muchos productos nuevos en el campo de los polímeros, pero también en este caso la demanda militar había desviado las innovaciones de las aplicaciones civiles. Sin embargo, durante la posguerra, los nuevos polímeros inundaron el mercado.

Las fibras artificiales, como el nilón y el dacrón oterylene, dieron un nuevo impulso a la industria textil.

El polietileno, considerado en un principio un plástico de uso limitado y especializado para la industria eléctrica, demostró ser un material adecuado para una gran variedad de fines.

Su producción llegó a medirse en cientos de miles de toneladas y su uso aumentó todavía más cuando en 1953 K. Ziegler inventó un proceso a baja presión, destinado a reemplazar el original de altas presiones.

En Italia, Giulio Natta aplicó el proceso de Ziegler a la polimerización del propileno, abriendo así un gigantesco mercado para el polipropileno.

Desarrollo del transistor
Para que las radios funcionen con corriente alterna, que es la suministrada por la red, es preciso rectificar esa corriente, es decir, convertirla en unidireccional.

Al principio, se utilizaron con este fin dispositivos que aprovechaban la propiedad de ciertos cristales (como la galena o el sulfuro de plomo) para permitir que la corriente pasase en una sola dirección.

transistor semiconductor

Sin embargo, durante toda la primera mitad del siglo XX, estos dispositivos fueron casi enteramente sustituidos por los tubos termoiónicos (válvulas), capaces de rectificar y amplificar una corriente.

Pero las válvulas tenían varios inconvenientes: eran voluminosas, consumían mucha electricidad y necesitaban cierto tiempo para calentarse y funcionar.

Al principio de los años 30, en los laboratorios de la empresa Bell Telephone, en Estados Unidos. W.H. Brattain había iniciado estudios detallados para desarrollar las propiedades de los semiconductores, es decir, de los materiales cuya resistencia eléctrica se sitúa entre la de los conductores (baja resistencia) y tos aislantes (alta resistencia).

Sus trabajos revelaron que los efectos superficiales en un material semiconductor pueden producir la rectificación de una corriente. Estos rectificadores tenían, evidentemente, ciertas ventajas en comparación con los tubos termoiónicos; de hecho, durante la Segunda Guerra Mundial se utilizaron rectificadores de silicio para los sistemas de radar.

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor.

El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente. Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar corrientes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio.

El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

A En 1948, John Bardeen y Walter H. Brattsin, que trabajaban en los laboratorios de la compañía de teléfonos Bell, inventaron el transistor de contacto de punto que consistía en un chip semiconductor. Tres años más tarde, un colega de ellos, William Shockley, inventó el transistor de empalme comercialmente viable. Los tres fueron galardonados conjuntamente compartiendo el premio Nobel de Física en 1956.

PARA SABER MAS…
EL DESARROLLO DEL TRANSISTOR

La industria electrónica ha sido posible gracias al descubrimiento del electrón a principios del siglo XX.

El primer impacto de este progreso científico sobre la tecnología de la vida cotidiana tuvo lugar a través de la radio. También la televisión era un producto de la nueva electrónica en la década de los 20, al igual que lo fue el radar en la década de los 30.

El invento decisivo que permitió que los aparatos electrónicos se fabricaran en unidades pequeñas, baratas y fiables fue el transistor. Éste fue inventado en 1948 y consistía en un pequeño trozo de silicio o de material semiconductor, que podía sustituir al grande y frágil tubo de vacío.

Los países más implicados en el desarrollo de la electrónica en las décadas de los años treinta y cuarenta fueron Estados Unidos, Gran Bretaña y Alemania.

En estos tres países la Segunda Guerra Mundial proporcionó un estímulo para la investigación técnica, con científicos que trabajaban con radares y ordenadores. La investigación alemana sobre los ordenadores se retrasó cuando varios científicos de ordenadores fueron llamados para la incorporación a filas. La gran corporación estadounidense de ordenadores IBM dependía mucho de los contratos de trabajo gubernamentales en los años después de la guerra, y a finales de la década de los 50, la delantera estadounidense en la industria era evidente.

Los audífonos, comercializados en 1952, fueron el primer producto de consumo que se benefició del poder del transistor. Hacia 1954 se fabricaba un millón de transistores por año.

En esta fase, todos los transistores eran unidos con alambres individualmente, pero en 1957 se desarrolló el circuito integrado, que permitió fabricar los transistores con otros componentes sobre chips semiconductores hechos con silicio.

La revolución del transistor cambió la calidad de vida a muchos niveles; también conllevó una nueva industria capaz de un espectacular crecimiento.

Ello benefició a países como Alemania y Estados Unidos con tradiciones establecidas de ciencia, y a aquellos países que buscaban un rápido progreso económico a través de la inversión en la nueva tecnología y los nuevos productos de marketing, como Japón.

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

Los avances tecnologicos aplicados en la vida cotidiana Cientificos

Los Avances Tecnólogicos Aplicados en la Vida Cotidiana

Tecnología en la vida cotidiana: Gracias a las técnicas de producción en masa, los grandes inventos de los ss. XX y XXI forman parte de nuestra vida diaria. La invención de los electrodomésticos llevó a un incremento del tiempo libre en países desarrollados, y el concepto de progreso, en sí mismo, es sinónimo de acceso a las nuevas tecnologías. El microchip tuvo un gran impacto en las comunicaciones desde que Jack Killby y Robert Noy ce lo crearan en 1959, y la nanotecnología combinada con la llegada de Internet facilitó el acceso a la comunicación instantánea global.

LA EVOLUCIÓN TECNOLÓGICA: El ser humano ha recorrido un largo camino desde que el primer Homo sapiens saliera a cazar en África hace millones de años. La tecnología, el uso de materiales naturales y artificiales con un propósito claro, ha progresado enormemente desde el Paleolítico. Aunque es tentador creer que los logros tecnológicos del hombre en los últimos siglos son únicos, es importante mantener una perspectiva histórica.

Como hemos visto en este libro, en los últimos 12.000 años se han experimentado innovaciones revolucionarias para mejorar la vida del hombre. El desarrollo de una herramienta efectiva para matar animales debió de ser revolucionario para el cazador del Neolítico, como nos lo parecen ahora las bombas inteligentes.

El cultivo de cereales en Oriente Medio fue probablemente un acontecimiento de mucha más trascendencia que el desarrollo de los cultivos genéticamente modificados, ya que cambiaron el curso de la historia del ser humano. De manera similar, la llegada de la escritura a Mesopotamia constituye un logro más importante a largo plazo que la aparición del ordenador en tiempos modernos. Son muy numerosos los ejemplos de innovaciones e inventos que han cambiado el curso de la historia de la humanidad.

Sin embargo, la característica común de los tiempos actuales, especialmente desde la Revolución industrial, recae en la velocidad con que la innovación tecnológica se ha diseminado por toda la sociedad. En el siglo XX, la organización de la innovación tecnológica sufrió un cambio profundo. La investigación y el desarrollo ya no se llevaban a cabo de manera individual, sino en grandes organizaciones, como universidades, o laboratorios industriales o gubernamentales. La infraestructura que se necesita hoy para la investigación está mucho más allá del alcance de las personas. Esta tendencia se ha pronunciado especialmente en la segunda mitad del siglo XX, con la institucionalización de la investigación tecnológica y científica.

El siglo XXI trajo aun más cambios en la manera de llevar a cabo las innovaciones tecnológicas. La aparición de Internet y de las comunicaciones rápidas y baratas ha permitido que la investigación se disperse geográficamente, una tendencia que crecerá en los años venideros. La dispersión global de la innovación tecnológica será más rápida y el acceso a tecnologías más avanzadas, especialmente en los bienes de consumo, será más fácil y estará más extendido.

Resulta arriesgado predecir qué tipos de tecnologías aparecerán en el siglo XXI. La creatividad de la mente humana es ilimitada en esencia y, por tanto, solemos equivocamos con las predicciones tecnológicas. No se puede predecir con ningún tipo de certeza qué forma tendrá la tecnología y cómo impactará en la sociedad humana. Después de todo, incluso los científicos más brillantes de principios del siglo XIX no podrían haber imaginado los viajes espaciales ni el microprocesador. Aun así, se puede decir que el progreso tecnológico seguirá avanzando a mayor velocidad en los próximos años y posiblemente hará que la vida sea más fácil para la gran mayoría de la humanidad, con desarrollos revolucionarios en medicina, transporte y comunicaciones.

No obstante, el medio ambiente empieza , protestar, como se hace patente en el calentamiento global y en la disminución de la capa de ozono, por lo que deberíamos ralentizar los avances tecnológicos por el bien de las generaciones futuras. Sí bien en el siglo XXI ya hemos empezado a trabajar por el entorno, deberíamos fomentarlo más en el futuro.

Internet: En 1989 la WWW se inició para el Consejo de Europa de Investigación Nuclear. Nueve años después, un vehículo de seis ruedas, de menor tamaño que una hielera de cervezas, rodaba por la superficie de Marte y fue visto por internet uniendo la imaginación colectiva con la misión Mars Par Finder de la NASA. Al finalizar el 11 de septiembre de 1998, Internet demostraría su eficacia al poner a disposición de millones de usuarios de la World Wide Web, en un simple disco de 3.5 pulgada; en menos de 24 horas, toda la información sobre los escándalos sexuales de Bill Clinton. El forma:: facilitó a sus receptores acceder a cualquier detalle gráfico con sólo oprimir una tecla. Adema; e Reporte Starr, como se conoció al informe sobre el affaire Clinton, tenía la ventaja de estar completo. Ningún otro medio de comunicación lo presentó de esa manera.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letra; escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museo; estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuerna-con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y liste La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza.

Internet constituye un instrumento importante para la movilización de capitales, ya que éste pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Primeros Ordenadores Electrónicos Evolución Histórica

Primeros Ordenadores
Historia de la Computación

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor. El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente.

Primeros Ordenadores a Válvulas

Primeros Ordenadores a Válvulas

Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar comentes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio. El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

Los primeros ordenadores electrónicos
Una buena forma de determinar la importancia de un adelanto técnico es considerar las consecuencias de su repentina desaparición. Un colapso general y prolongado de los servicios básicos, como el suministro de agua y electricidad, las telecomunicaciones, el transporte público o el sistema de alcantarillado, produciría en poco tiempo el caos y resultaría imposible mantener las condiciones de vida normales.

A fines del siglo XX, otra innovación tecnológica llegó a considerarse entre los elementos esenciales para mantener la normalidad de la vida cotidiana: el ordenador. Originalmente, no era más que un instrumento de cálculo, pero llegó a convertirse en un instrumento sumamente complejo de archivo y recuperación de la información.

Primeros Ordenadores

Primeros Ordenadores Para Uso Militar y Científico

Actualmente forma parte de la vida cotidiana hasta tales extremos que resulta difícil advertir que no existía, en su forma electrónica moderna, en los años de la preguerra y que los económicos ordenadores personales de fines del siglo XX tienen una capacidad mucho mayor que los gigantescos prototipos de los años 40. A fines de los años 80, se calculaba que el mercado mundial de los ordenadores había alcanzado una cifra anual de 100.000 millones de dólares: una hazaña notable para una industria tan joven.

El ASCC (Automatic Sequence Controlled Calculator), construido en Estados Unidos por IBM en 1944, puede considerarse el prototipo original de los ordenadores modernos. Aunque era básicamente un aparato electrónico, contenía muchos dispositivos mecánicos emparentados con los presentes en un extenso linaje de máquinas anteriores, cuya historia se remonta a la máquina de sumar del matemático francés Blaise Pascal, de 1642, y al aparato bastante más complejo del alemán Gottfried Leibniz, construido 30 años más tarde.

El ASCC era un auténtico dinosaurio: pesaba cinco toneladas, tenía 16 m de longitud y contenía 800 Km. de cables eléctricos. Para los criterios actuales, su capacidad de multiplicar dos números de 11 dígitos en 3 segundos resulta poco impresionante, ya que los tiempos de operación de los ordenadores de hoy en día se miden en millonésimas de segundo.

El sucesor del ASCC fue el ENIAC (Electronic Numerícal Integrator and Calculator) que, aparte de algunos conmutadores utilizados para controlar los circuitos, era completamente electrónico. Fue construido en la Universidad de Pennsylvania por J.P. Eckert y J.W. Mauchly, con el propósito original de utilizarlo en tiempo de guerra para calcular tablas balísticas. Sin embargo, no estuvo liste hasta 1946. El ENIAC era también una máquina gigantesca, dos veces más voluminosa que el ASCC. Contenía por lo menos 18.000 válvulas termoiónicas y, al rendimiento máximo, consumía 100 kilovatios de electricidad.

ENIAC

ENIAC

Dispersar el calor resultante era un problema en sí mismo. Para programar el ENIAC, era precise mover conmutadores y hacer conexiones manualmente, mientras que el ASCC se programaba con cintas perforadas. Los dos métodos tenían sus ventajas, pero ambos eran básicamente lentos y tediosos.

Para el siguiente paso, los técnicos volvieron a inspirarse en el siglo XIX, concretamente en la máquina analítica construida por el inventor inglés Charles Babbage en torno a 1830. Sorprendentemente, una de su; más fervientes publicistas fue lady Lovelace, hija de lord Byron, que señaló que muchos cálculos exigían la repetición de una secuencia determinada de operaciones y que sería posible ahorrar tiempo y trabajo si se conseguía que la máquina se ocupara de esos cálculos automáticamente. En efecto, el ordenador debía disponer de una memoria.

Incluso antes, en el siglo XVII, Leibniz había sugerido que para el cálculo mecánico era más sencillo utilizar la notación binaria, en lugar de la decimal tradicional. En esa notación, todos los números se expresar, con dos dígitos, O y 1, y no con los diez utilizados (de-O al 9) en la notación decimal. Para una calculadora electrónica, esta idea resulta particularmente adecuada, ya que corresponde a las dos modalidades eléctricas: «off» y «on».

Estos dos conceptos fueron incorporados por Johr. von Neumann, también de la Universidad de Pennsylvania, en una máquina mucho más avanzada, e. EDVAC (Electronic Discrete Variable Automatic Computer). En este aparato, la «memoria» consistía en pulsaciones sónicas conservadas en una columna de mercurio. A principios de los años 50 apareció ur. dispositivo de memoria más complejo, basado en el hecho de que la dirección de la magnetización en ciertos materiales denominados ferritas se puede invertir cas: instantáneamente, siguiendo la dirección de la corriente eléctrica en un circuito conectado.

Por entonces, el ordenador se estaba adelantando a sus posibilidades: realizaba las operaciones con más rapidez que el ritmo con que la cinta perforada podía suministrarle las instrucciones. El siguiente paso consistió en grabar el programa de operaciones en una cinta magnética, semejante a las utilizadas para la grabador del sonido.

Este adelanto fue incorporado en 1956 a UNIVAC de Remington-Rand, el primer ordenador electrónico disponible en el mercado, ya que los pocos modelos anteriores habían sido construidos para fines especiales a un enorme coste. Por este motivo, el público en general ignoraba casi por completo los adelantos en el mundo de los ordenadores.

La situación cambió considerablemente en 1951 cuando el UNIVAC original, diseñado para procesar la información del censo en Estados Unidos, previo acertadamente la elección de Dwight Eisenhower como presidente.

El Poder Ruso Antes de la Caida del Comunismo Guerra Fria

ARMAMENTO RUSO Y ATÓMICO MUNDIAL EN LA GUERRA FRÍA

Estoy a bordo de un MIG-29, uno de los aviones de combate más modernos producidos por la industria de la extinta Unión Soviética. Hace tan sólo cinco años, desde estas mismas páginas, lo bautizamos casi proféticamente como la última estrella roja y era casi un secreto. Ahora, en su afán por conseguir liquidez monetaria en divisas, las autoridades rusas esperan exportar este aparato y otros muchos en un intento casi desesperado por rentabilizar una tecnología conseguida a costa de la derrota en la guerra tría.

Para empezar, sin embargo, se enfrentan con el fuerte lastre mental de sus posibles compradores occidentales; la idea fija de que los productos soviéticos—ahora rusos— son fuertes y resistentes, pero anticuados.

Las continuas derrotas en el campo de batalla de los países equipados con este material, a manos de aliados o de los propios occidentales, eran la prueba más evidente. Y cuando los hechos parecen demostrar lo contrario, se afirma que, aunque cumplen su cometido, ni su acabado ni su tecnología están a la altura de lo que se produce en occidente. No importa que los soviéticos hayan sido capaces de fabricar los mejores tanques de guerra de la Segunda Guerra Mundial, ni los mejores subfusiles y fusiles de asalto.

Nadie parece acordarse de que el primer caza monoplano con tren de aterrizaje retráctil y cabina cerrada que funcionó en el mundo era soviético. Se ignora conscientemente lo que sucedió en Corea o en Vietnam, donde los MIG-15, MIG-17 y MIG-21 hicieron las cosas tan difíciles a los americanos que tuvieron que cambiar sus tácticas y sus métodos de entrenamiento para salir del paso. El recuerdo del derribo del U-2 de Gary Powers —y de otros muchos similares sobre Cuba y China— ha pasado a mejor vida.

Pero los cambios en el Este trajeron indicios de que la verdad era muy diferente. Los aviadores de la República Federal de Alemania pudieron atisbar la realidad al incorporar a su fuerza aérea unos cuantos MIG-29. Antes de la guerra del golfo Pérsico, algunos pilotos de caza occidentales —norteamericanos y europeos— tuvieron la oportunidad de volar estos aparatos con la intención de comprobar sus virtudes y defectos, a fin de poder enfrentarse con éxito a los que poseía Irak. Los holandeses afirmaron con rotundidad que el caza de Mikoyan era soberbio y, en algunos aspectos, «supedor al McDonnell F-1SC».

Algo que resulta bastante singular, puesto que el aparato norteamericano es de superioridad aérea y el MIG-29 se parece más, en tamaño y misiones, al ligero F-16. Pero más sorprendente es aún que lo que impresionó a los pilotos occidentales no fue sólo el excelente comportamiento y maniobrabilidad del Fulcrum —apodo que la OTAN asignó al MIG-29—–, sino la eficacia de sus sistemas de armas y sensores.

De todas formas, el MIG-29 no es el único representante de la tecnología militar rusa que ahora maravilla a Occidente. Expuesto públicamente por primera vez en el Salón de París de 1989, el Sukhoi Su-27 es un caza de superioridad aérea similar al F-15 norteamericano. Sus vuelos de demostración en aquella exhibición dejaron literalmente boquiabiertos a los expertos occidentales que los contemplaban.

No sólo era capaz de realizar las caídas de cola del MIG-29, una maniobra que consiste en trepar en vertical, invertir el flujo de los motores y caer un trecho hacia atrás en pérdida abatiendo la trompa, para recuperar la horizontal y salir en vuelo nivelado. Incluso llegó a volar en actitud completamente encabritada, de forma parecida a la de una serpiente cobra en posición de ataque. De ahí su bautizo como cobra de Pugachev, por el nombre del piloto de pruebas que realizaba la exhibición. Una maniobra que resulta prácticamente imposible para cualquier caza occidental.

Igual que en el caso del MIG-29, los sistemas de armas y sensores del Su-27 son extraordinarios. En ambos, el piloto dispone de visores de puntería en el casco que siguen sus ojos y atrapan el blanco al que miran. Una mirada mortal. Su alcance, sin depósitos auxiliares ni reabastecimiento en vuelo, es de 4.000 Km. —unas cinco horas de travesía—, prácticamente el mismo que el del F-15 con depósitos.

El coronel Bokach, por el interfono, me saca de mi ensimismamiento para avisarme de que hemos llegado al rendez-vous con nuestro modelo fotográfico.

Efectivamente, ahí está. Magnífico, con su color gris claro apenas recortando su agresiva silueta sobre el cielo: es un MIG-31 Foxhound de la Defensa Aérea. Un birreactor de interceptación desarrollado a partir del conocido MIG-25, cuyos sistemas electrónicos todavía desconciertan a quienes hasta hace muy poco se atrevían a decir que la electrónica era el terreno más deficiente de la tecnología militar soviética.

Su gran radar Zaslon es el único de antena múltiple de elementos en fase montado en un aparato de caza, y el área de vigilancia que domina es de 200 km en modo normal y de 120 km en exploración hacia abajo.

Este radar es capaz de detectar y seguir 10 blancos a la vez, fijándose sobre cuatro de ellos al mismo tiempo. Incluso puede hacerlo con los que estén situados por detrás. Tampoco sus misiles parecen tener mucho que envidiar a los occidentales de su tipo.

Desde una altura de unos 6.000 metros, los AA-9 guiados por radar logran alcanzar blancos que vuelen a 60 m sobre el terreno, una de las situaciones más difíciles en que puede encontrarse un interceptador. Como todos los cazas recientes de la antigua Unión Soviética, los MIG-29 y Su -27, el Foxhound dispone de un sensor-seguidor infrarrojo para explorar y guiar los misiles térmicos AA-6 (R-40T) y AA-8 (R UOT).

Este censor es especialmente útil en ambientes de guerra electrónica, ya que es inmune a las contra-medidas. El complemento tradicional es un cañón fijo AO-9 bitubo de 23 mm con una cadencia de 8.000 disparos por minuto. Un arma que en tiempos de paz es más apropiada que los misiles para sus misiones de guardián de fronteras.

Ahora, este temible guerrero que es capaz incluso de encontrar a sus enemigos en las inmensidades polares —donde la navegación es extremadamente difícil— posa dócilmente para la cámara. Por el objetivo veo a sus pilotos, el coronel Vladimir Gurkin y el mayor Mijail Garbunov, acostumbrados a acercarse a los posibles intrusos para identificarlos y a dominar el vuelo en formación.

La unidad básica de estos aviones en combate es de cuatro aparatos separados entre sí unos 200 km y conectados mediante enlaces digitales de datos, de forma que el área de exploración cubierta abarque de 800 a 900 km.

El jefe de la formación recibe todos los datos y mantiene además un cordón umbilical automático con tierra. Sin titubeos, para que pueda fotografiarlo desde todos los ángulos, el MlG-31 hace un tonel volado y muestra su parte inferior. Varios virajes y cambios de posición completan la sesión. No parece molestarles volar a velocidades tan bajas, el MIG puede alcanzar los 3.000 km/h, pero una vez acabados los carretes se despiden con otra voltereta y encienden la poscombustión para alejarse.

Es hora de volver a Kubinka. Con un viraje pronunciado, el MIG-29 da la vuelta sobre el ala y se dirige de inmediato hacia tierra. Pinchamos las nubes y otra vez estamos sobre las inmensas extensiones arboladas que rodean la base. Nos colocamos en la posición de aterrizaje y, sin corregir, el avión golpea de nuevo con suavidad el asfalto de la pista. Una corta carrera y noto abrirse los paraf renos, el aparato casi se inmoviliza.

Rodando ya con suavidad, nos dirigimos al estacionamiento donde nos aguardan sonrientes quienes han tenido la mala suerte de quedarse esta vez en tierra. Saludos, enhorabuenas. Todo es acogedor entre estos hombres, hasta hace muy poco nuestros feroces enemigos. Seguirán exhibiciones de otros muchos aviones. Las Fuerzas Aéreas rusas preparan para dentro de unos días una presentación ante las autoridades y el público. Necesitan fondos, como todos en este inmenso país. La industria aeronáutica, en vías de privatización, también precisa dinero; no sólo para continuar existiendo, sino también para mantener el nivel tecnológico alcanzado.

Algunos de los antiguos equipos de diseño se ofrecen para colaborar con la industria aeroespacial occidental. Y abundan las propuestas concretas. Sukhoi, por poner un ejemplo, ha ofertado el S-80 (un transporte bimotor civil parecido en dimensiones al conocido Aviocar español, con una extraña configuración biplana en tándem) y el birreactor ejecutivo supersónico S-51, que también está disponible en las mesas de dibujo y los ordenadores de Sukhoi. El 8-51 es un doble delta sin cola, capaz de transportar 51 pasajeros a dos veces la velocidad del sonido y con un alcance del orden de los 8.400 km.

La industria aeroespacial rusa dispone en estos momentos de aviones y helicópteros que podrían quitar el sueño a los departamentos de marketing de muchas firmas occidentales que, a veces, pretenden sacar tajada del árbol caído. Estas llegan a proponer incluso que, por citar un caso, el ejército británico adopte como su futuro helicóptero de combate al muy capaz Mil Mi 28 Havoc, convenientemente motorizado con plantas británicas y dotado de una aviónica más moderna.

Algo que resulta cuando menos contradictorio: el Mi-28 dispone de sensores térmicos, de televisión y laséricos similares a los del ahora famoso Apache norteamericano. La experiencia en gigantes como los bombarderos TU-95 y 142, dotados de turbohélices de 15.000 hp (caballos de potencia), ha permitido a los rusos construir los dos aviones más grandes del mundo: los Antonov An-124 y An- 225, sobradamente conocidos. No deja de ser irónico que, al menos en el sector aeronáutico, la URSS perdiera la carrera de armamentos cuando ya se encontraba en el podio de los vencedores.

ARMAMENTO RUSO Y ATÓMICO MUNDIAL EN LA GUERRA FRÍA

EL ARMAMENTO ATÓMICO EN EL MUNDO: La orientación de las investigaciones, después de la segunda guerra mundial, ha dado preferencia al armamento atómico sobre los medios bacteriológicos o químicos cuyos efectos podrían ser análogos. Actualmente, el armamento nuclear comprende necesariamente bombas A (atómicas), y accesoriamente bombos H (hidrógeno). Son dispositivos complejos, y los primeros utilizan la fisión del uranio o del plutonio; los segundos, la fusión del hidrógeno provocada por una bomba A que sirve de detonador.

La bomba A puede ser probada en ensayos subterráneos, mientras que la bomba H debe ser ensayada, necesariamente, al aire libre. Además, este tipo de armamento comprende un medio de transporte que puede ser un avión bombardero (vulnerable, a causa de su pequeña velocidad y necesidad de pistas de despegue; ésta es la solución provisional adoptada por Francia e Inglaterra); o bien, cohetes intercontinentales de alcance variable: ICBM (Inter Continennental Balístic Missile), IRBM (Intermédiate Range Balistic Missile), que pueden lanzarse desde submarinos (Polaris) a desde bases terrestres (Minuteman). Estos cohetes son actualmente casi invulnerables en vuelo, y tienen una gran precisión (2 Km. a 10.000 Km. para los ICBM, o a 4.600 Km. para los IRBM). Solamente los poseen los EE.UU. y la URSS.Para interpretar estas cifras, debe tenerse en cuenta que, durante la guerra 1939-1945, se lanzaron sobre Alemania 5 millones de toneladas de explosivos clásicos.

Este armamento se completa con una red de alerta (radar, satélites de reconocimiento). Los depósitos de bombas en el mundo parecen ser los siguientes:

NúmeroPotencia Media
de Cada Bomba en ton. de explosivos
clásicos
EE.UU.40.000de 5 a 20 millones
URSS5.000de 5 a 20 millones
Francia1050.000
InglaterraNo hay datosSin datos

Se estima que los Estados Unidos poseen unos 1.000 cohetes de varios miles de kilómetros de alcance, y la Unión Soviética, una cantidad equivalente. Uno de estos cohetes, lanzado desde una base subterránea o un submarino, alcanza su máxima elevación en órbita, en 10 minutos, a 100 Km. de altura, con una velocidad de 24.000 Km. por hora. Un objetivo situado a 10.000 Km. es alcanzado en 30 minutos.

Una bomba de 10 megatones tiene, al explotar, un radio de destrucción total de unos 2,5 Km., si la explosión es al nivel del suelo. La misma bomba, explotando a 6 Km. de altura, destruiría totalmente una zona de 20 Km. de radio, y devastaría una zona de 32 Km. de radio.

El efecto directo (onda de calor) en el caso de empleo contra una zona urbana causaría 100.000 muertos por megatón. Una sola bomba sobre Roma destruiría por completo la ciudad (daños mortales, hasta Ostia). Naturalmente, este esfuerzo en la producción de armamento se traduce en gastos considerables:

Gastos anuales de defensa por habitante, en dólares:

Estados Unidos ………….. 289,6
URSS……………………….146,5
Inglaterra ……………….. 108,2
Francia ………………….. 95,7
Rep. Federal Alemana …. 92,7
Italia………………………24,4

Estas cifras contrastan con las de la producción bruta por habitante, en dólares, de algunos países:

República del Congo………….62
Nigeria …………………………67
India…………………………… 68
Túnez………………………… 157
República Sudafricana …….. 299

submarino atomico

La Ciencia Rusa Post Guerra

Nota Extraída de: Muy Interesante Nro:86
Enviado Especial a Rusia

Hermanos Lumiere Primera Proyeccion de Cine Historia del Cine

Hermanos Lumiere- Historia Primera Proyección de Cine –

Los hermanos Lumiére nacieron en Besancon (Francia). Su padre, Antoinc Lumiére, natural de Haute-Saóne, fue la persona que mayor influencia tuvo en los posteriores descubrimientos de sus hijos, ya que éstos heredaron de aquél una tremenda pasión por la fotografía y todo lo que se relacionara con ella.

Desde pequeños, los Lumiére fueron educados en las posibilidades que ofrecía el nuevo arte, hasta tal punto que cuando sólo contaban doce (Auguste) y diez (Louis) años recibieron como regalo los materiales indispensables para la construcción de una máquina de fotografiar. Ya anteriormente, en 1870, cuando se instalaron en Lyon, Auguste y Louis, acompañados por Jeanne, hija menor de los Lumiére, habían empezado a experimentar con la cámara fotográfica.

Poco imaginaban entonces los Lumiére que con el tiempo (cerca de diez años les costó llevar a término la gran aventura de sus vidas) aquel entusiasmo que sentían por la fotografía iba a plasmarse en el invento del cinematógrafo, invento que por un lado supondría la creación de un nuevo arte de expresión, aunque ellos no lo concibieran como tal en aquel momento, y por otro una inapreciable ayuda , una vez perfeccionado, a todos los campos de la cultura.

ANTECEDENTES HISTÓRICOS: En las últimas décadas del siglo XIX y las primeras del siglo XX surgió y se afianzó un conjunto muy significativo de innovaciones tecnológicas que tuvieron una gran incidencia en la calidad de vida de la población. Una breve enumeración puede dar una idea de su importancia para la vida cotidiana: el teléfono, la iluminación eléctrica, el motor de explosión, el neumático, los sistemas de agua corriente, la máquina de escribir, el ascensor, la bicicleta, la aspiradora, el automóvil, el aeroplano, el frigorífico, el fonógrafo, el cinematógrafo, la aspirina.

los hermanos lumiere

El avance en la investigación médica, con los descubrimientos de las vacunas y los avances en las condiciones y técnicas quirúrgicas, condujo a una mejora en las condiciones de salud de la población. Pero sobre todo fueron los desarrollos de los sistemas de saneamiento e higiene urbanos los que permitieron controlar enfermedades que, hasta esa época, habían tenido consecuencias fatales.

Aparecieron y se difundieron nuevas formas de esparcimiento y entretenimiento. La afición por los deportes se extendió rápidamente, si bien las exigentes condiciones de trabajo que soportaban los obreros limitaban su posibilidad de practicarlos. En 1896, se llevaron a cabo en Atenas los primeros Juegos Olímpicos de la era moderna. La mejora de las calles y rutas facilitó la difusión de uno de los símbolos populares del progreso de fm de siglo: la bicicleta. La bicicleta comenzó siendo un lujo al alcance de los ricos.

Más tarde su uso se generalizó y se convirtió en un medio de transporte popular. El nuevo lujo de los ricos pasó a ser el automóvil. La producción anual de automóviles era limitada; en 1900 se fabricaron solamente 9.000 autos en todo el mundo. El salto en la fabricación se produjo con el modelo T de Ford: en 1916 se fabricaron 735.000 unidades solamente de este modelo.

https://historiaybiografias.com/linea_divisoria3.jpg

HERMANOS LUMIÈRE
Inventores del séptimo arte

Científicos autodidactas e inventores talentosos, Auguste y Louis Lumière dieron vida a la fotografía al inventar una de las artes más importantes del siglo xx, el cine. A menudo se ignora que también fueron los padres de la fotografía en color.

Sin embargo, el descubrimiento de los Lumiére carecería de toda su dimensión si no citáramos a los grandes aportadores de ideas que a través de muchos años de investigaciones lo precedieron: Peter Mark Roget (1779-1869), sit Challes Wheatstone (1792-1875), Michel Faraday (1791-1867), Joseph Plateau (1791-1883), Edward Muybridge (1830-1904), J. J. César Jannsen (1824-1907), Etienne Jules Marey (1830-1904), Louis-Aimé-August Leprince (1842-1890), William Friese-Greene (1855-1921) y, fundamentalmente, Thomas Alva Edison (1847-1931). Todos ellos contribuyeron en alguna forma y a través de sus experimentos, que luego serían aprovechados por los Lumiére, al descubrimiento del cine.

¿Cómo fueron los inicios de los hermanos? Claude-Antoine Lumiére estaba orgulloso de sus dos hijos. Transmitió a Auguste, nacido en 1862, y a Louis, dos años menor, su pasión por la fotografía.

En el estudio de Lyon de la familia Lumiére, ambos niños se familiarizaron con las técnicas para hacer tomas y los procedimientos para desarrollar negativos, aprendiendo muy pronto todo lo que había que saber sobre la exposición de las placas, el lavado, el barnizado … Alumnos brillantes, ambos hermanos ingresaron en el liceo La Martiniére, donde obtuvieron numerosos premios; sin embargo, debido a sus constantes e intensas jaquecas no pudieron preparar el concurso para ingresar en la Escuela politécnica.

No les fue necesario asistir a este prestigioso establecimiento, ya que muy pronto se convirtieron en distinguidos químicos.

En el estudio de su padre, la pareja de jóvenes se interesó por los experimentos que este último había emprendido para desarrollar emulsiones más eficientes, y en 1881 elaboraron una fórmula sobre base de gelatina y bromuro para recuperar las placas fotográficas. Ese mismo a Auguste tuvo que hacer el servicio militar. Sin embargo, Louis no abandonó investigaciones, y por su cuenta desarrolló una placa seca sobre la base de gelatina y bromuro de plata, que comercializó con un éxito increíble bajo el nombre «Etiquetas azules».

¿Cuáles son los antepasados del cine? El cine tiene tras de sí una larga historia plagada de intentos de reproducir imágenes en movimiento. Los aparatos antiguos que hoy sólo se utilizan como curiosidad y documentos, fueron los primeros pasos de la técnica cinematográfica. Uno de sus antepasados directos es la linterna mágica que construyó el alemán Athanasius Kircher, en 1646. Se trataba de un aparato formado por una sencilla caja con un agujero donde iba fijada una lente. En la caja había una lámpara de aceite.

Entre la lámpara y la lente se colocaba una plancha de vidrio pintada con imágenes, que se proyectaban sobre la pared blanca. Cuando, un siglo más tarde, se conoció el principio de la persistencia de las imágenes en la retina del ojo humano, se dieron nuevos intentos, pero hasta la llegada de la fotografía no se pensó en la posibilidad de crear instrumentos capaces de reproducir una serie continua de fotografías de modo que se crease la ilusión de movimiento.

¿Cuándo nació oficialmente el cine? Los hermanos franceses Louis y Auguste Lumiere consiguieron, tras muchos intentos fallidos, presentar en público su invento, ofreciendo la primera proyección cinematográfica la noche del 28 de diciembre de 1895: se organizó una demostración de pago en los bajos del Grand Café de París, organizada por Clément Maurice. La entrada valía un franco y asisistieron 33 personas. Los hermanos Lumiere llamaron «cinématographe» al instrumento que servía al mismo tiempo para la toma de imágenes en movimiento y su proyección en una pantalla. Hoy en día no quedan rastros del Grand Café, pero en el número 14 de la calle, entre modernas tiendas, puede leerse una lápida de mármol que recuerda el memorable acontecimiento.

¿Cuáles fueron las primeras películas? El primer cortometraje se titulaba La salida de los obreros de los talleres Lumière y recogía una instantánea de la realidad. Otras películas fueron La llegada de un tren a la estación y la divertida El regador regado. ¿Cómo reaccionó el público? La proyección suscitó un gran entusiasmo. El público se sentía fascinado en aquella atmósfera de maravilla creada por el artilugio de los Lumiere, cuando veía el tren que expulsaba humo y a los viajeros bajar y subir como si estuvieran «allí mismo», y se divertía con el gracioso jardinero que en vez de regar las flores se regaba a sí mismo.

¿Cómo reaccionó la crítica? Para los espectadores de aquella velada el cine fue una maravilla de la técnica. Entre el público también había periodistas; uno de ellos comentó que el espectáculo era de una autenticidad increíble, otro escribió: «Este es uno de los momentos más extraordinarios de la historia de la humanidad».

¿Cómo se difundió? El éxito fue inmediato y clamoroso. Las películas de los Lumiere dieron la vuelta al mundo desde 1896, llevando a todos los lugares el conocimiento de su extraordinario invento. Así nació la industria cinematográfica y con ella una nueva forma de expresión artística.

¿Cuál es el mérito de los Lumière? En la velada de la proyección, los hermanos no se encontraban en la sala porque se sentían vencidos por la fatiga y, quizás también por la emoción. Fue su padre quien organizó el histórico acto. El cine era ya una realidad, a ellos les cabe el mérito de haber puesto a punto una cámara más eficaz que las anteriores y de haber iniciado la difusión de este nuevo medio de comunicación en todos los países del mundo, adonde llegaron sus técnicos y sus cámaras portadoras de ciencia, pero también de sueños e ilusiones.

La familia Lumiére instaló en el barrio de Montplaisir una tienda de artículos fotográficos, que al poco tiempo y merced a una fórmula inventada por Louis, se convirtió en una fábrica, en la que se hacían placas secas al gelatino bromuro de plata, gran novedad por aquella época. Debido a la poca atención que el padre de los Lumiére prestaba a la fábrica, ésta estuvo a punto de quebrar, pero gracias a la dedicación de Auguste y Louis se consiguió enderezarla y se convirtió en una empresa importante y saneada, lo que con el devenir de los acontecimientos fue muy importante, pues permitió a los her-‘ manos Lumiére dedicarse plenamente a fines investigadores.

LA EMPRESA LUMIÈRE: La comercialización no estuvo exenta  de dificultades, pero la tenacidad de Lumiére fue tal que evitaron por poco la quiebra. Louis, liberado de sus o obligaciones militares después de un año se reunió con su hermano y juntos, e vencidos del éxito que tendrían sus casas fotográficas, decidieron lanzarse a aventura industrial. Con la ayuda financiera de varios amigos de la familia, Louis y Auguste pudieron formar su empresa cuyo plantel contaba con una decena empleados a fines de 1884.

Cuando estaban ocupados analizando sus fórmulas químicas, ambos inventores perfeccionaban sus habilidades como empresars negociando encarnizadamente la me innovación, patentando sus inventos creando sus propias máquinas herramienta para mejorar la producción. La puesta a punto de las «Etiquetas azules extrarrápidas» resultó un triunfo comercial y la fortuna parecía asegurada, no obstante, ambos hermanos no pretendían sentarse en los laureles, por vía ignoraba su existencia.

Se filmaron pequeñas escenas para una proyección pública que tendría lugar en París. El 28 de diciembre de 1895, en el Grand Café du Boulevard des Capucines se realizó la primera función pública —y pagada— del «Cinematógrafo Lumiere». El programa ofrecía: Salida de los obreros de la fábrica Lu,niére en Lyon, Escena infantil, Los peces roios, La llegada del tren, El regimiento, Herrador, Jugadores de cartas, Destrucción de las malas hierbas, El muro y finalmente Baños en el mar. El entusiasmo fue inmediato y espectacular. La muchedumbre se agolpó en el boulevard e incluso en las calles adyacentes, para poder divisar las famosas «imágenes en movimiento».

Georges Méliés, director del teatro Robert ­Houdin, y muchos otros ofrecieron sumas desorbitadas a los Lumiere para comprar su procedimiento, pero Auguste y Louis rechazaron categóricamente todas las propuestas. No tenían intenciones de despojarse de su invento y se dieron cuenta de la ventaja financiera que podrían sacar.

El cine no estaba a la venta, sería explotado por concesionarios a cambio de una «módica» suma, el 50% de los ingresos. Para lanzar su cinematógrafo, ambos hermanos no dudaron en proporcionar gratuitamente los aparatos, las películas y hasta los operadores. Pronto, en toda Francia, y luego en el mundo entero, todos deseaban tener cines.

Por un tiempo, el cine fue considerado una atracción menor, incluso un número de feria, pero cuando George Méliès usó todos sus recursos para simular experiencias mágicas, creando rudimentarios -pero eficaces- efectos especiales, los noveles realizadores captaron las grandes posibilidades que el invento ofrecía. De esta manera, en la primera década del siglo XX surgieron múltiples pequeños estudios fílmicos, tanto en Estados Unidos como en Europa.

Louis Lumiére poseía una doble faceta: la de investigador y la de inventor. Esta doble faceta, que entraña una gran imaginación, fue sin duda la característica esencial de su trabajo experimentador. Fue él quien realizó prácticamente todos los trabajos que llevaron al descubrimiento del cinematógrafo, aunque Auguste, que estaba mucho más interesado por la biología y la química.

Auguste falleció en Lyón, (1954) y Louis  en Bandol, Francia, (1948), ambos fueron filántropos, es decir apoyaron proyectos de obras para bien social a traves de aoportes económicos. Actualmente su cámara de fotografía color esta en el museo de cine de Paris, con la de George Méliès.

Desde el sábado 28 de diciembre de 1895, en que en el Gran Café de París, Francia, se realizó la primera proyección pública de Ja primera película rodada por los hermanos Lumiére, titulada «Salida de los obreros de las Fábricas Lumiére, en Lyon-Mont-Plaisir», la cinematografía alcanzó los progresos y éxitos ya citados, tanto en el campo de las artes como en el de las ciencias.

En efecto, el cinematógrafo, que únicamente debería emplearse para recrear, es decir, para divertir, alegrar y deleitar, sin caer en faltas de arte, gusto y méritos estimables, se utiliza, además, para ampliar nuestros conocimientos o hacernos adquirir otros que por razones de tiempo, distancia, etc., no los podríamos alcanzar. Así, por ejemplo, nos permite conocer otros pueblos, sus bellezas naturales, monumentos, costumbres y progresos.

También, gracias a él, los estudiantes y profesionales, de medicina por ejemplo, pueden presenciar las operaciones realizadas a miles de kilómetros por un cirujano famoso. Además, aquéllos y otras personas pueden ver por medio de una película cómo se realizan trabajos en un laboratorio, cómo se comportan los animales en sus ambientes naturales, o ver elmovimiento de la sangre y de sus corpúsculos en ciertos tejidos de un animal.

Con los citados fines pedagógicos la toma de vistas se hace, según convenga, con ritmo más lento que el que después se empleará en su proyección. Por ejemplo, para mostrar el desarrollo de una planta se toma una vista por hora durante dos meses, para dar luego, durante la proyección de las  imágenes,que durará alrededor de un minuto, la idea del crecimiento de aquélla. Distinta de esta cinematografía, denominada acelerada o rápida, existe la llamada lenta o ralenti, que consiste en tomar con ritmo rapidísimo imágenes que se proyectarán con ritmo lento. Este sistema se emplea para estudiar, por ejemplo, los efectos de una explosión.

En el aspecto pedagógico y en otros, el cinematógrafo reemplaza con ventaja o eficacia algunos de los asuntos de la enseñanza que se transmiten por medio de los libros, láminas, etc., o del encerado en las escuelas. Ello ha motivado que muchos establecimientos educacionales cuenten con importantes cinetecas o cinematecas, es decir, de depósitos de películas educativas. El uso de los medios audiovisuales proporciona más   conocimientos.

PRINCIPIO BÁSICO DE FUNCIONAMIENTO

La persistencia de las imágenes en la retina durante un lapso comprendido entre 1/10 y 1/16 de segundo fue aprovechada por los técnicos en fotografía, quienes idearon un sistema de proyecciones sucesivas, efectuadas a una velocidad tal que nuestra mente, antes de notar que ha desaparecido un cuadro, ya está viendo el siguiente. De este modo, los ojos «no se dan cuenta» de que la pantalla se ha oscurecido momentáneamente.

Para reflejar el movimiento de un futbolista que está convirtiendo un gol, por ejemplo, se necesitan unas cincuenta fotografías. Se las revelaba luego en tiras de 35 milímetros de formato o ancho  y se las proyecta en forma sucesiva y a la misma velocidad con que fueron sacadas; se logra así la impresión de que «estamos» en un estadio viviendo la emoción del evento deportivo.

El proyector, provisto de un sistema de lentes que concentran una potente luz, hace pasar una cinta de celuloide donde están impresas las diapositivas, cada una de las cuales proyecta un cuadro que es la continuación de otro anterior y a la vez se prolonga con la imagen del siguiente. El «pasado» de la película se realiza mediante un sistema de rollos cuyo movimiento giratorio constante se produce por la acción de un motor eléctrico.

Transcurrieron muchos años desde la experiencia de Edison combinando el proyector con fonógrafo– antes de que el cine sonoro se perfeccionara.

Si observamos detenidamente un trozo de cinta perteneciente a una película comercial, descubriremos que, además de una sucesión de fotos inmóviles hay, en uno de sus costados, una franja continua.

En ella puede detectarse una serie de manchas, oscuras y claras. Esto no es otra cosa que una fotografía del sonido. Allí están impresos, en forma de banda sonora, los diálogos, la música y los efectos especiales que captamos con nuestros órganos auditivos mientras nos encontramos sentados en la butaca.

El sonido se transforma en luz mediante tubos electrónicos especiales. El micrófono es el primer eslabón de la cadena. Por su acción los sonidos se convierten en impulsos eléctricos. Luego estos impulsos son transmitidos, previo paso a través de un amplificador, hacia una bombilla eléctrica cuya intensidad de luz varía de acuerdo con el aumento o disminución de los impulsos recibidos.

Esta sucesión luminosa impresiona una placa de bromuro de plata que se oscurece cuando el sonido es fuerte y se aclaracuando es débil. Este tipo de banda se llama «de densidad variable», y existe otra que es la «de área variable», en la que varía la zona oscura que abarca una línea sinuosa. Ya en la cabina de proyección, el problema fundamental consiste en volver a transformar en sonido los impulsos luminosos.

Una fotocélula o célula fotoeléctrica es la encargada de esta función. Consta de una lámina curva y una varilla, ambas de metal. La lámina está recubierta de cesio, substancia que tiene la propiedad de emitir electrones cuando la hiere la luz. Este impulso fotoeléctrico se transmite por la varilla, generándose una corriente eléctrica que se procesa en un amplificador, similar al que tiene un tocadiscos o una radio. El sonido, ya transformado, se transmite por los parlantes. Todo este proceso se realiza en décimas de segundo.

PARA SABER MAS…
La aparición del cine sonoro

Podemos afirmar que el comienzo del cine se puede fijar con exactitud: el 28 de diciembre de 1895, los hermanos Auguste y Louis Lumiére proyectaron una película sobre una pantalla, ante un público de pago, en el Grand Café de París. En el momento, el acontecimiento suscitó escaso interés, pero marcó el nacimiento de una vasta nueva industria que creció con notable rapidez. En los comienzos, sus principales centros estaban en Francia y Gran Bretaña, pero en 1915 Estados Unidos, y más concretamente Hollywood, había tomado la delantera. Cuando estalló la Primera Guerra Mundial, la industria cinematográfica norteamericana movía más de dos mil quinientos millones de dólares.

Las películas estaban dirigidas a un público masivo (aunque ya en 1925 se habían rodado largometrajes de calidad, como El acorazado Potemkin, dirigido por el ruso Seguei Einsenstein) y el repertorio era amplio, desde los informativos, entre los que destacaban los producidos por el empresario francés Charles Pathé, hasta las más jocosas comedias, como las realizadas en Los Ángeles por la Keystone, los estudios de Max Sennett, donde Charles Chaplin haría su primera película.

Desde el principio resultó evidente que ningún público aceptaba fácilmente la perspectiva de ver en completo silencio una titilante imagen, con la acción explicada brevemente por las leyendas que aparecían en la pantalla.

 Así pues, desde los primeros tiempos, era habitual que los empresarios de las salas de cine contrataran pianistas para ejecutar un acompañamiento improvisado, destinado a seguir con la música los avalares de la acción en la pantalla.

El objetivo último era, sin embargo, conseguir que los propios personajes hablaran durante la proyección de la película. Una solución evidente y que no tardó en ponerse a prueba consistía en grabar los parlamentos en un disco de gramófono y pasarlo junto con la película. Por desgracia, los resultados eran más bien confusos pues era técnicamente imposible sincronizar el sonido y la acción: los personajes decían una cosa y hacían otra.

Fuente Consultada: Hicieron La Historia Larousse- Por que se hicieron famosos? Susaeta – Wikipedia.

Ver:Peliculas Argentinas con Premio Oscar

Ver:Principales Actores de Cine Mudo

Galaxias Grupo Local Grupo de Galaxias Mas Cercanas La Via Lactea

Galaxias: Grupo Local – Grupo de Galaxias

MÁS ALLÁ DE LA VÍA LÁCTEA Como ya hemos visto, nuestro sistema estelar presenta un diámetro de 100.000 años-luz y un espesor de 20.000 años-luz en su densa parte central. ¿Contiene la Galaxia la totalidad del universo, de las estrellas, gas y polvo que podemos observar?. La respuesta es «no», puesto que los astrónomos han descubierto que nuestra Galaxia es sólo una entre muchos millones le galaxias.

Estas otras galaxias se extienden por el espacio en todas direcciones, hasta donde alcanza nuestra vista aun con la ayuda de los más potentes telescopios.

Como la Galaxia, todas ellas contienen estrellas y, posiblemente, planetas, así como gas y polvo. No obstante, los únicos planetas que hasta ahora hemos observado han sido sólo los del sistema solar, pero esto no significa que el Sol sea la única estrella del universo que tenga MI sistema planetario.

Significa, exclusivamente, que nuestros telescopios no son aún lo suficiente potentes para detectar otros planetas, si es que en realidad existen. Las incontables galaxias que podemos observar están a tal distancia de nosotros, que aun el diámetro de 100.000 años luz de nuestra propia Galaxia empieza a palidecer por su insignificancia.

Las galaxias más cercanas son visibles sólo desde el hemisferio sur. Se conocen con el nombre de Nubes de Magallanes, así denominadas en recuerdo del gran navegante Fernando de Magallanes, que fue el primero en tomar nota de su existencia durante su viaje alrededor del mundo, hace más de 400 años.

Las Nubes de Magallanes parecen trozos desgajados de la Vía Láctea; no obstante, se trata de dos galaxias independientes , a más de 150.000 años-luz de la nuestra. Y, sin embargo, las Nubes de Magallanes son vecinas muy próximas con respecto a la totalidad del universo.

Pertenecen al mismo cúmulo de galaxias que nuestro sistema estelar, al denominado «grupo local». Este cúmulo contiene por lo menos 35 galaxias, o mas. La Galaxia parece estar situada a un extremo del cúmulo, y cerca del centro se encuentra la galaxia —aparte las Nubes de Magallanes— que puede verse sin telescopio.

GRUPO LOCAL
Grupo Local

«La Vía Láctea es parte de un barrio cósmico más grande –un grupo de más de 35 galaxias conocido como el Grupo Local. Estas galaxias se mueven por el espacio como una sola unidad, unidas por su mutua atracción gravitatoria. El número de galaxias que pertenecen al Grupo Local es incierto, debido a que los astrónomos siguen encontrando nuevos residentes de este barrio galáctico. Por ejemplo, una de las galaxias del Grupo Local fue descubierta en 1997, a unos tres millones de años luz de la Tierra. Esta nueva galaxia es diminuta: sólo contiene un millón de estrellas aproximadamente, comparado con los cientos de miles de millones de la Vía Láctea.»

Dicha galaxia aparece a simple vista una mancha luminosa, tenue y nebulosa, en la constelación de Andrómeda; pero al ser fotografiada mediante un gran telescopio aparece tan nítida, que pueden verse hasta algunas de sus estrellas individuales. Esta galaxia de Andrómeda está a casi dos millones de años-luz de nosotros. La luz que esta noche veremos proveniente de allí empezó su recorrido mucho antes de. que el hombre apareciera sobre la Tierra.

La totalidad del grupo local, que tiene una configuración muy ovalada, ocupa un volumen tan grande, que es difícil encontrar alguna comparación que nos permita imaginar su tamaño. No conocemos sus dimensiones con mucha exactitud, pero parece ser que se extiende sobre una superficie de por lo menos 4,5 millones de años-luz en longitud y la mitad en anchura. Su espesor es del orden de unos 600.000 años-luz.


Al utilizar telescopios para explorar aún más lejos en el espacio, más allá de nuestro grupo local, las distancias llegan a ser inimaginables. Otras galaxias y cúmulos de galaxias, alejados 50 millones y hasta 100 millones de años-luz, son bastante frecuentes. Los astrónomos saben ahora que las galaxias pueden observarse tan lejos como sus telescopios pueden profundizar. Con los más grandes y modernos, equipados con cámaras fotográficas, podemos estudiar galaxias situadas hasta 3.500 millones de años-luz de distancia.


Durante los últimos veinte años se ha introducido un nuevo método para «ver» aún más lejos en el espacio: el radiotelescopio. Estos instrumentos sólo son radiorreceptores muy sensibles con antenas especiales. Su objeto es el de recibir, no la luz, sino las ondas de radio emitidas por las estrellas y por el gas interestelar de nuestra propia Galaxia y de las demás galaxias.

Con los radiotelescopios los astrónomos pueden sondear en el espacio con mucha mayor profundidad que mediante los telescopios ópticos. Estos nuevos instrumentos ayudan al astrónomo a formarse una idea de la totalidad del universo, un universo al que no podemos encontrar límites en la actualidad.

Distancias a las estrellas Mas cercanas Tamaños y Medidas Estrellas

DISTANCIA A LAS ESTRELLAS Y SU TÉCNICA DE MEDICIÓN

LAS DISTANCIAS DE LAS ESTRELLAS En comparación con la inmensidad del espacio, el sistema solar es un pequeñísimo y compacto conjunto de cuerpos celestes. Pero acostumbrados a considerar las distancias de nuestro propio planeta, creemos que el sistema solar es enorme.

Ya no nos sorprende cuando nos damos cuenta de que la distancia de la Tierra al Sol es casi 4.000 veces mayor que la longitud del ecuador terrestre, y que la distancia desde el Sol hasta Plutón equivale a unas 150.000 vueltas alrededor de nuestro planeta. Tales distancias son tan grandes y desproporcionadas con relación a nuestra experiencia diaria, que sólo consiguen confundirnos cuando intentamos expresarlas en kilómetros. Y cuando hablamos de distancias aun mayores, los números en sí resultan demasiado grandes para comprenderlos con facilidad.

Galaxias y estrellas del universo

Por esta razón los astrónomos han tenido que buscar otra unidad de longitud para utilizarla en lugar del kilómetro. Y la más útil que se ha encontrado hasta el momento ha sido la velocidad de la luz, que se desplaza a 300.000 Km./seg, y recorre la distancia del Sol a la Tierra en poco menos de ocho minutos y medio, y del Sol a Plutón en cinco horas y media. Por ello decimos que el Sol está a ocho y medio minutos-luz de la Tierra, y que Plutón se encuentra a cinco y media horas-luz del Sol.

Puesto que la distancia del Sol a Plutón es sólo el radio de la circunferencia del sistema solar, debemos doblar dicha distancia para expresar su diámetro —11 horas-luz—. Pero como muchos cometas se alejan todavía más que la propia órbita de Plutón, podemos decir que la totalidad del sistema solar ocupa por lo menos un espacio de unas 12 horas-luz.

Puesto que un viaje alrededor de la Tierra sólo equivale a un octavo de segundo-luz, podemos darnos cuenta de la inmensidad del sistema solar según nuestros patrones terrestres.

Y, sin embargo, sólo se trata de un pequeño punto en el espacio sideral. La estrella más próxima al Sol está situada no a segundos, minutos y horas-luz del mismo, sino a una distancia de cuatro y medio años-luz. Cuando recordamos que en un año hay casi 9.000 horas, nos damos cuenta de que el diámetro del sistema solar es muy pequeño en comparación con la distancia que nos separa de la estrella más próxima. Si expresamos ambas distancias en kilómetros, obtendremos 12.000 millones de kilómetros para el sistema solar y 40 billones de kilómetros para la estrella más próxima (que es precisamente la alfa de la constelación del Centauro, o a Centauri, visible sólo para los habitantes del hemisferio sur).

Al considerar las distancias de otras estrellas vemos que cuatro y medio años-luz están sólo «a la vuelta de la esquina». Por ejemplo, de entre las estrellas más brillantes que observamos en el cielo, Sirio está a 9 años-luz y Vega a 26, años-luz; y aun éstas son vecinas próximas. Arturo se encuentra a 36 años-luz, Capella 345 años-luz y Aldebarán a 68 años-luz y todavía no podemos considerarlas lejanas.

Sólo cuando hablamos de estrellas como la Espiga y Antares, a 220 y 520 años-luz, respectivamente, estamos tratando de estrellas realmente lejanas. Sin embargo, no hemos empezado siquiera a agotar la lista de las estrellas brillantes.

Rigel, de la constelación de Orion, se encuentra a 900 años-luz. Esto quiere decir que la luz que de ella nos llegó anoche empezó su viaje hace 900 años. El universo estelar es, por lo tanto, mucho mayor de lo que podemos imaginar cuando casualmente dirigimos nuestra mirada hacia el cielo nocturno. Hemos visto que los planetas constituyen un compacto grupo que sistemáticamente se mueve alrededor del Sol. ¿ Y qué ocurre con las estrellas? ¿Es posible encontrar cierto sistema u organización dentro de ellas? ¿Cómo se mueven, exactamente? ¿Hasta dónde se extienden en el espacio?

Preguntas de este género, que han intrigado a los astrónomos durante miles de años, sólo han podido contestarse a partir del siglo pasado. Desde luego, los hombres que vivían en cavernas se dieron cuenta de que las estrellas parecen conservar sus posiciones relativas. Este hecho permitió a los hombres primitivos agrupar las estrellas según configuraciones que les recordaban vagamente a los legendarios héroes y heroínas o a los animales salvajes que conocían.

Pero estos grupos, o constelaciones, sólo presentan tales aspectos al ser vistos por un observador terrestre. No se trata de grupos de estrellas que estén realmente cerca unas de otras en el espacio; tan sólo parecen estarlo. Cuando los astrónomos descubrieron que las estrellas también se mueven y aprendieron a medir las distancias estelares, empezaron a reconocer cierta organización en el sistema de las estrellas.

LAS DIEZ ESTRELLAS MAS CERCANAS

Próxima Centauri Distancia: 4,2 AL
Rigel Kentaurus Distancia: 4,3 AL
Estrella de Barnard Distancia: 5,9 AL
Wolf 359 Distancia: 7,7 AL
Lalande 21185 Distancia: 8,26 AL
Luyten 726-8A y B Distancia: 8,73 AL
Sirio A y B Distancia: 8,6 AL
Ross 154 Distancia: 9,693 AL
Ross 248 Distancia: 10,32 AL
Epsilon Eridani Distancia: 10,5 AL

LA MEDICIÓN DE LAS DISTANCIAS:

Cuando las estrellas cuyas distancias queremos medir son las más próximas, se emplea un recurso de la Trigonometría que se llama paralaje. Pongamos un ejemplo práctico. Si nos encontramos en un campo y vemos a mediana distancia un poste de telégrafo, al balancear nuestra cabeza podremos ver cómo el poste «se mueve» contra el fondo del horizonte, que está mucho más lejos. Desde luego que nos resultaría más fácil medir la distancia que nos separa utilizando una cinta de medición, pero ¿y si entre nosotros y el poste hubiese un río caudaloso?

En ese caso podríamos aplicar un artificio que consiste en medir el segmento aparente que se forma en el horizonte cuando, al movernos, el palo se traslada sobre él, medir la distancia real entre los dos puntos que marcan los extremos de nuestro movimiento y, finalmente, tomar los ángulos que quedan determinados ente el poste y nuestras dos posiciones sucesivas.

Esto es precisamente lo que hacen los astrónomos. Para ellos, con mover un poco el cuerpo, como hacíamos nosotros en el campo, no es suficiente, porque no hay punto de comparación entre las magnitudes de uno y otro ejemplo. Se pensó primero en trasladarse a dos puntos alejados de la Tierra y, desde allí, efectuar observaciones sincronizadas, es decir, en el mismo momento, pero también estas dimensiones resultaron escasas.

Finalmente, se pensó que lo ideal sería aprovechar que nuestro planeta se mueve en torno al Sol. De esta forma, se podría realizar una observación en enero, por ejemplo, y otra en julio (medio año después) con lo que el «balanceo» de nuestra prueba inicial pasaría a ser de unos 304 millones.de kilómetros (304.000.000.000 metros). ¡Ahora las cosas cambian! Bueno … no tanto. A pesar de esta «trampa», la lejanía de las estrellas es tal que el ángulo determinado por las dos posiciones extremas de la Tierra y la más próxima de ellas es de 1 segundo y medio (o sea el ángulo que se forma entre los extremos de una llave de valija y un punto distante a seis kilómetros de ella).

De todos modos, podemos quedarnos tranquilos, porque este valor, por pequeño que sea, puede ser perfectamente captado con los instrumentos de precisión con que cuenta nuestra sociedad actual. Se han efectuado inclusive paralajes de estrellas cuyo ángulo es inferior a la décima de segundo. La distancia de las estrellas más lejanas es mucho más difícil de determinar, ya que en ellas no se puede aplicar el método de paralajes trigonométricos.

Pero, todo tiene solución. Partamos de la base que la luminosidad de los cuerpos celestes disminuye en la medida que se encuentren más lejos. Estoes fácilmente demostrable: mayor luz dará un farol que está al lado nuestro, que otro igual ubicado a una cuadra de distancia.

Lo que nos resta hacer ahora es ver cómo podemos aplicar esto en el espacio sideral. Empecemos por aclarar que las estrellas no son «faroles iguales», lo que nos complica unpoco las cosas, ya que debemos averiguar no sólo su luminosidad absoluta, sino también la aparente.

Entendemos por absoluta, toda la luz que da; y aparente, sólo la que llega a nosotros.

La aparente se mide con facilidad por intermedio de placas fotosensibles. Para la absoluta, en cambio, las cosas se hacen un poco más complicadas. Es necesario que descompongamos la luz que nos mandan por medio de un prisma. Obtendremos así un espectro, que no es otra cosa que la luz distribuida de acuerdo con sus colores componentes en una escala que va de! ultravioleta al infrarrojo. De este gráfico se puede inferir la luminosidad absoluta de un cuerpo a partir de su temperatura intrínseca.

Después -ya obtenidos los datos de luminosidad absoluta y relativa- no queda otra cosa que aplicar fórmulas constantes que nos dan la distancia desde la Tierra hasta la estrella.

 

esquema del paralaje de una estrella

esquema del paralaje de una estrella

Fuente Consultada:
Secretos del Cosmos Tomo 2 (Salvat)
Enciclopedia Ciencia Joven -Distancia a las Estrellas  – Fasc. N°12 Editorial Cuántica