Viaje en Globo Al Polo

Records de la Aviación Civil Altura, Velocidad y Distancia

Primeros Records de Altura, Velocidad y Distancia de la Aviación Civil

Records de Distancia y Velocidad:

Al compás de la emulación deportiva y las ansias de superación, y mientras las máquinas se perfeccionaban, se fueron registrando marcas de las que mencionaremos las más notables de la primera época.

1921. Adriana Bolland atravesó la cordillera de los Andes, de Mendoza a Santiago de Chile.

1926. Pelletier-Doisy voló de París a Pekín en 6 días y 18 horas.

1926. Arrachart marcó el record de distancia sin escalas (París-Basora, 4.305 kilómetros) en 26 horas y 25 minutos.

1927. Pinedo voló 40.540 kilómetros en 44 etapas alrededor del Atlántico.

1930. Mariza Hilsz. Record cubriendo el circuito París-Saigón-París.

1930. Costes y Bellonte. Cruzaron por primera vez el Atlántico de París a Nueva York.

1930. Mermoz cruzó el Atlántico Sur.

1931. Balbo (al frente de una escuadrilla de aviones) atravesó el Atlántico Norte.

1931. Marisa Bastie. Batió el record para avionetas, con un vuelo de 2 889 kilómetros.

1931. Herndon y Pangborn cruzaron por primera vez el océano Pacífico de Tokio a California (7.700 kilómetros).

1932. Amelia Earhart fue la primera aviadora que atravesó sola el Atlántico.

1933. Willy Post. Gira alrededor del mundo (25.000 kilómetros) en 7 días y 18 horas.

1934. Agello señaló el record de velocidad en hidroavión con 209 kilómetros por hora.

1934. Marisa Hilsz. Vuelo París-Tokio-París.

1934. Scott y Campell Black ganaron la carrera Londres-Melbourne (18.160 kilómetros) en 2 días y 23 horas.

1934. Agello, con un avión italiano, alcanzó una velocidad de 709 kilómetros.

1935. Batten. Record sensacional, Londres Australia, en 5 días.

1938. Huguez dio la vuelta al mundo trazando un casquete boreal en menos de 80 horas, que comprendió las ciudades de Nueva York, París, Moscú, Omsk, Yakutsk, Fairbanks, Minneápolis y retorno a Nueva York.

1939. Udet (general alemán) cubrió 100 kilómetros a un promedio de 634,32 kilómetros por hora.

https://historiaybiografias.com/linea_divisoria6.jpg

PIONEROS DEL VUELO CIVIL

grandes aviadores de la historia

https://historiaybiografias.com/linea_divisoria6.jpg

lindergh, Espíritu de San Luis

Carlos Lindbergh, un muchacho norteamericano aficionado a la aviación, se propuso allá por 1927 intentar la travesía del Atlántico en su avioncito de turismo denominado Espíritu de San Luis. Con sobrecarga de nafta que hacía peligrar el vuelo despegó del campo de Roosevelt, en Nueva York, la noche del 20 de mayo del año citado. A propósito de su aventura se hicieron los más pesimistas comentarios. Se le tildó de loco, de inconsciente… eAntes y durante su hazaña se le llamó «el tonto volador». Lo cierto fue que a la mañana siguiente, a las 22 y 24 (hora francesa), aterrizaba en el aeródromo de Le Bourget, en París. Había cubierto la distancia entre las dos ciudades en 33 horas y 39 minutos. Asombro del mundo. Aquel aviador con cara de chiquillo pasó a ser una de las más legítimas glorias de los Estados Unidos.

RECORDS DE ALTURA: Recordaremos también aquí las primeras marcas famosas hasta las vísperas de la guerra de 1939, pues de allí en adelante fueron vertiginosas, como veremos. Las registradas por la Federación Aeronáutica Internacional fueron:

1909. (Agosto) Latharn, 155 metros.

1909. (Octubre) Lambert, 300 metros.

1909. (Diciembre) Latharn, 453 metros.

1910. (Enero) Latharn, 1.000 metros.

1910. Paulham, 1.209 metros, en Los Angeles.

1910. Brookins, en Atlantic City, 1.900 metros.

1910. León Morand, en Francia, 2.587 metros.

Hubo cuatro records más ese año y fueron:
Henry Wijnmalen, 2.780 metros.
Drexel, 2.882 metros.
Johnston, 2.960 metros.
Legagneux, 3.100 metros.

Legagneux era francés, y Francia retuvo el record logrado ese año de las marcas de altura hasta 1913, superándolas constantemente. En efecto: Roland Garros llegó a los 5.610 metros y Edmond Perreyron a 6.000. En 1913 Legagneux batió todos los records con 6.120 metros.

Al iniciarse el año 1914, nuestro compatriota, el célebre aviador Jorge Newbery, con un aparato Morane Saulnier, logró la altura de 6.100 metros.

Desde allí hasta 1920 dejaron de registrarse las pruebas, pero la guerra obligó a los pilotos a una frenética lucha de superación, como se comprobó al reanudarse las competencias.

Veamos:
1920. Schroeder (norteamericano), 10.093 metros.

1920. MacReady (norteamericano), 10.518 metros.

1923. Sadi Lecointe (francés), 10.727 metros.

Francia retuvo el record hasta 1927, y las marcas fueron superadas como sigue:

1927. Champio (norteamericano), 11.710 metros.

1929. Souceck (norteamericano), 11.930 metros.

1929. Willi Newenhofen (alemán), 12.739 metros.

1930. Apollo Soneck (norteamericano), 13.157 metros.

1932. Cyril Uwins (inglés), 13.404 metros.

1933. Lemoine (francés), 13.661 metros.

1933. Renato Donati (italiano), 14.433 metros.

Italia retuvo el record dos años.

1936. Georges Detré (francés), 14.843 metros.

1936. Swain (inglés), 15.223 metros.

1937. Mario Pezzi (italiano), 15.655 metros.

Este record fue considerado imbatible, pero poco tardó el piloto inglés Adam en superarlo.

1937. Adam (inglés), con un Brístol 138, llegó a 16.440 metros.

Italia había perdido el record, pero lo recuperó, como se verá.

1938. Pezzi llegó a los 17.083 metros de altura.

 aviadores franceses Costes y Bellonte

Los aviadores franceses Costes y Bellonte, que el 1º de septiembre de 1930 unieron en un vuelo las ciudades de París y Nueva York.

EL VUELO POR LA ESTRATOSFERA

La resistencia del aire (y su mayor densidad en ciertos casos) conspira contra la posible velocidad de los aviones. Por el contrario, a menor densidad es mayor la rapidez del deslizamiento.

Basado en estas observaciones, el ilustre sabio y aeronauta Augusto Piccard afirmó, en cierta ocasión, que la estratosfera, por razón de su escasa densidad, sería en el futuro la ruta del cielo donde los aviones alcanzarían velocidades fantásticas.

Claro estaba —y lo reconocía— que para ello habría que vencer primero algunos graves inconvenientes, que fueron puntualizados en «La Gazzeta dello Sport«, de Milán, por el técnico italiano S. Trevisán, «El problema del vuelo de altura —decía— es muy complicado.  Como se sabe, en el motor de explosión, la mezcla ideal requiere cierta relación entre el volumen del aire y el del carburante que la componen.

Es también sabido que no cambia en forma apreciable el aporte del carburante cuando el motor funciona a régimen normal, en tanto que se reduce notablemente el volumen del aire debido a la disminución de la densidad atmosférica. Y así, a medida que la mezcla se vuelve más rica en carburante, el motor rinde cada vez menos.

La hélice, cuyo buen desempeño ha sido calculado para funcionar en aire denso, al hacerlo casi en el vacío, en vuelos de gran altura, la acción de sus paletas resulta de muy escaso rendimiento. La menor resistencia del aire para la marcha del avión es una ventaja que no compensa, ni con mucho, el resultado por demás deficiente del grupo motopropulsor.

También constituye la bajísima temperatura un gran inconveniente para el avión que vuela a muy elevada altura: el lubricante se torna demasiado viscoso, las barras y los cables metálicos del comando se vuelven demasido tensos, las substancias de engrasamiento se congelan, se forma hielo sobre las partes del avión expuestas al aire, etc.»

Todos estos inconvenientes fueron superados por la técnica moderna. Los aparatos para los vuelos por la estratosfera son herméticamente cerrados y tienen dispositivos para provisión de oxígeno, además de calefacción. En cuanto al aviador, lleva un traje que constituye una coraza neumática que lo preserva del frío.

Lo cierto es que se cumplieron las predicciones de Piccard, y que los vuelos de gran distancia se efectúan por la estratosfera a velocidades vertiginosas.

hermanos piccard

Los profesores Augusto y Juan Félix Piccard, belga el primero y suizo el segundo, hermanos y compañeros de aventuras en arriesgadísimas pruebas de exploración científica. El objetivo de sus vuelos a la estratosfera no fue otro que el de estudiar los rayos cósmicos y otros fenómenos del espacio, cuyas conclusiones fueron de enorme utilidad para la aviación. Juan Félix insistió por largos años en esta clase de ascensiones, incluso acompañado por su esposa, en tanto que Augusto se dedicó a la exploración de las grandes profundidades del mar en una esfera de su invención.

traje para el vuelo en la estratofera

Arriba uno de los trajes usados por los aviadores para los vuelos por las altas regiones del espacio. Adviértense en este equipo el casco protector con anteojos, la máscara inhaladora, las riendas del paracaidas y las guarniciones de la silla eyectable

turbina de un avion

 Una turbina que accionada por el gas proveniente de las cámaras de combustión proporciona una energía con infinitamente mayor regularidad  que los pistones del motor de explosión, sacudidos por un movimiento alternativo generador de molestas vibraciones.

https://historiaybiografias.com/archivos_varios5/globo-piccard1.jpg

El globo estratosférico del profesor Augusto Piccard, con el que alcanzó en 1932 una altura de más de 17.000 metros.

Explotación Agricola en Europa del Siglo XIX Economía

EL PREDOMINIO DE LA ECONOMÍA AGRÍCOLA
EN EUROPA EN EL SIGLO XIX

La Europa de principios del siglo XIX era aún una Europa campesina cuya vida económica dependía estrechamente de las fluctuaciones de sus principales producciones agrícolas. La ausencia de excedentes mantenidos limitaba el desarrollo de las ciudades, que permanecían muy ligadas al campo. Las frecuentes malas cosechas de cereales, patatas, legumbres, ocasionaban grandes subidas de precio. Las crisis estacionales o anuales, engendradas por las malas cosechas o por la deficiencia de las relaciones comerciales y de los medios de transporte, se conjugaron a partir de 1817 con una larga etapa de depresión y de hundimiento de los precios, que sucedió al favorable período precedente.

LA POBLACIÓN: A partir de 1801, la población mundial ha crecido con más rapidez que nunca. Sólo en el siglo XIX se duplicó con creces; la anterior duplicación tardó cuatro veces más. Desde el siglo XVII la curva de crecimiento se ha ido haciendo cada vez más empinada. Sin embargo, las cosas no son tan sencillas como parece deducirse de esta imagen general. Algunos países han crecido con más rapidez que otros, y lo mismo puede decirse de los continentes.

El resultado ha sido un cambio en el orden de las naciones, atendiendo a su número de habitantes. Empecemos por Europa: en 1801, Francia reunía bajo su bandera más habitantes que ningún otro país al oeste de Rusia; en 1914 ocupaba la cuarta posición, por detrás de Alemania, Austria-Hungría y Gran Bretaña. El crecimiento de los Estados Unidos fue aún más rápido: en 1900 sus habitantes habían ocupado ya todo el continente (que en 1801 aún seguía inexplorado en gran parte) y su número había ascendido de 6 a 76 millones, lo que representa un aumento del 1.150 por 100.

Se dispone  de   información   mucho   más completa y exacta acerca de los países de Europa y América que de los de Asia y África; no obstante, parece comprobado que la población creció en todas las partes del mundo durante el siglo XIX: en China, por ejemplo, el aumento superó el 40 por 100, llegándose a los 475 millones; Japón pasó de unos 28 millones a unos 45, y la India de 175 a 290 millones. Se trata, en todos los casos, de incrementos muy grandes.

LA AGRICULTURA CONTINUA PREDOMINANDO
Salvo algunas excepciones, los métodos de explotación agrícola permanecían anticuados, ya que la mayoría de los grandes propietarios se desinteresaron de ello y no trataron de aumentar sus rentas por medio de la comercialización de sus productos. En cuanto a los pequeños cultivadores, sin instrucción, apartados de la escena política por los regímenes censatarios, no disponían de capital suficiente para introducir innovaciones.

agricultura en europa

Falta de abono, la tierra se convertía en  barbecho  cada   tres   años;   falta   también de maquinaria (se sembraba a mano, se trillaba con el mayal, se segaba con la hoz), una gran parte del suelo se desperdiciaba y los rendimientos obtenidos eran muy escasos. El desconocimiento de los métodos de conservación de la carne, el estado de los animales, desnutridos y sujetos a epidemias, impedía toda explotación ganadera racional, utilizándose el ganado, sobre todo, para los trabajos agrícolas.

Las crisis de subsistencias probaba trágicamente que el destino de millones de  hombres  dependía aún de las cosechas  de   trigo;   por  eso la agricultura estaba orientada hacia los productos de más corriente consumo, y, en pri mer lugar, hacia los cereales, como el trigo el centeno, la cebada, la avena y el alforjón.

La ausencia  de  excedentes  obligaba  a  la: diferentes naciones e incluso a las regione: a  vivir  replegadas  sobre  sí  mismas.   Uni camente  los   productos   exóticos   (especias café) daban lugar a un tráfico importante Sin embargo, este medio siglo conoció cier tos progresos agrícolas, de los que Inglate rra fue la principal beneficiaria. Más  adelantada que sus vecinos, había experimentado, desde el siglo XVIII , nuevos métodos; 2.000 lores, propietarios del tercio de la superficie cultivable, transformaron hectáreas de tierra de labor en fértiles praderas, en las que practicaron una ganadería moderna con selección de razas (la raza Durham llegó a ser la primera de Europa).

Los decretos para la formación de «acotados» (reunión de tierras rodeadas por vallas), concluidos en 1840, los «cornlaws», leyes que prohibían la entrada de trigos extranjeros, habían enriquecido   a   estos   grandes   propietarios que llevaron a cabo una verdadera revolución sustituyendo el barbecho por el cultivo de plantas herbáceas, de trébol, de alfalfa y otras análogas, alternando con los cereales; la utilización de los abonos (cal, guano, fertilizantes industriales descubiertos por Liebig), la mejora de los arados, la desecación de los pantanos, reforzaron esta revolución agraria.

Las Corn Laws fueron aranceles a la importación para apoyar los precios del grano británico doméstico contra la competencia de importaciones, vigentes entre 1815 y 1846.

PEQUEÑAS PROPIEDADES Y GRANDES DOMINIOS: Además  del  tipo inglés (que acabamos de ver mas arriba),  se podían  distinguir otras dos modalidades  de  agricultura en Europa.  Una de ellas predominaba en Francia, Países Bajos, Suiza y norte de Italia; la supresión de las servidumbres señoriales   había   emancipado   jurídicamente   al campesinado, pero éste, dueño en su inmensa mayoría, de pequeñas o medias propiedades, vegetaba y se mantenía gracias a la supervivencia de las prácticas comunales y a la ayuda de trabajos artesanos.

Sin embargo, en estos países fueron realizados importantes   trabajos   de  desecación   (particularmente en Holanda, donde los «polders» alcanzaron una gran extensión) que permitieron acrecentar la superficie cultivable. El rercer tipo de agricultura, el de los grandes dominios   señoriales,  reinaba  en  la  mayor parte de Europa; en el sur de Italia y en Toscana, la aristocracia terrateniente practicaba el absentismo, dejando a los administradores el cuidado de ocuparse de sus inmensas propiedades, y éstos las hacían explotar por los jornaleros a los que apenas les quedaba para vivir. Los grandes propietarios españoles practicaban también la aparcería; pero tenían que hacer frente a la Mesta, poderosa asociación de ganaderos que monopolizaba inmensas extensiones de tierras, oponiéndose al desarrollo de la agricultura.

En Prusia y en Europa Oriental, las reformas napoleónicas fueron abandonadas después de Waterloo y los campesinos tuvieron que devolver a los nobles el tercio de sus tierras, cayendo nuevamente en un estado de semi-servidumbre. Sin embargo, algunos pequeños hidalgos prusianos intentaron modernizar sus posesiones siguiendo el ejemplo de los lores ingleses.

Por último, en Rusia, la tierra estaba en manos de la corona y de los nobles; una parte de sus inmensos dominios era explotada directamente, y la otra repartida en parcelas entregadas a las familias de los siervos a cambio de los servicios que prestaban trabajando las tierras de su señor. Rusia era entonces la mayor exportadora de trigo de Europa, pero las exportaciones se hacían en detrimento de la población, que vivía en condiciones miserables. Esta oposición entre la Europa Occidental y los países orientales, próximos todavía a las estructuras feudales, había de durar hasta nuestros días.

Historia de la Industria Aeronáutica Argentina Pucará, Pampa

HISTORIA DE AVIONES A REACCIÓN ARGENTINOS: PUCARÁ, PAMPA, PULQUI I Y II

Luego de que la industria aeronáutica sufriera varias derrotas en lo económico, estratégico y político, resulta difícil imaginar que la Argentina haya ocupado el sexto puesto a nivel mundial en la construcción de aviones de reacción con tecnología propia. Sin embargo, la industria aeronáutica supo ser una pujante industria motorizada por una política que consideró a las actividades técnico-científicas como recurso estratégico para el país.

En 1912, juntamente con la creación de la aviación militar, algunos civiles enamorados de estas máquinas, movidos por el fervor y la pasión de sus sueños, comenzaron tímidamente y con escasos recursos el montaje de talleres aeronáuticos de donde surgieron atrevidas construcciones de aeroplanos. Durante ese período se elaboraron montantes, costillas, alas y fuselajes completos, que se tradujo en la fabricación de aeronaves completas para la exportación al Uruguay.

Su nombre significa flecha en lengua mapuche y hace alusión al original diseño de sus alas. Su fin militar era el de un caza interceptor. La construcción del Pulqui fue de gran importancia como medio de estudio para el diseño de otros aviones a turbina que culminó en la producción del “Pampa” en 1980. Cuando se construyó el prototipo la fábrica tenía alrededor de 15.000 empleados.

Pero la base de la industria aeronáutica argentina se consolida con la creación de la Fábrica Militar de Aviones en 1927 de la mano del talentoso Ing. Aer. My. Francisco de Arteaga en la ciudad de Córdoba. Allí se construyeron, años después, una gran cantidad de aviones como los emblemáticos Calquín, Huanquero, Guaraní-GII, Pucará, Pampa, como así también los motores a partir de los lingotes de metal provistos por nuestras fábricas metalúrgicas. Para ello, el Ejército y la Marina de Guerra enviaron, además de civiles, a numerosos oficiales a Europa y EE.UU. para capacitarse en afamados institutos aerotécnicos. De este modo, se fue forjando un nutrido grupo de especialistas que dieron sus frutos de acuerdo a una acertada política de incorporación a las actividades técnico-científicas: la pujante industria aeronáutica de entonces y la colaboración (vislumbrada estratégicamente) universitaria.

Naturalmente, esta política no convenía a los intereses extranjeros, que desencadenaron una campaña sistemática contra la industria nacional, aprovechando cualquier incidente aeronáutico para crear un estado de incomprensión. Esta fábrica se vio en la necesidad de reforzar aún más la fabricación de aeronaves enteramente nacionales, a tal punto que las aeronaves militares eran proporcionadas a pilotos civiles para su instrucción demostrando así la valía del producto argentino.

Todas las aeronaves fueron diseñadas y construidas con materiales propios y personal argentino especializado, prescindiendo entonces de regalías y licencias, que sin embargo todavía eran necesarias para la fabricación de los modelos extranjeros. Habida cuenta de todos esos progresos alcanzados, la industria aeronáutica nacional llegó a un estado de madurez avanzado que permitió a dicha fábrica transformarse en un centro experimental aerodinámico y de construcciones, a la par de los institutos de Italia, EE.UU., Inglaterra, Francia y Alemania. Precisamente, se apuntaba a lograr la independencia tecnológica.

Con este impulso, se funda en 1943 el Instituto Aerotécnico, que abre una nueva página en la historia de la aviación argentina con la creación en 1947 del Pulqui I y el Pulqui II, el primer avión de reacción, de diseño propio producido fuera del grupo de las grandes potencias. Del Pulqui II se llegaron a fabricar 5 unidades prototipo que se convirtieron en los primeros aviones de reacción para combate en el continente, anticipándose incluso a los F-86 de EE.UU. de iguales características.

La “fábrica”, como se la llegó a denominar con el correr de los años, adquirió reconocimiento internacional colocando a la Argentina en el 6to. puesto a nivel mundial en materia de aviones de reacción con tecnología propia después de Alemania, Inglaterra, Estados Unidos, Rusia y Francia. Dichos avances tuvieron como telón de fondo al primer y segundo gobierno peronista que con el apoyo de destacados profesionales argentinos (ingenieros, proyectistas, dibujantes, técnicos, operarios, y otras especialidades), contrata a técnicos y científicos alemanes, italianos y franceses para desarrollar la industria aeronáutica y también la investigación nuclear.

Movido por sus aspiraciones de crear un automóvil nacional, Perón funda en 1951 la Fábrica de Motores y Automotores (FMA), y al año siguiente el Instituto Aerotécnico es reemplazado por las Industrias Aeronáuticas y Mecánicas del Estado (IAME) y quedan unidas ambas especialidades, aeronáutica y automotores, aprovechando de este modo la enorme experiencia de la primera para aplicarla a la industria de vehículos. Así, de la mano de la aeronáutica, surge una industria automotriz enteramente nacional a cargo de la división mecánica con sede en dos Plantas de Córdoba, donde también se radicaron la IKA (Industrias Kaiser Argentina) y FIAT (Fábrica Italiana de Automotores de Turín).

Luego, el gobierno de la Revolución Libertadora desmiembra la IAME reemplazándola por la DINFIA de aeronáutica por un lado, y a la FMA dedicada exclusivamente a la fabricación de motores para vehículos terrestres por las Industrias Mecánicas del Estado (IME), clausurada en 1979 por el entonces ministro de economía Martínez de Hoz.

La DINFIA, rebautizada con el correr de los años como Fábrica Militar de Aviones (FMA) es privatizada en julio de 1995 por el entonces presidente Menem, quien otorgó la concesión y explotación de dicha fábrica a la empresa estadounidense Lockheed Martin Aircraft. Estos últimos hechos conformaron el golpe de gracia definitivo a la Industria Aeronáutica Nacional y Automotriz.

Una dirigencia de muy bajo vuelo
La industria aeronáutica argentina sufrió hasta hace algunos años varias derrotas desde lo económico, estratégico y político, muchas de ellas intencionales a primera vista:

-El Estado Argentino eligió “incomprensiblemente” como socio a la empresa estadounidense LTV para la provisión de aeronaves IA-63 Pampa equipadas con turbinas Garret TFE731, asiento eyectable y sistema de emergencia RAT para ese país. Resultó que dicha empresa estaba bajo la Enmienda Americana de quiebra. Las ilusiones de los ingenieros argentinos, el Proyecto Nacional y los U$ 400 millones del programa fueron a parar a la basura.

-La Real Fuerza Aérea Neozelandesa y la Fuerza Aérea Australiana, convencidos de las bondades del Iae-63 Pampa deciden su compra, pero debido al poco crédito otorgado por nuestro país optaron por comprarle a Italia. No eran mejores, pero ofrecían ventajas firmes de pago.

-En 1982 surge el proyecto “Cóndor”, basado en su antecesor “Castor”, para construir un cohete que permitiría evaluar los recursos naturales propios. El gobierno de Alfonsín finalmente decretó su desmantelamiento y desarme por “falta de recursos financieros, y la necesidad de recibir algún crédito puente del FMI o del tesoro de los EE.UU.”

-El CBA-123 fue el proyecto conjunto firmado entre Argentina y Brasil en 1987 para producir una aeronave turbohélice de 19 pasajeros y velocidad superior a 600km/h. Su costo de inversión se calculó en U$ 300 millones de los cuales la empresa brasileña Embraer aportaría U$200 millones y U$100 millones la Fábrica Argentina de Material Aeronáutico (FAMA).

Cada avión costaría U$ 4,5 millones, y hubo 127 pedidos formales tras su presentación en una exposición en Francia. En 1989 la FMA le comunica a Embraer la imposibilidad de la entrega de los materiales en tiempo y forma, Brasil reduce la participación argentina al 20% pero aún así la Argentina no terminó de entregar los volúmenes de producción previstos. Debido a la falta de interés nacional de parte del gobierno argentino, Embraer decidió ofrecer el proyecto a bancos extranjeros en busca de apoyo financiero porque estaba convencida del amplio mercado internacional que tendría el CBA-123. Así la Argentina quedó fuera del programa de fabricación conjunta.

-En julio de 1995 la Lockheed Martin Aircraft SA (Lmaasa), el mayor contratista de armas del Pentágono con un volumen de negocios de U$20.000 millones anuales, adquiere las instalaciones de la FMA de la mano de la firma del ex presidente Carlos Menem. Esta privatización incluyó también el compromiso de comprar a través de Lmaasa 36 aviones modelo A-4M a la marina de EE.UU. Se prometió la formación de “un excepcional centro de mantenimiento” que “captaría el 30% del mercado con una proyección de creación de hasta 10.000 puestos de trabajo”.

Dos años después, el entonces presidente Menem afirmaba que Lmaasa construiría allí un centro espacial internacional para llegar al Japón en minutos. Sin embargo, el plantel de trabajadores se redujo de 2000 a 900 a poco de concretarse el traspaso y con la amenaza de reducción del plantel a la mitad si el Estado no le firmaba a Lmaasa un nuevo convenio por U$ 230 millones a 5 años y una supuesta deuda de U$ 47 millones. Dicha empresa llegó a darse el lujo de cerrar sus instalaciones por 5 días hasta tanto el gobierno no le firmara un contrato hasta 2007. Los apologistas de turno dijeron maravillas: “…que se redujo la asignación estatal de U$230 millones en 5 años a sólo …U$210 millones”, y que el Estado “antes se hacía cargo del costo total por 12 aviones Pampa, y en cambio ahora los gastos serían 50 y 50…”.

Finalmente la Lmaasa no fabricó nada, sólo reparó aviones con subsidios del Estado Argentino en forma de contratos, y redujeron al 55% el personal. Actualmente se dedica sólo a la re-ingeniería de los AT-63 Pampa.

¿Qué dirían hombres de la talla de De Arteaga, Juan Ignacio San Martín, Taravella, Ruíz, Weiss y tantos otros anónimos que contribuyeron con su esfuerzo a consolidar a la F.M.A.?. Hoy día, toda denuncia de esta increíble estafa no es más que un grito en el desierto, convirtiendo aquella pujante FMA en un recuerdo del pasado.

Fuente:
Sitio WEB SABER COMO… del Instituto Nacional de Tecnología Industrial (conocer el sitio)

Adaptación de “Industria Aeronáutica Argentina” por Horacio A. Benítez

Los Satélites Artificiales Argentinos Historia Plan Espacial

SATELITE ARTIFICIAL ARGENTINO
HISTORIA PLAN ESPACIAL

Los vehículos espaciales, como por ejemplos los satélites artificiales,  resultan instrumentos impresindibles para el avance científico y tecnológico de la imanidad. Son numerosos los fines con que se utilizan; ellos, cabe destacar los fines científicos, medioambienles, de comunicaciones, de navegación y militares. Mientras ue los satélites giran en órbita alrededor de nuestro planeta, las sondas se han liberado de la atracción gravitatoria de la Tierra y se desplazan en trayectorias variadas.

Los satélites recorren distintos tipos de órbitas, a diferentes alturas con respecto a la superficie terrestre. Tienen tamaños muy variables; algunos pueden llevar tripulantes a bordo.

Los de mayor envergadura se ubican en órbitas bajas entre 250 y 450 km, como por ejemplo, el transbordador espacial norteamericano y la estaciónespacial Mir, que permiten transportar astronautas, satélites y equipos de mantenimiento y reparación.  También se encuentra el telescopio espacial Hubble, que estudia la luz procedente de los objetos más alejados del Universo.

https://historiaybiografias.com/linea_divisoria4.jpg

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio. Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos. En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

Mono Juan Enviado al Espacio Por Argentina, Murió en el zoologico de Córdoba.

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio. El tripulante, de la especie caí, había nacido en Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja. Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal. En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD
A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas. En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos. Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones. La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas. El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social. El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información. La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos. La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES: La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida. En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre. Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó.

En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador. Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite. Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento.

Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta.

En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete. El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

Los satélites geoestacionarios se mantienen a una distancia de 38.500 km girando a la misma velocidad que la Tierra, por ello siempre se observan en el mismo punto sobre el ecuador terrestre. Se utilizan para establecer comunicaciones telefónicas y televisivas.

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:
Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro. Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica. Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se creala Sociedad Argentina Interplanetaria, la primera en América latina, en 1949. Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II. Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro «La Ciencia Argentina», explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II. Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario. La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B. Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita. En febrero 1994, el New York Times se refería a la empresa argentina como «una pequeña versión argentina de una compañía de Silicon Valley» y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial «Argentina en el Espacio 1995-2006». Varotto cuenta que este programa «fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo». Y agrega: «Se decidió concentrar los recursos en ir arriba para mirar para abajo». El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, «contribuya a la optimización de actividades de determinadas áreas socio-económicas». Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

SATÉLITES SAC-A Y SAC-B
La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita. Mejor suerte tuvo la misión SAC-A, que se concretó en 1998. El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C
Argentina en su Plan Espacial Nacional – «Argentina en el Espacio 1995-2006» , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae). Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de «proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes».

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7. Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales. Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la Conae llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino. Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites. El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la Conae- y varias empresas del país, que son las que construyeron el satélite. El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP. Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane
Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas. El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la «sugerencia» de EE.UU.
Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.
Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990. Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat). Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio. El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales. Fabricó el «bus», o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE. Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina. A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche. De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica. Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre d 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia. La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales. El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
«La Ciencia Argentina» de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario «La Nación»

Beneficios de la Era Espacial Mejoras Para La Sociedad

Beneficios de la Era Espacial y Las Mejoras Para La Sociedad

Cuando en 1969  descendió sobre la superficie de la Luna,  el famoso módulo Lunar del Apolo XI, dirigido por Armostrong y Collin  su país había  invertido unos 30.000 millones de dólares en programas espaciales; y el esfuerzo soviético seria ,sin dudas, equivalente. ¿Cuáles son las ventajas concretas de tan tremendo esfuerzo? Haremos abstracción de las inmensas posibilidades científicas, para exponer lo que ya se ha conseguido en el campo de la práctica.

Primeros Logros Científicos Aplicados a la Sociedad

Los satélites técnicos. — Antes del Telstar, América y Europa estaban unidas por 343 líneas telefónicas. Este satélite podía retransmitir 300 comunicaciones simultáneas, y los que se proyectan podrán transmitir en dos segundos todo el contenido de un diario.

Los satélites meteorológicos, como el Tiros, permitieron ganar, mediante sus. microondas de rayos infrarrojos, 48 horas en la previsión de los tornados;   además,   economizan   muchos   traslados   inútiles de rompehielos al indicar la ubicación de los campos helados, y, accesoriamente, informan sobre los incendios de bosques. Los satélites de tipo Transit, por su parte, permiten a barcos y submarinos establecer su posición muy rápidamente con un error de menos de 500 metros.

Ver: Los Satélites Artificiales

La miniaturización. — La necesidad de obtener productcs eficaces y livianos y los inmensos créditos disponibles, han sido un latigazo para la industria que produjo ya 3.200 sustancias nuevas con este objeto. Después del perfeccionamiento de los transistores se llega a los circuitos integrados, que permiten acumular una increíble cantidad ce sistemas electrónicos en el volumen de una caja de cerillas.

Una de las técnicas consiste en depositar en el vacío una película metálica de extrema delgadez, a fin de obtener redes interconectadas; otra, ejecuta el circuito complete sobre el minúsculo grano que constituye la cabeza del semiconductor, Gracias a estos circuitos integrados se pudo transformar toda la técnica de las calculadoras electrónicas: existen ahora (1970) computadoras que sólo pesan 8 kilos para una memoria de 16.000 signos, y se calcula que su costo futuro se reducirá a la quinta parte del actual. (Las computadoras invaden la industria y el comercio, y los soviéticos calculan que dentro de 20 años necesitarán un millón de operadores adiestrados para calculadoras.)(ver: microprocesador electronico)

Entre las aplicaciones a la vida cotidiana citemos el radar en miniatura para ciegos, que les permite «oír» los obstáculos, fijos o móviles, por resonancia, un poco a la manera  de   los  murciélagos que emiten chillidos  ultrasónicos.

Ver: La Evolución de las Microcomputadoras

Nuevos materiales. — Aquí no hay nada absolutamente original, pero las exigencias son mucho más severas. Se trata, en efecto, de obtener materiales extremadamente livianos pero de gran resistencia mecánica y térmica. Los nuevos aceros a base de cromo, molibdeno y vanadio, como el Vascojet 1.000, son casi tres veces más resistentes que los aceros clásicos.

El berilio ha entrado en la industria porque, siendo apenas más pesado que el magnesio, es tan rígido como el molibdeno, tan refractario como el titanio, tan resistente a la oxidación como el aluminio y soporte admirablemente la corrosión; sus inconvenientes más graves son su toxicidad y su extrema fragilidad.

El berilio es indispensable en la industria nuclear porque casi no atrae los neutrones, y en la astronáutica, para las ojivas que protegen la nave cuando vuelve a penetrar en la atmósfera; además se lo utiliza para construir giróscopos de gran estabilidad dimensional y considerable rigidez, y como ventana transparente en los aparatos de rayos X. Este año, un coche construido con berilio participó en la célebre carrera de automóviles de Indianápolis.

También se ha perfeccionado el titanio para su uso en la cápsula Mercury y se lo emplea ya en el tren de aterrizaje del Boeing 727, así como para la fabricación de recipientes de hidrógeno líquido. Para soldar los materiales refractarios que emplea la astronáutica hubo que perfeccionar un soplete que emite electrones de alto poder y permite soldar uniones que resisten temperaturas de 1.700°C. Por su parte, los hornos utilizan el pirografito perfeccionado, que se empleó por primera vez en astronáutica.

Energía. — La astronáutica permitió perfeccionar la pila de gases, que transforma directamente la energía química en eléctrica. El rendimiento de las baterías solares se ha multiplicado por 300 y su uso en la superficie terrestre ya puede ser redituable. El hidruro de litio, como reserva de hidrógeno, tendrá, con seguridad, muchas aplicaciones en la industria. Y por último, se encara ya seriamente la realización del famoso motor a eyección de iones de cesio, cuyo poder y posibilidades son inmensas.

Medicina. — Para mejor control de los cosmonautas se construyeron aparatos que permiten mediciones fisiológicas continuas. También se fabrican ahora simuladores cardíacos, munidos de baterías especiales, que han salvado ya muchas vidas humanas, y que, al ser portátiles, podrán permitir al paciente una existencia casi normal.

Para los viajes espaciales largos se estudia y perfecciona la hibernación, consistente en disminuir la temperatura y dejar al paciente en estado de vida latente: cada adelanto que se logra es inmediatamente utilizado en cirugía. Por último, se han creado sustancias químicas que procuran proteger el organismo del cosmonauta de las radiaciones peligrosas y, de esta manera, amplían el campo de los medicamentos antirradiactivos.

Ver: Lo últimos avances en medicina

Fuente Consultada:
TECNIRAMA N°11 Enciclopedia de la Ciencia y la Tecnología – La Astronaútica –

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del «empleado bancario» ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos «bigotes» de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla Disputa

Historia del Uso de la Corriente Alterna
Disputa de Edison Vs. Tesla

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el «príncipe de los experimentadores». Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar.

Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: «Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética«. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad. En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las «resplande cientes herraduras que brillaban dentro de los globo en forma de peras».

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno y consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

iluminador electrico de gran potencia

PROYECTOR ELÉCTRICO DE 1,50 METROS, QUE ILUMINA LOS OBTETOS SITUADOS A 16 KILÓMETROS DE DISTANCIA

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

generadores de corriente electrica

Con su sala de turbinas de vapor construida a orillas del rio, completo aislamiento de todo el equipo eléctrico, disposiciones hidráulicas para eliminar las cenizas, instalación de calderas con recalentadores de vapor formados de seis tubos colocados sobre la cámara de combustión, extenso empleo de motores para llevar a efecto las operaciones precisas con las válvulas y perfecta maquinaria para facilitar el transporte del carbón, esta estación central de «Hell Gate», Nueva York, de la Compañía United Electric Light y Power, no tiene rival.

La Corriente Alternada

Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  «impulsar» a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

https://historiaybiografias.com/linea_divisoria3.jpg

LECTURA COMPLEMENTARIA:
La importancia de la electricidad como medio de transportar energía: Es difícil encontrar aplicación de la electricidad que demuestre más claramente su completa sumisión al hombre como la que se relaciona con el transporte de la energía o fuerza motriz. Desde tiempo inmemorial el hombre ha utilizado recursos que reemplazasen al esfuerzo que puede producir su brazo; el empleo de la fuerza de los animales es muy antiguo, y hay muestras evidentes de que también aprovechó la energía producida al caer el agua.

de todas maneras, en cada caso, siempre coincidían el lugar de producción y el de aplicación de la energía. La rueda hidráulica y el molino de nuestros antepasados estaban instalados al lado mismo del salto de agua. De este modo, muy pocos de nuestros grandes recursos hidráulicos podían ser aprovechados, pues la mayoría de los grandes saltos de agua están situados en lugares inaccesibles de las regiones montañosas, a los cuales sería imposible, o por lo menos muy costoso, transportar las primeras materias.

La fuerza motriz, invisible, va desde la escarpada montaña a la populosa ciudad Los progresos y desarrollo de la máquina de vapor y su creciente importancia han hecho se piense en buscar un medio de transmitir la energía al lugar del consumo desde el punto donde pueda producirse económicamente, ya por estar próximo el combustible o ser más fácil el acarreo desde la mina.

generador de energia electrica

UN GRAN GENERADOR ELÉCTRICO DE TURBINA: Uno de los generadores, de 55.000 caballos de fuerza, en la instalación hidroeléctrica de Queenston-Chippawa. Las turbinas de esta clase reposan sobre una especie de cojinetes o almohadillado de agua, tan delicadamente dispuesto, que si no se frena, tarda doce horas en pararse por completo, a contar desde el momento en que se corta la marcha.

Cuando la instalación de una máquina de vapor puede hacerse a la orilla de un estuario o un puerto, el carbón se transporta por mar a un coste relativamente bajo; pero dentro de las ciudades la conducción es carísima. El mismo agente que permite al hombre hablar a gran distancia con sus semejantes, puede ahora emplearse para transmitir la energía desde los saltos de agua en las montañas o las minas de carbón a la distante ciudad o centro consumidor. Las empresas industriales pueden así establecer las fábricas en aquellos lugares donde los jornales son menos elevados y la primera materia más abundante, puesto que es factible producir la energía necesaria a cientos de kilómetros.

De esta manera también pueden elegirse locales propios y convenientes para las fábricas y las centrales eléctricas donde se genera la energía, ligándose los dos centros por una línea de transmisión que abastece de fuerza eléctrica de un extremo a otro. Pero todavía la ingeniería moderna no es capaz de suministrar por este medio la fuerza motriz a las distancias que envía la voz humana.

La longitud a que puede transmitirse la energía económicamente en la actualidad es de 440 kilómetros en números redondos, y el alcanzar mayor distancia es uno de los grandes problemas que estudian los técnicos en nuestro siglo.

La transmisión eléctrica ha hecho posible la centralización de las grandes instalaciones productoras de fuerza motriz, y de este modo se ha conseguido convertir mucho más económicamente la energía química del carbón en eléctrica a bajo coste. La posibilidad de transportar la energía a grandes distancias permitió la instalación de enormes centrales conteniendo máquinas generatrices y convertidores de tal tamaño, que el coste de la producción por unidad de energía es tan bajo que permite sea consumido por las personas de recursos más modestos.

Debido precisamente a la con solidación y seguridad de estas grandes centrales, transmitiendo la energía a cualquier punto de la zona que las rodea por medios económicos y eficaces, ha sido posible la utilización de la electricidad en las fábricas, talleres y las viviendas.

En las instalaciones industriales más modernas se han suprimido los antiguos ejes, poleas y correas, acoplando motores eléctricos a los diversos mecanismos. La gran cantidad de energía economizada por esta disposición, sin duda mucho más apropiada y flexible para transmitir el movimiento, se emplea en aumentar el número de máquinas trabajando.

El coste de los edificios es así menor, y pueden construirse agrupados o separadamente, segrtn se quiera o convenga, sin tener que ajustarse a la posición del eje transmisor, lo que permite instalar las máquinas en la mejor posición, para disminuir acarreos innecesarios con el producto manufacturado, La eliminación de las correas deja mayor espacio libre, facilita el trabajo de los puentes-grúas o transbordadores, evita el polvo que se removía durante la marcha y, finalmente, también permite un alumbrado mejor.

La ausencia de cojinetes y aparatos para la lubricación de los mismos libra del goteo continuo de aceite, y todo esto trae consigo una mayor limpieza en las operaciones, mejorando, por consiguiente, las condiciones de salubridad durante el tiempo de estancia de los obreros en el trabajo y disminuyendo además múltiples daños al producto acabado.

La electricidad, aplicada al movimiento de la maquinaria, da mayor rendimiento, produce la fuerza con más flexibilidad que con el antiguo sistema de ejes transmisores, de tal suerte que pueden ponerse en marcha o hacer parar individualmente los aparatos sin que se note el menor cambio en la velocidad de los otros.

Pueden llevarse a efecto muchas operaciones delicadas que necesitan una velocidad igual. La sencillez con que puede regularse ésta, así como ampliar la fuerza motriz, facilita el aumento de producción y hace disminuir el coste de la materia elaborada. Son mucho menos frecuentes los accidentes donde se ha adoptado este sistema. Este hecho, unido a la disminución de ruido, mejor iluminación y mayor espacio, son de gran importancia para patronos y obreros, pues éstos tienen que encontrarse así en mejor disposición para el trabajo.

Las fábricas ya no se ven obligadas a esparcir el humo que lanzan sus chimeneas o el polvillo de sus ventiladores sobre las casas que las rodean, desde que aparatos eléctricos pueden evitarlo, o recoger, como por ejemplo, el polvo, de tanto valor en las fábricas de cemento.

El ozonizador eléctrico instalado en los tubos de salida de vapores que producen mal olor los evita, y permite ejecutar estas operaciones, molestas y desagradables, en locales situados dentro de la población, sin temer a que se opongan sus habitantes. En las fábricas donde es preciso mover hierros de varias formas, grandes y potentes electroimanes, instalados dentro o fuera de los talleres, transportan los materiales de un lado a otro en todo tiempo, ya llueva o nieve, aumentando así su capacidad productora.

Una de las aplicaciones más importantes de la fuerza eléctrica es la que se relaciona con la tracción. Al presente hay dos medios para poder hacer marchar los trenes en nuestros ferrocarriles: la máquina de vapor y la locomotora eléctrica. Necesariamente, la locomotora de vapor se irÁ abandonando poco a poco, debido a su limitado espacio para generar la fuerza precisa con la amplitud y rendimiento conveniente, mientras que
en el tractor eléctrico la energía llega de una estación central capaz de producirla en la cantidad que se requiera.

Una instalación móvil de vapor está sujeta a rápida y elevada depreciación, necesitando un coste de conservación mayor que la sencilla locomotora eléctrica. El molesto humo y el vapor desaparecen con el tractor eléctrico, y esto, que es de la mayor importancia en el caso de las líneas subterráneas de las grandes ciudades, fué frecuentemente la principal razón del cambio de la tracción de vapor por la eléctrica.

El empleo de la tracción eléctrica por todas partes en las líneas de tranvías y metropolitanos subterráneos se debe, como hemos dicho, principalmente a esta propiedad especial de no producir humo, y  también a la de poder establecer motores encada coche y así mover uno o varios, formando trenes según las necesidades del tráfico.

Las aplicaciones eléctricas han hecho incalculables beneficios mejorando las condiciones de la vida, pues por ellas, en muchas ciudades industriales, los s obreros pueden habitat en la parte más sana de los alrededores, sin perder demasiado tiempo en trasladarse desde su casa al almacén, tienda o taller donde prestan sus servicios.

Aquellos que viven en poblaciones extremadamente densas, por otro lado, pueden salir económicamente al campo para deseansar del torbellino de la ciudad. Las relaciones sociales, el cambio comercial, el mismo paisaje, todos ellos perderían extraordinariamente sin el motor sin humo. Las rápidas líneas de tranvías interurbanas, en regiones menos pobladas, transportan pasajeros y mercancías a las granjas situadas en su ruta. De este modo se tienen medios económicos y convenientes para efectuar las diversas transacciones entre los productores y los que consumen en las ciudades.

El transporte de pasajeros y mercaderías por medio de las líneas eléctricas, el teléfono y el telégrafo, acortan las distancias de tal suerte, que los habitantes del campo están en íntima comunicación entre sí, pudiendo aprovecharse de estas grandes mejoras.

Fuente Consultada:
Colección Moderna de Conocimientos Universales – La Era de la Eléctricidad – Tomo II – Editores W.M. Jackson, Inc.

 

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer «la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en «V», puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en «V», grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en «V», el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en «V» próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación «vuela» sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en «V», la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Barcos de Cemento y Prefabricados en la Segunda Guerra

BARCOS DE CEMENTO CONSTRUIDOS EN SERIE EN LA SEGUNDA GUERRA MUNDIAL

Durante la segunda guerra mundial, la flota mercante aliada sufría pérdidas increíbles bajo la acción del arma submarina y aérea del Eje. La defensa era lenta e incapaz y un dilema se presentaba inexorable: si se seguía construyendo barcos mercantes con los sistemas clásicos, pronto no habría con qué reponer las pérdidas. La urgencia era dramática.

Así surgió el famoso «Liberty»: barco mercante criticado y subestimado, sobre todo por los ingleses, pero que cumplió con el cometido a que fue destinado.

Barco Carguero «Liberty»

El «Liberti» fue el primero de los cargueros fabricado en gran serie y con partes completamente prefabricadas. Infinidad de grandes piezas se estampaban con enormes balancines y se armaban en lugares alejados del astillero, siendo transportadas hasta éste por ferrocarril. Sin embargo, la soldadura autógena y la eléctrica fueron las que en mayor grado salvaron la situación.

Es cierto que los astilleros alemanes fueron los primeros en usar la soldadura y lo hacían desde mucho antes de la guerra, pero el método no estaba difundido en la industria naviera americana. Así se llegó a fabricar hasta dos «Liberty» diarios. Lo cierto es que aquellos barcos, aceptados por los técnicos de la época sólo en ese «caso de emergencia», todavía hoy están en servicio.

La industria naviera alemana llegó a fabricar sus torpederos y submarinos ya no como naves sino como simples estructuras producidas en fábricas lejos aun hasta de la costa del mar. En los Estados Unidos, Holanda y Alemania se construyeron naves de tonelaje menor con la quilla hacia arriba; luego eran «volcadas» y botadas de costado. Una rareza notable la constituyeron los llamados «barcos de cemento». Estas naves estaban construidas en su mayor parte (casco y cubierta) de cemento armado.

La construcción parecía reunir todas las ventajas; era barata, consumía mucho menos hierro, metal precioso en tiempo de guerra; se moldeaba en forma práctica, era relativamente más liviana, y de muy fácil reparación; completamente inoxidable, y prácticamente estaba a salvo de la terrible mina magnética. Pero contra todas las ventajas que le auguraban un gran porvenir «el barco de cemento», después de algunas pocas construcciones, desapareció. Sólo fue un intento más en la carrera hacia la perfección de la industria naviera.

Barco de Cemento

Muchísimos pequeños adelantos técnicos solucionan hoy, con asombrosa facilidad, lo que ayer representaba problemas de mano de obra y de lenta realización. Sabido es que terminar y recubrir los interiores de un lujoso transatlántico, decorarlo, pintarlo, equiparlo de los miles pequeños elementos que requiere esa ciudad flotante, en fin, vestirlo y acondicionarlo con el confort requerido, era trabajo caro y lento.

Pero los plásticos en todas sus formas, láminas, moldeados, tubos, etc., maderas sintéticas, metales livianos, los adhesivos, los acríbeos y las resinas sintéticas, han llegado también en ayuda de los realizadores de esta parte de la nave.

Biografia de Cavendish Trabajo Cientifico Vida y Obra

Biografía de Cavendish Trabajo Científico

Enrique Cavendish nació en Niza (Francia), en 1731. A la edad de 11 años íue enviado a la escuela en Hackney (Londres). En 1749 pasó a Cambridge, pero salió de allí sin haber obtenido ningún título. Perteneció a la Royal Society desde 1760 y, a partir de ese año, se dedicó, por su cuenta, al estudio de las matemáticas y de la física. Seis años después publicó trabajos sobre las propiedades del hidrógeno y del ácido carbónico.

Enrique Cavendish

Gran científico británico nacido el 10 de octubre de 1731. No muy famoso, pero destacado porque fue el primero en medir la densidad y composición de la atmosfera terrestre. Analizó la densidad media del nuestro planeta, descubrió el gas argón, inventó el pendulo de torsión, y propuso la ley de atracción electrica entre cargas de distinto signo. LLegó a poner en riego su vida al realizar experimentos con corrientes elétricas. Tenía una vida muy excentrica, y gozaba de una excelente posición social y económica.

Al mismo tiempo, investigaba las propiedades del calor, llegando independientemente a los conceptos de calor latente y calor específico, pero nunca se atrevió a publicar los resultados de sus investigaciones. También descubrió el nitrógeno, describiendo sus propiedades más importantes.

La  mayor contribución  de Enrique  Cavendish a la ciencia fue el descubrimiento de la composición del agua. Debe recordarse que la teoría del flogisto desorientó a los químicos durante algún tiempo, y que él, como muchos de sus contemporáneos, la apoyó.

Primero realizó experimentos sobre la composición del aire, demostrando que era constante. Luego mezcló dos partes de aire inflamable (hidrógeno) con una de aire desflogisticado (oxígeno) en el interior de un globo de cristal, haciendo explotar la mezcla por medio de una chispa eléctrica.

Otros químicos de su tiempo no se habían fijado en el rocío o empañamiento que se produce en las paredes de cristal del globo después de esta explosión. Cavendish comprobó que el peso del globo no había variado. Comprendió que los gases se habían combinado, dando agua. Como no publicó sus investigaciones, se suscitó una controversia, puesto que algunos atribuían el descubrimiento a Jacobo Watt, el inventor de la máquina de vapor.

En conexión con este experimento, descubrió la composición del ácido nítrico. A veces, las gotas de condensación que quedaban en ‘ las paredes del recipiente eran ligeramente acidas, y, al analizarlas, comprobó que tenían ácido nítrico. Explicó este hecho mediante la hipótesis de que el ácido se formaba por combinación del nitrógeno con los otros dos gases. El nitrógeno se encontraba allí como impureza.

Esto pudo demostrarlo añadiendo más nitrógeno, con lo cual se formaba más ácido nítrico. En sus años postreros viajó por toda Inglaterra, tomando nota de las formaciones rocosas y del paisaje. Su último gran experimento fue el descubrimiento de la atracción gravitatoria entre los cuerpos, lo que equivale a pesar la Tierra, como es denominado en algunas oportunidades.

obra cientifica de cavendish

El globo de explosión (reacción) que Cavendish usó se llenaba con los gases y se pesaba de la manera mostrada. Entonces se hacía explotar la mezcla por medio de una chispa eléctrica. Averiguó que el peso no cambiaba y que los gases desaparecían, quedando unas gotas de agua condensada en  las  paredes del  globo.  Se  basó en este experimento   para    explicar   ta    composición    del    agua.

Ampliar Sobre El Peso de la Tierra de Cavendish

Procesos Para Obtener Metales desde Minerales

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos. El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros. La cantidad de metales que existen en la corteza terrestre es relativamente pequeña. Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos. Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral. Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas. La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %. Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—. Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado. Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero. El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.   El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

METALURGIA: El campo de acción que abarca la metalurgia es verdaderamente amplio. Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características. En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales). El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre. Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

Minerales de Hierro

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado. En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado. Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente. Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición. Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente. Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente. Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos. En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables. Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza. El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación. Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada. Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación. También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.
El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia. Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable. Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción. También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta. Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos. Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales. La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia. La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año. En el- futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Significado de Gravedad Cero Ingravidez en una Nave Espacial

Significado de Gravedad Cero
Estado de Ingravidez en una Nave Espacial

La manzana Newton fue  hacia la Tierra por acción de la fuerza de la gravedad. Una fuerza análoga actúa sobre todas las cosas, tendiendo á acercarlas entre sí. Cuanto mayor sea la masa de los objetos, mayor es la fuerza gravitacional que ejercen sobre los demás. (La fuerza gravitacional ejercida por dos cuerpos entre sí, es proporcional al producto de sus masas individuales).

La Tierra es un objeto gigantesco, con una masa de alrededor de 5.883.000.000.000.000.000.000 toneladas, ejerciendo por consiguiente una fuerza gravitacional muy grande.

Esta fuerza es lo suficientemente intensa como para imprimir a la manzana, en su caída hacia la Tierra, una aceleración de 9,8 metros por segundo Pero la fuerza con que la Tierra atrae a la manzana depende, a su vez, de la distancia de ésta al centro de gravedad de aquélla. Cuando se encuentra sobre la superficie de la misma o en su proximidad la manzana está a casi 6.500 Km. del centro.

Si se dejase caer la manzana desde una altura doble de la distancia hasta dicho centro de la Tierra (13.000 Km. desde el centro, 6.500 Km. desde la superficie), la aceleración hacia la Tierra sería de 2,45 metros por segundo. De modo que, doblando la distancia al centro de gravedad terrestre, la fuerza de la gravedad se ha reducido a la cuarta parte del valor que tenía sobre la superficie de la Tierra. Expresado matemáticamente, la fuerza de la gravedad varía inversamente con el cuadrado de la distancia que separa las dos masas.

De este modo, cuánto más se aleje la manzana de la Tierra, tanto más disminuirá la fuerza gravitatoria, aunque ésta nunca podrá ser nula, porque, para ello, sería necesario que entre la manzana y la Tierra hubiera una distancia infinita. Sin embargo, en el momento en que la manzana estuviese a unas decenas de miles de kilómetros de la Tierra, el efecto de la gravedad terrestre llegaría a ser despreciable.

Si la manzana fuese colocada en este punto, no volvería a caer sobre la Tierra, porque la fuerza sería tan débil que no podría atraerla. En consecuencia, quedaría flotando en el espacio.

Esta es la condición conocida como g cero (gravedad cero) y es una de las primeras dificultades con que tropiezan los astronautas. Nos sorprende porque, inconscientemente, contamos con que la acción de la gravedad es constante. Así, cuando vertemos el té dentro de una taza, ponemos la tetera en un plano superior, casi perpendicular a la taza, y la gravedad arrastra el líquido hasta el interior de la misma.

Si el astronauta intentase hacer esto en las condiciones de gravedad cero, el té quedaría flotando a su alrededor, en forma de gotas, en el interior de la astronave. El movimiento también sería bastante diferente, puesto que no habría fuerza de gravedad que ligase al astronauta sobre el piso. Así, si él tomara impulso, empujando con los pies, continuaría desplazándose hacia arriba, hasta que tropezaría  contra el techo.

ingravidez, astronautas en sus practicas

Significado de Gravedad Cero

Por ejemplo en la cabina de un avión entrando en picada en caía libre, el mismo seguirá una curva hacia la Tierra por efecto de la gravedad terrestre. Estas condiciones sólo pueden mantenerse durante unos 20 segundo.

GRAVEDAD Y ACELERACIÓN (ver Principio de Equivalencia)
Los astronautas experimentarán los efectos de la gravedad cero cuando viajen por el espacio con un movimiento estacionario, lejos de las atracciones gravitatorias del Sol y de algunos otros planetas.

También notarán la falta de gravedad cuando se muevan con velocidad constante. Pero tan pronto como la nave espacial empiece a acelerar se sentirá una fuerza en sentido contrario al de la marcha, que podría, fácilmente, ser tomada como una fuerza gravitatoria.

La gravedad y la aceleración están estrechamente relacionadas. Del mismo modo que la fuerza de la gravedad acelera la manzana, así también la aceleración crea una «fuerza» muy similar a la gravitatoria.

Mientras la nave espacial no se mueve, acelerándose o retrasándose (o, dicho de otro modo, cuando esté detenida o se mueva con velocidad constante), su movimiento no crea una fuerza que produzca el mismo efecto que la fuerza gravitatoria. Esto se expresa en el primer principio del movimiento de Newton:   «Cuando no actúa fuerza alguna sobre un cuerpo, nada cambia en él. Si está en reposo, continúa estándolo. Si se está moviendo con una cierta velocidad, continúa moviéndose con la misma velocidad».

Lo contrario de este principio sigue rigiendo en el espacio, y, siempre que la nave esté quieta o moviéndose con velocidad constante, ninguna fuerza actuará sobre ella.

El segundo principio del movimiento de Newton se refiere al efecto de una fuerza sobre el movimiento de un cuerpo: «Las fuerzas producen siempre aceleraciones, y éstas son proporcionales a las magnitudes de las mismas». De nuevo, lo contrario de este principio sigue siendo válido para la nave espacial que está acelerándose.

Toda aceleración produce una fuerza. Si la nave espacial estuviera sometida a una aceleración de 9,8 metros por segundo2 el astronauta tendría la sensación de estar sobre la Tierra. La «fuerza» debida al movimiento sería indistinguible de la fuerza gravitatoria terrestre, porque ésta tiende a acelerar los objetos precisamente a 9,8 metros por seg.².

Por ejemplo, si la nave espacial fuera acelerada, partiendo del reposo, el astronauta que comenzara a servirse su té podría pensar que las cosas suceden con toda normalidad. Quedaría definida una dirección hacia arriba y una dirección hacia abajo (lo mismo que ocurre sobre la Tierra). El «arriba» coincidiría con la dirección de la proa de la astronave, mientras que «abajo» estaría en la dirección de la cola de la misma.

El piso de la nave debe situarse, por tanto, en el extremo más próximo a la cola, y, si el astronauta se pusiera de pie para servirse su taza de té, éste caería en el interior de la taza con toda normalidad. No obstante, aunque al astronauta pudiera parecerle que las cosas suceden del mismo modo que en la Tierra, un observador imparcial, situado fuera de la astronave, observaría lo contrario.

Supóngase que se hubiese dejado atrás, en el espacio, a un astronauta mientras que la nave se moviese uniformemente, y que aquél pudiera ver lo que sucede cuando la nave se acelerase, alejándose de él. Entonces, tan pronto como se vierte, el té no sigue el movimiento de la astronave; no se; acelera hacía delante, como las restantes cosas fijas (incluyendo la tetera), porque no está unido a nada. De modo que ninguna fuerza actúa sobre él y se queda exactamente donde está cuando la astronave se mueve uniformemente.

De hecho, acelerando la nave espacial hacia adelante se recogería el té en la taza. Aquélla se movería hacia el té, pero un astronauta, en ella, por estar sometido a la misma aceleración, no encontraría diferencia entre el movimiento de la nave hacia el té y el de éste hacia abajo, como ocurriría sobre la Tierra.

Y no es porque exista algún error en la percepción, puesto que no existe, absolutamente, ningún procedimiento para encontrar la diferencia. Pero, ¿cómo se podría conseguir que la manzana no volviese a la Tierra, después de haberla lanzado, sin necesidad de alejarla infinitamente de la misma? Este problema está teóricamente resuelto desde que Newton formuló sus importantes principios.

Si hacemos girar una piedra, atada al extremo de una cuerda cuyo otro extremo sujetamos con la mano, notamos que la piedra hace una fuerza, tirando de nuestra mano en la dirección del radio determinado por la misma. Una fuerza de este tipo es la que tiende a hacer volcar a los automóviles al tomar una curva y, para contrarrestarla, las curvas de las carreteras tienen cierto declive o ángulo, llamado peralte.

En general, podemos decir que es necesario aplicar una fuerza de este tipo, siempre que se intenta desviar del camino rectilíneo a un móvil cualquiera. En algún otro lugar, ya dijimos cómo los cuerpos tienden, siempre, a conservar los estados de reposo o de movimiento rectilíneo con velocidad constante.

Para modificar esta tendencia natural de todos los objetos del universo, es necesario aplicarles una fuerza, tanto para sacarlos del reposo, como para variar su velocidad o separarlos de su trayectoria, puesto que, como decimos, tiende a ser rectilínea.

Pues bien, esta fuerza que es necesario aplicar para que la trayectoria descrita por un cuerpo sea curva, y que esté dirigida, siempre, hacia el centro de curvatura de la misma, se llama fuerza centrípeta. Por otra parte, el tercer principio de Newton, el llamado de la acción y la reacción, nos dice: «Siempre que un objeto ejerce una fuerza sobre otro, éste también ejerce una fuerza sobre el primero, llamada reacción (igual y de tido contrario), que tiende a opo-r. al efecto de la misma».

Pues bien, contra la fuerza centrípeta (hacia adentro) que tenemos que hacer sobre la piedra para  que ésta  describa  un circulo la piedra ejerce una fuerza sobre la mano que, por estar dirigida en sentido contrario al centro, se llama centrífuga (hacia afuera).

¿Por qué razón un satélite que está rando en su órbita no se precipita contra la Tierra, como lo haría cualquier objeto que se dejara libremente, a cierta distancia de la superficie terrestre? respuesta  es   sumamente  sencilla.

Un objeto cualquiera, en el espacio, a cierta ta distancia de nuestro planeta, sufre la acción de la fuerza gravitatoria. Ahora bien, si este objeto se encuentra movimiento,   describiendo   una   órbita más o menos circular, también actua sobre él la fuerza centrífuga debido este movimiento.

Sólo nos queda disponer las cosas de modo que ambas fuerzas se contrarresten y, así, todo ocurríría como si sobre él no actuase fuerza alguna. Esto es lo que se hace al colocar en órbita un satélite artificial. Se calcula   su   trayectoria   de   modo  que conjunto de las fuerzas ejercidas sobre él sea nulo en todo instante.

Como, en principio, la fuerza centrífu dependerá no sólo del radio de giro si también de su velocidad, los científicos han de establecer un compromiso en las  magnitudes   que  entran   en  jueígo que son:  velocidad y radio de la ti yectoria. La masa del satélite sólo interviene durante el lanzamiento, des que sale de la Tierra, hasta que se coloca en órbita. Si suponemos una órbita circular, la relación que debe existir entre las maginitudes anteriores será:

formula velocidad de satelite en una órbita

Significado de Gravedad Cero

Fuente Consultada:
Revista TECNIRAMA N°84 Gravedad Cero
Enciclopedia de la Ciencia y la Tecnología

Ver: La Presurización en Aviones

La presión de un buzo bajo el agua Consecuencias, Oxígeno

La presión de un buzo bajo el agua
Consecuencias, Oxígeno

Hablamos de «presión» cuando una fuerza se distribuye sobre una superficie. Para una fuerza invariable, si la superficie es grande la presión es pequeña. Cuando clavamos, el impulso del martillo se reparte sobre la minúscula superficie de la punta del clavo, origina una gran presión y el clavo penetra en la madera; las cosas serían muy diferentes si tratásemos de meter el clavo por la cabeza.

Un litro de aire sólo pesa algo más de un gramo. Pero la atmosfera tiene muchos kilómetros de altura y su peso nos somete, al nivel del mar, a una presión de cerca de un kilo por cada centímetro cuadrado, lo que equivale a unos 15.000 kilos para todo el cuerpo. Se dice que esa presión de 1.033 gramos por centímetro cuadrado vale «1 atmósfera».

Un litro de agua de mar pesa ochocientas veces más que uno de aire: 1.030 gramos. Un cálculo sencillo nos muestra que para cada diez metros de profundidad una nueva atmósfera de presión se suma a la que ya soportábamos en la superficie. Así, a 10 metros la presión es de 2 atmósferas, y a 50 metros es de 6 atmósferas.

CÓMO SE CALCULA  LA  PRESIÓN
Supongamos un tubo de 1 cm2. de sección y 10 m. de altura. Tendrá entonces un volumen de 1.000 cm3., es decir de 1 litro, y pesará por lo tanto 1 kg. Ese kilogramo se ejercerá sobre el cm2. de sección. Sabemos por un artículo anterior que la presión en los líquidos se transmite en todo sentido. Por lo tanto a cada 10 m. de profundidad en el agua reina una presión adicional de 1 kg. por cm2. (varía un poco con la densidad del agua).

LA RESPIRACIÓN
En la respiración tenemos que ver tres aspectos. Primero, dilatamos y comprimimos el tórax que es como un fuelle que expande y comprime los pulmones. Si la presión del agua es muy grande, los músculos ya no pueden vencerla y la respiración se hace dificultosa o imposible.

De allí que en sumersión libre, es decir la que practican los acuanautas, no es prudente pasar de los 12 ó 15 m. de profundidad: a 15 m. de hondura la presión total que soporta el cuerpo pasa de los 40.000 kg. En segundo lugar, nuestro movimiento respiratorio está destinado a suministrarnos oxígeno; necesita por lo tanto mantener un cierto ritmo y recibir una cierta cantidad de oxígeno; aunque la proporción de oxígeno es sólo de una quinta parte del volumen del aire, como es bastante pesado, el peso del oxígeno es casi un 30 % del aire inspirado.

Habitualmente inspiramos unos 7 litros por minuto, pero nuestros pulmones contienen aire de reserva y aire residual, de manera que se ven a veces sumersiones de acuanautas a profundidades bastante mayores que las antedichas. El tercer punto clave de la respiración es el anhídrido carbónico, sumamente importante porque es el que excita el centro respiratorio.

Cuando carecemos de anhídrido carbónico nos quedamos sin respirar, en un estado llamado de apnea. Es por esta razón que a los enfermos bajo carpa de oxígeno se les suministra carbógeno, que es una mezcla de oxígeno y anhídrido carbónico. Este último excita el centro respiratorio del bulbo raquídeo.

LA SUMERSIÓN EN  DESNUDO
A 30 m. de profundidad se soporta más de 65.000 kg. de presi (4 kg. por cm2.); pero es cierto que utilizando el aire resi algunos acuanautas han llegado a 39 y hasta a 45 m. Sin emt los accidentes de la presión no son sólo respiratorio a los 4 m. de profundidad el tímpano sufre; a los 7 m. aparece una neuralgia seria.

Por otra parte los órganos de la deglución están en con-3 con el oído medio por la trompa de Eustaquio que puede iparse y cuando el nadador ascienda sufrirá dolores sumamente erios por excesiva presión en su oído medio. En este último caso se utiliza la maniobra de Valsalva que consiste en cerrar bien la boca y la glotis y soplar muy fuerte por la nariz a fin de equilibrar las presiones.

A los 15 m.. de profundidad, las cosas se agravan: se irritan los canales semicirculares del oído interno, que son los órganos de nuestra orientación. Si a esa profundidad el nadador gira la cábela, por ejemplo porque ve una presa, es decir baja una oreja, ave un silbido brutal y un velo negro tapa su vista; esa ceguera transitoria lo aterra. Luego sufre el llamado vértigo, de Meniére, es decir que al desaparecer la ceguera ve la superficie pero no abe hacia dónde se dirige. Otro aspecto serio es el de la temperatura; no se debe bajar de los 33°.

A los 40 m. de profundidad la temperatura es de 20° y no hay que olvidar que es el frío quien suele matar a los náufragos a pesar de estar protegidos por los flotadores (la ropa isotérmica es sumamente incómoda). Por último se debe tener muy en cuenta que al ascender el nadador el anhídrido carbónico que estaba disuelto en la sangre  que le había dado sensación de angustia al excitar el nudo vital de Flourens o centro respiratorio del bulbo raquídeo, distiende los alvéolos pulmonares con lo cual aumenta esa angustia.

En síntesis, el nadador de profundidad necesita voluntad para vencer la sensación de angustia y vigilar la atonía muscular, la torpeza y eventualmente el síncope. Pero debe tenerse en cuenta que el nadador se mantiene muy poco  tiempo  sumergido:   de 40 a 60 segundos, y ello disminuye apreciablemente el peligro.

presion de un buzo bajo agua

AIRE COMPRIMIDO  PARA  LOS  BUZOS
Al espirar aire comprimido, la presión interna del tórax equilibra el peso aplastante del agua, y gracias a este contrapeso los ulos  respiratorios   del   buzo   trabajan   cómodamente.   Pero entonces, ¿por qué no se debe pasar de los 70 m. aún con es-tandra? Todo lo que decimos en este caso vale para las esca-mdras autónomas de los acuanautas, al estilo de las del coman-inte Cousteau, en las que la presión del aire  equilibra auto-íáticamente la presión del agua mediante un mecanismo especial.

EL NITRÓGENO A  PRESIÓN  ES  UN   NARCÓTICO
Este gas  «inerte»  al  nivel del mar  se disuelve  en  los  lípidos (cuerpos  grasos  que  abundan  especialmente  en  el  sistema  nervioso) cuando su presión llega a 6 1/2 kg. por centímetro cuadra-lo. Esto ocurre hacia los 70 metros, donde la presión total es de los 8 kilos (y el nitrógeno, que forma el 80 % del aire, es responsable del 80 % de la presión, o sea de unos 6 1/2 kg.).

El efecto cótico   del  nitrógeno  explica  por qué   aumentan   tanto   los narcóticos de los buzos al acercarse a la profundidad crítica. Más ante la ideación se vuelve incoherente, el buzo no sabe ya por qué bajó, y aun llega a querer desconectar su escafandra y echarse a dormir. En definitiva experimenta falta de lógica y una especie de euforia atontada.

Por esta razón, cuando resulta necesario descender a profundidades peligrosas, es obligatorio bajar en grupo. Cuando se trata de hazañas o trabajos muy especiales, se da a respirar una mezcla de oxígeno con helio o hidrógeno; así se han logrado profundidades extraordinarias, pero hubo accidentes mortales a pesar de tratarse de casos en que la preparación científica y deportiva eran sumamente completas.

EL OXÍGENO A PRESIÓN  ES  UN VENENO
No se administra oxígeno puro a los buzos de alta profundidad, porque a una presión de 2,2 kg. por cm2. se convierte en veneno: esta presión, de un poco más de dos atmósferas, corresponde a unos 12 m. de profundidad si se respira oxígeno puro. En cambio, si el oxígeno está en la misma proporción que en el aire, la presión crítica será de 100 metros (11 atmósferas, de las cuales el oxígeno inhalado participa en más del 20 %).

En resumen, el oxígeno a 100 m. es un tóxico violento y súbito que produce convulsiones y a veces una muerte rápida. El problema es más grave en los usos militares, porque a menudo hay que usar el oxígeno en circuito cerrado con el fin de evitar burbujas delatoras, y los aparatos son entonces de oxígeno puro; para usos militares se prohibe toda sumersión mayor de los 13 m.

ACCIDENTES AL ASCENDER
Cuando se destapa una botella de bebida gaseosa aparecen burbujas en el seno del líquido. Lo mismo ocurre en la sangre de un buzo que, después de estar sumergido a profundidades apre-ciables, asciende bruscamente. Con la descompresión, los gases disueltos forman rosarios de burbujas en los vasos capilares, y los obstruyen.

El remedio inmediato para esta «aeroembolia», que puede ser mortal, está en recomprimir al paciente y luego disminuir lentamente la presión para dar tiempo a la evacuación de los gases sobrantes por los pulmones. En otro documental veremos en detalle qué precauciones se adoptan en tales casos.

APARATOS  PARA MEDIR LA  PRESIÓN
En resumen no difieren de los manómetros comunes. Pero en algunos se usan los transductores. El transductor es un aparato que convierte la presión en una corriente eléctrica y entonces emite una señal de alarma. Hay otros aparatos que al llegar a una presión de 2 1/2 atmósferas levantan un peso y advierten asi el peligro.

Hay dos medidas de presiones. La que se indica por psia indita la presión absoluta en libras por pulgadas, es decir, contando la presión atmosférica; la que se indica por psig indica simplemente la presión adicional bajo el agua sin tener en cuenta la presión atmosférica.

Fuente Consultada: Revista TECNIRAMA Enciclopedia de la Ciencia y la Tecnologia N°4

Los Sucesos mas importantes del Siglo XX

Los Sucesos Mas Importantes del Siglo XX:Guerras Mundiales,Descolonización,Progreso Científico

sucesos mundiales

Los avances científicos y técnicos han cambiado radicalmente la vida cotidiana de las personas.  De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX. Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso. A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables. (picar en la foto para mas información)

linea divisoria

sucesos mundiales

Entre 1914 y 1918 se desarrolló en Europa la mayor conflagración hasta entonces conocida. Motivada por conflictos imperialistas entre las potencias europeas, la «gran guerra», como se denominó originalmente a la primera guerra mundial, implicó a toda la población de los estados contendientes, así como a la de sus colonias respectivas. La segunda guerra mundial fue un conflicto armado que se extendió prácticamente por todo el mundo entre los años 1939 y 1945. Los principales beligerantes fueron, de un lado, Alemania, Italia y Japón, llamadas las potencias del Eje, y del otro, las potencias aliadas, Francia, el Reino Unido, los Estados Unidos, la Unión Soviética y, en menor medida, la China. La guerra fue en muchos aspectos una consecuencia, tras un difícil paréntesis de veinte años, de las graves disputas que la primera guerra mundial había dejado sin resolver.(picar en la foto para mas información)

linea divisoria

sucesos mundiales

El comunismo defiende la conquista del poder por el proletariado (clase trabajadora), la extinción por sí misma de la propiedad privada de los medios de producción, y por lo tanto la desaparición de las clases como categorías económicas, lo cual, finalmente, conllevaría a la extinción del Estado como herramienta de dominación de una clase sobre otra. Adoptó la bandera roja con una hoz y un martillo cruzados (símbolo de la unión de la clase obrera y el campesinado), y desde su origen tuvo carácter internacionalista, aunque el Stalinismo recuperó el discurso nacionalista de la «madre Rusia» durante la Segunda Guerra Mundial, a la que la propaganda soviética siempre llamó «gran Guerra Patriótica». (picar en la foto para mas información)

linea divisoria

sucesos mundiales

El proceso de descolonización constituye uno de los más decisivos factores de la configuración de una nueva realidad histórica en el panorama global de la época actual, y ha dado origen no solo a un nuevo Tercer Mundo, con una dinámica interna propia, sino también a una serie de cuestiones y problemas que se proyectan directamente en el plano de la historia universal. Es por ello una tarea no solo posible, sino necesaria, emprender descripciones históricas de la primera fase de este naciente Tercer Mundo, que constituye el campo problemático más reciente del siglo XX, y a la vez quizá el mas importante para el futuro de la historia actual. (picar en la foto para mas información)

linea divisoria

sucesos mundiales

En la actualidad, se teme que la humanidad haya alcanzado, e incluso sobrepasado, la capacidad de carga que tiene a nivel planetario. El ser humano consume el 35% del total de recursos utilizados por la totalidad de las especies vivientes, y a medida que la población crece, esta proporción también aumenta. Hacia el año 1835, la humanidad alcanzó por primera vez en su historia los 1.000 millones de habitantes, pero la población se duplicó en tan solo un siglo. En la actualidad, la población humana mundial se incrementa a razón de 1.000 millones cada década, y la proporción de tiempo amenaza con ser incluso más reducida. Esto se debe a que la población aumenta de manera exponencial (por ejemplo, en caso de duplicarse la población cada generación con una población inicial de 10 millones, en una generación habría 10 millones, a la siguiente 20, a la próxima 40, después 80, y así sucesivamente). (picar en la foto para mas información)

linea divisoria

Los avances tecnologicos aplicados en la vida cotidiana Cientificos

Los Avances Tecnólogicos Aplicados en la Vida Cotidiana

Tecnología en la vida cotidiana: Gracias a las técnicas de producción en masa, los grandes inventos de los ss. XX y XXI forman parte de nuestra vida diaria. La invención de los electrodomésticos llevó a un incremento del tiempo libre en países desarrollados, y el concepto de progreso, en sí mismo, es sinónimo de acceso a las nuevas tecnologías. El microchip tuvo un gran impacto en las comunicaciones desde que Jack Killby y Robert Noy ce lo crearan en 1959, y la nanotecnología combinada con la llegada de Internet facilitó el acceso a la comunicación instantánea global.

LA EVOLUCIÓN TECNOLÓGICA: El ser humano ha recorrido un largo camino desde que el primer Homo sapiens saliera a cazar en África hace millones de años. La tecnología, el uso de materiales naturales y artificiales con un propósito claro, ha progresado enormemente desde el Paleolítico. Aunque es tentador creer que los logros tecnológicos del hombre en los últimos siglos son únicos, es importante mantener una perspectiva histórica.

Como hemos visto en este libro, en los últimos 12.000 años se han experimentado innovaciones revolucionarias para mejorar la vida del hombre. El desarrollo de una herramienta efectiva para matar animales debió de ser revolucionario para el cazador del Neolítico, como nos lo parecen ahora las bombas inteligentes.

El cultivo de cereales en Oriente Medio fue probablemente un acontecimiento de mucha más trascendencia que el desarrollo de los cultivos genéticamente modificados, ya que cambiaron el curso de la historia del ser humano. De manera similar, la llegada de la escritura a Mesopotamia constituye un logro más importante a largo plazo que la aparición del ordenador en tiempos modernos. Son muy numerosos los ejemplos de innovaciones e inventos que han cambiado el curso de la historia de la humanidad.

Sin embargo, la característica común de los tiempos actuales, especialmente desde la Revolución industrial, recae en la velocidad con que la innovación tecnológica se ha diseminado por toda la sociedad. En el siglo XX, la organización de la innovación tecnológica sufrió un cambio profundo. La investigación y el desarrollo ya no se llevaban a cabo de manera individual, sino en grandes organizaciones, como universidades, o laboratorios industriales o gubernamentales. La infraestructura que se necesita hoy para la investigación está mucho más allá del alcance de las personas. Esta tendencia se ha pronunciado especialmente en la segunda mitad del siglo XX, con la institucionalización de la investigación tecnológica y científica.

El siglo XXI trajo aun más cambios en la manera de llevar a cabo las innovaciones tecnológicas. La aparición de Internet y de las comunicaciones rápidas y baratas ha permitido que la investigación se disperse geográficamente, una tendencia que crecerá en los años venideros. La dispersión global de la innovación tecnológica será más rápida y el acceso a tecnologías más avanzadas, especialmente en los bienes de consumo, será más fácil y estará más extendido.

Resulta arriesgado predecir qué tipos de tecnologías aparecerán en el siglo XXI. La creatividad de la mente humana es ilimitada en esencia y, por tanto, solemos equivocamos con las predicciones tecnológicas. No se puede predecir con ningún tipo de certeza qué forma tendrá la tecnología y cómo impactará en la sociedad humana. Después de todo, incluso los científicos más brillantes de principios del siglo XIX no podrían haber imaginado los viajes espaciales ni el microprocesador. Aun así, se puede decir que el progreso tecnológico seguirá avanzando a mayor velocidad en los próximos años y posiblemente hará que la vida sea más fácil para la gran mayoría de la humanidad, con desarrollos revolucionarios en medicina, transporte y comunicaciones.

No obstante, el medio ambiente empieza , protestar, como se hace patente en el calentamiento global y en la disminución de la capa de ozono, por lo que deberíamos ralentizar los avances tecnológicos por el bien de las generaciones futuras. Sí bien en el siglo XXI ya hemos empezado a trabajar por el entorno, deberíamos fomentarlo más en el futuro.

Internet: En 1989 la WWW se inició para el Consejo de Europa de Investigación Nuclear. Nueve años después, un vehículo de seis ruedas, de menor tamaño que una hielera de cervezas, rodaba por la superficie de Marte y fue visto por internet uniendo la imaginación colectiva con la misión Mars Par Finder de la NASA. Al finalizar el 11 de septiembre de 1998, Internet demostraría su eficacia al poner a disposición de millones de usuarios de la World Wide Web, en un simple disco de 3.5 pulgada; en menos de 24 horas, toda la información sobre los escándalos sexuales de Bill Clinton. El forma:: facilitó a sus receptores acceder a cualquier detalle gráfico con sólo oprimir una tecla. Adema; e Reporte Starr, como se conoció al informe sobre el affaire Clinton, tenía la ventaja de estar completo. Ningún otro medio de comunicación lo presentó de esa manera.

La mensajería electrónica, las pantallas y los procesadores de textos reemplazan a las letra; escritas sobre papel. Diccionarios, enciclopedias como la de Oxford y la Británica, diarios y revistas de todo el mundo, catálogos de librerías y de bibliotecas, libros de texto, incluso novelas, museo; estudios de todos los niveles, recuerdan aquellos cursos por correspondencia, sólo que ahora cuerna-con respuesta inmediata. Lo único que se necesita saber es qué se desea, apretar una tecla y liste La computación es un buen ejemplo del conocimiento y la experiencia que tiene la juventud en el uso de la tecnología: el padre tiene que recurrir a su hijo para que le enseñe. Están cambiando los patrones de enseñanza.

Internet constituye un instrumento importante para la movilización de capitales, ya que éste pueden ser colocados en los mercados de valores, bancos de cualquier parte del mundo, moviendo el dinero de manera rápida y segura.

Programas de Exploracion Espacial Cronología Las Misiones al espacio

Programas de Exploración Espacial
Cronología Las Misiones al Espacio

Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el Año Geofísico  Internacional , pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958.

Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960.

A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Tabla siguiente es un resumen de los principales programas de exploración del espacio:

NombrePaísFechasLogrosMiembros
SputnikURSS1957-1958Primer
Satélite
Valery Byskovsky.Yuri Gagarin, Adrián
Nikolayaev, Pavel Popovitch, Valentina
Tereshkova, GhermanTitov
Malcolm Scott Carpenter, L. Gordon
Cooper
.John Glenn,Virgil Grissom,
Walter Schirra, Alan Shepard
ExplorerEE.UU.1958-1984Experimentos
Científicos
PionnerEE.UU.1958Investigación
de la Luna
LunikURSS1959Aterrizaje
en la Luna
VostokURSS1961-1963Primer Vuelo
Tripulado
MercuryEE.UU.1961-1963Americanos en el Espacio
VeneraURSS1961-1983Investigaciones
de Venus
RangerEE.UU.1961-1965Alunizajes
MarinerEE.UU.1962-1974Mercurio, Venus
y Marte
OSOEE.UU.1962Estudio Solar
MarsURSS1962-1971Investigación
de Marte
Pavel Belyayev, Konstantin Feoktistov,Vladimir
Komarov, Alexei Leonov, BorisYegorov
Edwin Aldrin, Neil Armstrong, Frank
Borman, Eugene Cernan, Michael Collins,
Charles Conrad, L Gordon Cooper.Virgil
Grissom, James Lovell, James McDivitt,
Walter Schirra, David Scott, Thomas
Stafford, Edward White, John Young
VokshodURSS1964-1965Vuelos espacial con tres tripulantes
GéminisEE.UU.1964-1966Prueba de Vuelos Lunares
LunaURSS1966Fotografía
Lunar
Luna OrbiterEE.UU.1966-1967Cámara en
órbita lunar
Adwin Aldrin, William Anders, Neil Armstrong,
Alan Bean, Frank Borman, Eugene Cernan,
Michael Collins, Charles Conrad, Walter
Cunningham, Charles Duke, Don Eisle,
Richard Gordon, Fred Haise, James Irwin,
James Lovell, Edgar Mitchell, Stuart Roosa,
Walter Schirra, Harrison Schmitt, Rusell
Schweickart, David Scott, Thomas Stafford,
Jack Swigert,Alfred Worden, John Young
SurveyorEE.UU.1966-1968Robot Lunar
ApoloEE.UU.1966-1975El hombre llega
a la Luna
SoyuzURSS1967-1986Estación
Espacial
Vladimir Dzanibekov, Georgi Grechko, Alexei Gubarev, Pyotr Klimuk, Vladimir Remek,Yuri Romanenko, Víctor Savinykh, Svetlana Savitskaya.Vladimir Shatalov, Vitaly Stevastyanov, Vladimir Vasyutin, Vladimir Volkhov Alan Bean, Gerald Carr, Charles Conrad, Owen Garriott, Edward Gibsonjoseph Kerwinjack Lousma, William Pogue, Paul Weitz
SalyutURSS1971-1986Estación espacial tripulada
SkylabEE.UU.1973-1974Primera estación espacial americana
ATMEE.UU.1973-1974Estudio Solar
Apolo-SoyuzEE.UU./URSS1975Emprendimiento InternacionalVanee Brand, Valery Kubasov, Alexei Leonov, Donald Slayton,Thomas Stafford
VoyagerEE.UU.1977-1986Estudio de Gigantes
de Gas
Valery Byskovsky.Yuri Gagarin, Adrián Nikolayaev, Pavel Popovitch,Valentina Tereshkova, GhermanTitov Malcolm Scott Carpenter, L. Gordon Cooper.John Glenn,Virgil Grissom, Walter Schirra,Alan Shepard
SMMEE.UU.1980-1989Estudio
Solar
TransbordadorEE.UU.1981-?Naves tripuladas de uso reiterado
SpacelabEE.UU./AEE1983Laboratorio espacial de uso reiterado
VegaURSS1985Estudio atmosférico de Venus y fotos del cometa Halley
MirURSS1986-?Estación
Espacial
Pavel Belyayev, Konstantin Feoktistov,Vladimir Komarov, Alexei Leonov, BorisYegorov Edwin Aldrin, Neil Armstrong, Frank Borman, Eugene Cernan, Michael Collins, Charles Conrad, L. Gordon Cooper.Virgil Grissom, James Lovell, James McDivitt, Walter Schirra, David Scott,Thomas Stafford, Edward White, John Young
GiottoAEE1986
SuseiJapón1986
BuranURSS1988
FobosURSS1988
GalileoEE.UU.1992-?
CassiniEE.UU./AEE1996

 

Robert Peary Conquista el Polo Norte Primer Hombre en Llegar al Polo

Robert Peary conquista el Polo Norte
Historia del Primer Hombre en Llegar al Polo Norte

Robert Edwin Peary (Cresson, Pensilvania, 6 de mayo de 1856 – 20 de febrero de 1920) fue un explorador estadounidense que alegó haber sido la primera persona en llegar al Polo Norte, el 6 de abril de 1909, una reivindicación que le supuso grandes honores y prestigio, pero que posteriormente le atrajo muchas críticas y controversias, y hoy es ampliamente puesta en duda. (ver mas abajo la controversia).

Peary llega al polon norte

SÍNTESIS: En setiembre de 1909, el «Peary Arctic Club» recibía un mensaje con la palabra «Sun»‘ (sol). Era el término preestablecido para indicar que el Polo Norte había sido alcanzado. El mensaje había sido enviado por el explorador estadounidense Roberto Peary.

No se tiene la absoluta certeza de que el tenaz expedicionario haya alcanzado exactamente la meta propuesta, pero esto no disminuye el mérito de la hazaña. Hacía muchos años que Peary se preparaba para esta gran empresa.

Había hecho varias tentativas, pero siempre el frío y las enormes dificultades para viajar sobre el casquete polar lo habían obligado a regresar. Sin embargo, Peary nunca se había desanimado, y finalmente su tenacidad logró sobreponerse a los obstáculos naturales.

LA HAZAÑA
La expedición de Peary fue facilitada por la ayuda e los esquimales. Para conquistarse la simpatía de éstos, Peary aprendió a trabajar como ellos, adoptó s métodos de caza y pesca, vivió en sus casas de hielo, y se alimentó y vistió como ellos. Obtenida la amistad y confianza de los esquimales.

Peary reunió unos setenta de ellos, entre hombres, mujeres y niños, y los embarcó junto con 250 perros, trineos y pertrechos, en el buque «Roosevelt». Cuando llegaron al cabo Sheridan, estableció allí el cuartel de invierno, y en enero de 1909 se dirigió con 23 hombres a cabo Columbia, el punto más septentrional de la Tierra de Grant.

El 22 de febrero inició la marcha por la conquista del Polo. El avance sobre el casquete polar se hizo por etapas y por grupos. El primer grupo se detuvo a 85°33′ de latitud, el segundo a 86°33′ y el tercero a 87°47´.

Aún faltaban 250 kilómetros para llegar a la meta. Desde este punto partió el último grupo, mandado directamente por Roberto Peary. Estaba integrado por su criado negro y seis esquimales, con quienes llegó al Polo Norte el 6 de abril de 1909.

La empresa había sido penosa. Los trineos avanzaban día tras día sobre el casquete polar, bajo el gran frío que agotaba las fuerzas de hombres y perros. Cada tanto el avance debía detenerse porque los hielos eran interrumpidos por brazos de mar libre. A principios de marzo la expedición se detuvo por seis días, hasta que el agua se congeló y pudo reanudarse la marcha. Necesitaron todo el mes de marzo y varios días de abril para alcanzar la meta.

Peary había llevado a cabo una hazaña que antes intentaron realizar, sin éxito, numerosos exploradores. Escribió en su diario: «¡El Polo, finalmente! El premio de tres siglos. Mi sueño; mi meta de veinte años. ¡Finalmente mío! Una vez plantada en el hielo la bandera de Estados Unidos, dije a Henson que lanzáramos con los esquimales un triple y estentóreo ¡viva!»

VIDA DE ROBERTO PEARY
Roberto Edwin Peary era oficial de la marina estadounidense. Había nacido en Cresson, Pensilvania, el 6 de mayo de 1856, Y en 1881 fue designado para el cargo de ingeniero naval. En 1886 realizó una primera expedición a Groenlandia, internándose 160 kilómetros en la gran isla y ascendiendo hasta 2.250 metros. En 1891, la Academia de Ciencias de Filadelfia le encargó guiar una nueva expedición hasta la extremidad norte de Groenlandia. En esta expedición, Peary alcanzó en trineo tirado por perros los 82° de latitud.

En 1893 y 1895 organizó dos nuevas expediciones a Groenlandia. En 1897 fundó la «Sociedad Ártica Peary», destinada a alcanzar el Polo. Entre 1898 y 1902 organizó bases en Groenlandia septentrional y en la Tierra de Grant, desde la que realizó expediciones hacia el norte. En 1898, durante la primera expedición, Peary sufrió la congelación de los pies y debió abandonar la tentativa.

Volvió a hacer nuevos intentos en 1900, 1902 y 1905, partiendo ya desde la costa de Groenlandia, ya de la Tierra de Ellesmere (norte de Canadá); pero los hielos al fin lo bloqueaban y obligaban a retroceder. En 1906 dijo haber alcanzado los 87°6′ de latitud, superando las distancias alcanzadas por Nansen en 1896 y el duque de los Abruzos en 1900. Peary tenía 53 años cuando al fin tuvo por cierto haber alcanzado la meta a la cual había dedicado gran parte de su vida, proeza que relató en su libro «El Polo Norte: su descubrimiento en 1909».

De regreso en su patria, Roberto Peary fue recibido con grandes honores, y se le otorgó el grado de almirante.
Ciertamente, eran honores bien merecidos. Premiaban la dedicación de un hombre que había soportado con valor peligros y sufrimientos, para que fuera conocido otro «ángulo» del mundo. Hoy, que el Polo Norte es sobrevolado diariamente por los aviones de varias rutas intercontinentales, merece ser rememorada la hazaña de aquel explorador: ejemplo de tenacidad y de fe. Roberto Peary murió en Washington el 20 de febrero de 1920.

Itinerario del Viaje de Peary

DESCRIPCIÓN DE LA AVENTURA DE PEARY: Casi un mes después de haber iniciado su travesía en el puerto de Nueva York, el vapor Roosevelt seguía rumbo al norte, costeando la parte occidental de Groenlandia.  El comandante, Robert Edwin Peary, entornando los ojos bajo sus pobladas cejas, escudriñaba la costa en busca de señales conocidas.  Frente a él, aquel lo. de agosto de 1908, muy al norte del círculo polar Ártico, avistó el saliente cubierto de nieve del cabo York. (Peary, foto izquierda)

Parecía un lugar desierto, sin vida: sólo acantilados, según Peary, «cercados y custodiados por enormes escuadrones de témpanos flotantes».  No obstante, al pie de los acantilados había un diminuto poblado esquimal.  Al enfilar el Roosevelt a la playa, una partida de cazadores alborozados salió bogando en sus kayaks de piel de foca a recibir el vapor.  «Eres como el sol, pues siempre regresas», dijo uno de ellos a Peary, a manera de saludo.

Era verdad; en los 22 años transcurridos desde su primer viaje a Groenlandia, cuando había resuelto dedicar su vida a la exploración ártica, Peary había vuelto a aquellos parajes helados y desiertos siete veces.  Dos de ellas lo había acompañado su esposa, Josephine, primera mujer que pasó un invierno en el Ártico.  En su segunda expedición, Josephine había dado a luz a su hija, Marie Ahnighito, la «nena de nieve», el primer ser humano blanco nacido en latitudes tan septentrionales.

Al principio, los móviles de Peary habían sido puramente científicos: explorar el interior del casquete helado de Groenlandia y trazar el mapa de las ignotas costas de las islas del remoto norte.  Pero desde su niñez lo habían obsesionado sueños de gloria, y gradualmente sus móviles científicos cedieron ante otro más imperioso: ser el primer hombre que pusiera la planta en el polo Norte.

En su más reciente expedición, hecha entre 1905 y 1906, casi lo había logrado.  Estaba a 174 millas náuticas del polo cuando tuvo que regresar.  Fue lo más cerca que hombre alguno hubiese llegado a aquella meta huidiza.  Pero esto no era un gran consuelo para Peary.  Al comentar posteriormente la expedición, escribió: «Me pareció que la historia de mi vida ya estaba escrita, y que la palabra fracaso se hallaba estampada en ella.»

Pero allí estaba ahora, otra vez en Groenlandia, dispuesto a intentarlo de nuevo.  Se daba cuenta de que sería su última oportunidad de llegar al polo.  A los 52 años de edad ya no era joven, y dos decenios de luchar con los elementos en el Ártico habían hecho estragos en él.  Aunque aún era esbelto y atlético, tenía el rostro curtido y surcado por profundas arrugas.  Empezaba a envanecerle el rojizo cabello.  Sus años en el Ártico se reflejaban incluso en su peculiar modo de andar: en una de las expediciones se le habían congelado los pies, y hubo necesidad de amputarle todos los dedos, menos dos.

Pero su experiencia era mayor que la de cualquier otro explorador del Ártico, y él consideraba la experiencia como el mejor recurso del explorador.  Además, nunca había llegado al remoto norte tan bien preparado para afrontar las dificultades de la exploración polar.  El Roosevelt, que ya tenía en su haber un viaje por el Ártico, se había reacondicionado y era más potente que nunca.  Peary mismo había diseñado el fuerte barco de 56 metros de eslora, no sólo para que soportara la tremenda pre sión de los témpanos flotantes, pues sus muy reforzados costados de madera tenían un espesor de 76.20 cm, sino para abrirse paso diestramente por estrechos corredores, entre las enormes moles de hielo.  Llevaba velas para casos de urgencia, pero la principal fuerza impulsara provenía de sus grandes máquinas de vapor, lo bastante potentes para hacer de la nave un ariete flotante, un rompehielos que pudiera partir la masa congelada.

Su tripulación, la mejor que se hubiese escogido hasta entonces, estaba integrada por varios hombres que ya le habían acompañado en expediciones anteriores, entre ellos, su ayudante, Matthew Henson, explorador de raza negra que le había secundado en casi todas sus proezas en el Ártico en los últimos 18 años.  Además, el conocimiento que tenía Peary de los pobladores de] Ártico le permitiría escoger a los mejores de los que llamaba cariñosamente «mis esquimales», para cuando emprendiera la marcha por el mar congelado hasta el polo.

Después de hacer una breve escala en el cabo Yo para recoger a unas cuantas familias de esquimales perros de tiro, el Roosevelt siguió hacia el norte, e iba deteniéndose aquí y allá para embarcar hombres.  El 18 de agosto el barco iba abarrotado con el equipo completo que habría de pasar el invierno con Peary: 69 seres humanos, de ellos 49 esquimales, y 246 perros.  Peary anotó lacónicamente: «E] Roosevelt, como siempre, iba cargado casi hasta el tope.» Además de la bullente vida humana y de los perros, que no dejaban de ladrar, en las cubiertas estaban amontonadas 300 toneladas de carbón, 70 toneladas de carne de ballena y la carne de unas 50 morsas.  Bajo las cubiertas, entre las provisiones traídas al norte desde la civilización, había 8 toneladas de harina, 5 de azúcar, 15 de pemmican (alimento concentrado y de gran valor energético, hecho de carne seca machacada, mezclada con grasa y condimentos), e incluso media tonelada de tabaco.Los últimos 563 kilómetros de] viaje serían la prueba más ardua para el Roosevelt.  La ruta era por el estrecho canal que pasa entre Groenlandia y la isla Ellesmere.  Y el canal estaba casi bloqueado por altas planchas de hielo de hasta 30 metros de espesor.  A pesar del hielo y del «infame» tiempo, a principios de septiembre el Roosevelt se había abierto paso hasta el cabo Sheridan, a la entrada del canal.  Había establecido una marca, pues era la latitud más septentrional a que había llegado un barco impulsado por su propia máquina.

A medida que cerraba la larga noche ártica, los hombres de Peary empezaron a observar su régimen invernal.  Una necesidad primordial era cazar osos polares y carneros almizcleños para completar las provisiones: Peary era partidario de vivir lo más posible de la tierra en que se estuviera.

Siempre que la luna llena iluminaba el paisaje con débil resplandor, los trineos llevaban provisiones al cabo Columbia, a 144 kilómetros de distancia, en las costas más septentrionales de la isla Ellesmero.  Aquél iba a ser el punto de partida del asalto final de Peary al polo.

Mientras, las mujeres esquimales se ganaban el pan cosiendo ropa para los hombres: camisas de piel de cervato, parkas (especie de abrigos de gamuza forrados de piel de zorro), medias de piel de liebre, pantalones holgados de piel de oso, botas de piel de foca y guantes de diversas pieles.  De mucho abrigo y a prueba de viento, las pieles de animales eran en opinión de Peary la mejor ropa de trabajo para el Ártico, como lo demostraba ampliamente el uso que los esquimales hacían de ellas desde tiempos inmemoriales.

Peary pensaba también que los trineos tirados por perros constituían el único medio eficaz de transporte en el hielo del Ártico.  Sus efectivos iban a ser llevados así a una distancia de más de 660 kilómetros por el mar congelado, desde el cabo Columbia hasta el polo Norte.

Todo estaba dispuesto a fines de febrero.  Si bien el Sol estaba aún bajo el horizonte, el cielo resplandecía 12 horas diarias, con un brillo pálido, lo suficiente para viajar.  Los hombres se reunieron en el pequeño grupo de iglús en cabo Columbia, cargaron sus trineos y se dis pusieron a emprender la marcha rumbo al norte.La «partida nórdica» de Peary constaba de 24 hombres, 19 trineos y 133 perros.  Los dividió en seis grupos, cada uno encabezado por un norteamericano con tres ayudantes esquimales.  El «grupo pionero» llevaría un día de ventaja, e iría abriendo camino.  Seguiría un segundo grupo, el cual dejaría de trecho en trecho parte de las provisiones.  Los otros cuatro grupos formaban el grueso de la expedición y Peary iba en la retaguardia, donde podía vigilarlo todo y al mismo tiempo ahorrar energías para el esfuerzo final hacia el polo.

Los grupos pionero y de provisiones partieron de cabo Columbia el 28 de febrero de 1909, y el 10 de marzo, los grupos restantes salieron sucesivamente a la congelada superficie del océano Ártico.

Aun con el camino despejado por el grupo pionero, cuyos integrantes habían allanado las mayores irregularidades del terreno a golpes de zapapico, la marcha resultó muy penosa.  Desde el principio empezaron a romperse los trineos, que además se volcaban con frecuencia al chocar con hielo erizado de asperezas, oculto bajo la capa de nieve.  Matthew Henson, que iba al frente del grupo principal, describe así las penalidades que sufrió aquel primer día al componer su trineo roto: «Viento y frío.  Deshacer las ataduras; descargar; sacar el berbiquí con sus brocas y hacer nuevos agujeros sin apresurarse, pues, con este frío, hay peligro de que se rompan las barrenas de acero.  Luego, con las manos desnudas, hay que introducir la correa de piel de foca por el agujero.  Los dedos se congelan.  Se interrumpe el trabajo, se meten las manos bajo las axilas, y cuando se experimenta una sensación de quemadura se sabe que la mano se ha descongelado.  Luego se reanuda la tarea.»

Aunque el grupo principal avanzó aquel día sólo 16 kilómetros, Peary se sintió contento.  Algunos trineos esquimales, de 2.75 m de longitud, se habían estropeado mucho, y en cambio los de 3.65 a 4 m cuyos modelos había diseñado él, estaban resistiendo bien.  Su mayor longitud permitía distribuir más uniformemente la carga de 250 kilos de estos trineos, con lo cual bajaba el centro de gravedad.  De esta manera, los trineos más largos corrían menos peligro de volcarse en el hielo áspero.

Para pasar la noche, lo primero que hicieron fue construir iglú de bloques de nieve, tarea que hacían cuatro hombres en una hora. (En esto, también recurrió Peary a métodos esquimales.  Llevar tiendas habría significado un suplemento de peso en los trineos, y los iglú resguardaban infinitamente más de] frío y del viento.) Luego alimentaron a los perros, cenaron sus raciones de pemmican, galletas y té, y con la ropa puesta se acurrucaron a dormir en pieles esparcidas en el suelo de los iglú.

El recorrido del segundo día resultó tan difícil como el del primero.  Como Peary solía decir, el océano glacial Ártico «no es una gigantesca pista de patinar de suelo liso, por donde los perros nos arrastran alegremente».  Su helada superficie está en lento pero constante movimiento, empujada por corrientes, impulsada por el viento,

estirada y comprimida por las mareas.  En los lugares donde las planchas de hielo chocan entre sí y se amontonan una sobre otra, la superficie se surca de grietas y de promontorios de presión, hileras de montones de hielo erizado de asperezas que se alzan a veces hasta a 15 metros de altura.  Para franquear estas barreras los hombres tenían que abrir paso y luego empujar y tirar para ayudar a los perros a pasar con los trineos por «lomas y cuestas, tan difíciles de cruzar que el esfuerzo parecía arrancarle a uno los músculos de los hombros».

Lo peor de todo eran los pasadizos de agua libre, largos y peligrosos estrechos producidos por los vientos y las mareas, que habían roto y separado el hielo.  Podían formarse en cualquier momento, en cualquier lugar, v sin que hubiese ninguna señal previa, incluso en el suelo de un iglú mientras se dormía.  A veces era posible vadear un estrecho angosto utilizando como puentes los largos trineos de Peary; en otras ocasiones se cortaban con hacha planchas de hielo y se empleaban como balsas.  Pero en los estrechos muy anchos lo único que podía hacerse era esperar a que los vientos y las marcas juntaran los, dos bordes, o a que el agua se helara lo bastante para soportar el peso de los trineos.  Peary llamaba a estos pasadizos de agua libre «la persistente pesadilla de los viajeros de] Ártico».  Tenía siempre presente que podían separar unos de otros a los expedicionarios causando largas demoras, o, peor aún, extraviar a un grupo en su regreso a tierra.

Peary tenía sobrados motivos para preocuparse; casi al terminar el segundo día de su marcha, advirtió al frente «una nube oscura y siniestra».  Tales nubes eran signos seguros de pasadizos de agua, pues la superficie de ésta, al evaporarse, se condensa en el aire helado.

Peary dio orden de acampar y, con una sensación de gran alivio, despertó a la mañana siguiente al oír el rugido de los dos lados de la brecha que encajaban el uno en el otro.  Toda la partida desayunó apresuradamente y se precipitó al otro lado, utilizando témpanos como balsas o saltando de uno a otro cuando eran pequeños.

Al continuar la marcha hacia el norte, aquel día, los hombres se alegraron mucho al ver «una llamarada amarilla» que iluminaba el cielo por el sur.  El Sol empezaba a asomarse por encima de] horizonte.  A los pocos días volvería a ser visible, y la larga noche ártica terminaría.

Poco duró la alegría.  Aunque al día siguiente les favoreció encontrar hielo relativamente liso -Henson lo consideró «el mejor hielo marino que he encontrado para viajar»-, Peary veía preocupado una ancha banda de nubes que se extendía por el horizonte.  Poco después, cuando estaban a unos 70 kilómetros al norte de cabo Columbia, les salió al encuentro un pasadizo de agua de 400 metros de anchura que se extendía indefinidamente de este a oeste.  Y allí, en el hielo, esperándolos, estaba Bob Barlett, capitán del Roosevelt, junto con el resto del grupo pionero, que no había podido continuar.

Si bien las brechas o pasadizos de agua eran cosa común en el Ártico, Peary llamó a aquella tremenda zanja en el hielo «la gran brecha».  Había encontrado una semejante a aquélla tres años antes, y era el obstáculo que más temía.  Peary comenta disgustado: «Un espectáculo conocido pero fastidioso. . . La gran extensión de hielo blanco estaba cortada por un río de agua negra como la tinta, que despedía densas nubes de vapor reunidas en un tenebroso dosel.»

Día tras día, la partida esperaba que la brecha se cerrara o se congelara.  El Sol se alzaba brevemente en el horizonte cada día, pero no lograba levantar los ánimos.  Peary se lamenta: «Estamos reducidos a una intolerable inactividad, y la ancha franja de agua negra sigue ante nosotros.» Fastidiado y frustrado, iba y venía al borde del agua, cavilando en el incierto futuro.

Otro factor de preocupación para el jefe de la expedición era que escaseaba el combustible para las cocinas de la partida; muchas latas se habían agujereado al volcarse los trineos, y su contenido había mermado peligrosamente.  Peary había enviado a una partida y luego a otra a cabo Columbia en busca de más combustible, y para entonces ya deberían haber regresado.  Pero no había ninguna señal de aquellos hombres, y, desesperado, empezó a calcular hasta dónde podría avanzar si se viera obligado a quemar los trineos para utilizarlos como leña.

Lo que ignoraba era que ambas partidas, cargadas con gran cantidad de combustible, habían tenido que detenerse ante otra brecha, a varios kilómetros de allí.

Y había otros problemas; Matt Henson comenta: «La gran brecha, al parecer, tampoco es del gusto de los esquimales.» Se reunían en grupos y, preocupados, murmuraban entre sí o se quejaban de enfermedades imaginarias.  Exasperado, Peary optó por hacer que regresaran a la base dos de los peores hombres de la expedición, con órdenes de abandonarla inmediatamente.

Por último, tras perder siete días de un tiempo excepcionalmente bueno, la gran brecha se heló.  Con combustible o sin él, Peary ya no podía perder más tiempo.  La mañana del 11 de marzo, a hora temprana, ordenó a la expedición cruzar la delgada capa de hielo recién formado, esperando que soportara el peso y que los grupos de aprovisionamiento los alcanzaran pronto, cosa que, en efecto, sucedió tres días después.

Entonces Peary condujo a sus hombres rumbo al norte tan rápidamente como le fue posible.  Siguieron avanzando entre hielo áspero y promontorios de presión, cruzaron brechas sobre hielo recién formado, tan delgado que se combaba bajo el peso de los trineos.  En una ocasión, al intentar cruzar una brecha, un equipo completo de perros cayó al agua y casi hundió el trinco; en otra, se formó una brecha en medio de un campamento, con lo cual la mitad de la partida quedó brevemente separada en un témpano flotante.  No obstante, la expedición logró avanzar a razón de 16, 24 y 32 kilómetros por día.

Fue entonces cuando Peary empezó a hacer regresar a los grupos de apoyo a cabo Columbia, con lo que se inició el proceso de eliminación de los hombres y de los perros más débiles hasta que le quedaron los que el jefe de la expedición juzgaba más aptos para el asalto final al polo.  Explicaría posteriormente: «Mi teoría era hacer trabajar a los grupos de apoyo hasta el límite, para conservar fresco al grupo principal.» Además, los grupos que iban regresando conservaban abierto el camino, de manera que la partida que llegara al polo pudiese volver a tierra lo más pronto posible.

Así pues, la primera partida de apoyo regresó el 14 de marzo.  Otra emprendió el camino hacia el sur el 15; la tercera, el 20, y la cuarta el 26.  El 28 del mismo mes, el grupo principal, del que aún formaban parte Henson, Bartlett y sus esquimales, sobrepasó la marca de máximo norte que Peary había establecido en 1906, y luego, el 1.1 de abril, Bartiett también se volvió con sus trineos hacia el sur y empezó su regreso a tierra.

El 1.0 de abril, en la latitud 87’47’ N, la partida polar se preparó a dar el asalto final.  Pea.ry, Matt Henson y los esquimales Ootah, Egingwah, Seegloo y Ooqueah se colocaron frente a sus trineos en la entonces luz continua del día ártico, dispuestos a recorrer los últimos 214 kilómetros de hielo y agua y a «abrir la puerta que guardaba el misterio del Ártico».  Con cinco trineos y 40 perros se prepararon a salir, con Peary al frente por primera vez.

Tenían que recorrer 40 kilómetros al día en los siguieiiles cinco días.  Con esfuerzos sobre humanos, la selecta partida de hombres y perros logró hacer un promedio de Cerca de 42 kilómetros diarios.  Aunque la luna llena y las consecuentes mareas altas planteaban la constante amenaza de que se abrieran brechas impracticables, encontraron largas extensiones de hielo llano.  Los perros parecían haberse contagiado del buen ánimo de la partida. Algunos, incluso, daban tirones con la cabeza y ladraban alegremente al avanzar».

Pero el viaje polar no resulta fácil nunca.  Heilson únicamente recordaría «las penalidades, la fatiga, el es fuerzo al máximo» de aquellos últimos días, cuando a él y a sus esquimales se les permitía sólo unas cuantas horas de sueño cada vez, y Peary parecía no dormir nunca.  En una ocasión, Heilson casi perece ahogado en una frígida brecha, y el mismo Peary tuvo que soportar muchos chapuzones en las heladas aguas del Ártico.

A las diez de la mañana del 6 de abril de 1909, Peary ordenó a la columna que se detuviera.  Luego, a medio día en punto, tomó la altura del Sol.  Anunció que estaban a 89’57’ de latitud norte.  Por tanto, se hallaban exactamente a 4.82 kilómetros de la cima del mundo.

Peary anotó emocionado: «¡Por fin, el polo!  El premio de tres siglos de esfuerzos.  Mi objetivo, mi meta de los últimos veinte años, ¡míos, al fin.

De hecho, Peary estaba tan agotado que, como confesaría posteriormente, «con el polo realmente a la vista, me sentía exhausto para dar los -últimos pasos; la tensión de todos aquellos días y noches de marchas forzadas, el sueiío insuficiente, el constante peligro y la ansiedad. todo parecía pesar sobre mí en aquel momento.  En realidad me sentía demasiado cansado para dari-ne cuenta de que había logrado el propósito de toda mi vida».

Henson recordó después: «El comandante dio la orden: ‘Clavaremos la bandera de las barras y las estrellas … ¡en el polo Norte!’,y así lo hicimos. . . ¡Otra proeza mundial que se lograba cumplir!»

La bandera era la que la esposa de Peary había hecho para su marido unos años antes.  El explorador la había llevado enrollada a su propio cuerpo en todas sus expediciones al Ártico, e iba dejando pedazos de ella en cada uno de los sucesivos «puntos más al norte» a los que llegaba.  Antes de regresar cortaba una banda diagonal de la bandera y la dejaba en un botella con notas en que hacía la reclamación del polo Norte en nombre de los Estados Unidos de América.

Para confirmar su posición y estar seguro de pasar cerca del polo mismo, pues no existe ninguna señal para marcar ese punto teórico, Peary avanzó rumbo al norte 16 kilómetros, y sus observaciones le indicaron que estaba más allá del polo, y que se dirigía de nuevo al sur.  Reflexionó que era extraño en aquel corto lapso «haber pasado del hemisferio occidental al oriental».  Marchando en línea recta, se había dirigido hacia el norte, y de pronto había pasado por un punto desde el que ya se dirigía hacia el sur, sin haberse desviado de la línea recta.

En las horas que permanecieron los exploradores en el polo Norte, Peary tomó seis series de observaciones del Sol para confirmar su posición. (Peary ya había enviado de regreso al capitán Bartiett, el único, fuera de él, con los conocimientos necesarios ara hacer lecturas independientes de las suyas que corroboraran la posición exacta.) Luego, los exploradores engancharon sus perros y emprendieron el camino de regreso.  «Aunque profundamente consciente de lo que dejaba tras de mí», escribe Peary, «no quise detenerme a despedirme de la meta de mi vida … Una última mirada, y volví el rostro hacia el sur y hacia mi futuro.» construido a lo largo de la ruta, el viaje de regreso fue mucho más rápido que la marcha hacia el norte.  Los exhaustos exploradores salieron del polo el 7 de abril y llegaron a cabo Columbia el 23 del mismo mes.  Unos cuantos días después estaban de nuevo en el Roosevelt.  A mediados de julio, el barco se había abierto paso por los hielos y se dirigía a todo vapor al punto de partida.  El 5 de septiembre de 1909, llegó por fin el Roosevelí a un puesto avanzado de la civilización, y Peary, emocionadísimo, envió el mundo su electrizante noticia: «Las barras y las estrellas ondean en el polo Norte.»

Controversia con el Dr. CookAmpliar Este Tema

El Doctor Cook y su enconada controversia con Peary, sobre quien llegó primero al Polo Norte.
Tras de llegar al polo Norte el 6 de abril de 1909, Robert Peary partió a toda carrera hacia el sur, hasta la más cercana estación de telégrafos, situada a 2400 kilómetros de allí, en el Labrador, para dar la noticia de que había clavado la bandera cae las barras y las estrellas en la cima del mundo. No sabía que un tal Frederick Cook había proclamado ser el primero en llegar al polo Norte un año antes, el 21 de abril de 1908, y había anunciado su conquista sólo cinco días antes que Peary. Con dos esquimales, tinos cuantos perros samoyedos, en canoa y un trinco, Cook declaró que había tardado un año en llegar a la oficina de telégrafos.

La noticia de Peary llegó más rápidamente a la oficina telegráfica del Labrador porque había organizado a 24 hombres en relevos por el casquete polar y su barco, el Roosevelt, lo esperaba frente n, la costa de la isla Ellesmere. Al, enterarse Peary de la reivindicación de Cook, trató enconadamente de invalidarla. Con ello se suscitó una polémica mundial -que recuerda una tarjeta postal de la época, y que hasta la fecha no se ha dirimido. La información no es concluyente: nadie sabe a ciencia cierta cuál de los dos, si es que alguno, llegó efectivamente al polo Norte primero. Un examinador escéptico de los documentos de ambos exploradores declaró: «Si es verdad, como pretende Peary, que Cook nos ha dado un falso lingote, Peary, por su parte, nos ha dado un diamante de vidrio.»

Frederick Cook, médico de Brooklyn con escasa clientela, fue por primera vez al Ártico acompañando a Peary en 1891, en calidad de médico de a bordo. Luego, en el otoño de 1907, un acaudalado deportista llamado John Bradley pidió a Cook que fuera su guía en una cacería por el Ártico. Cook accedió y, dejando a Bradley frente a la isla de Devon, según relató, emprendió el rápido recorrido de 3200 kilómetros hasta el polo Norte. Posteriormente describió con lujo de detalles la proeza en su libro Como llegué al polo Norte: «Todos nos sentimos en el paraíso de los triunfadores al poner la planta en las nieves de tina meta por la que gustosamente habíamos arriesgado la vida tras sufrir las torturas de un infierno de hielo. El hielo que pisábamos, meta que se habían propuesto desde hacía siglos hombres valientes y heroicos, muchos de los cuales habían sufrido terriblemente y hasta habían encontrado una muerte tremenda, nos parecía casi sagrado. Observé constante y cuidadosamente mis instrumentos hasta registrar este logro final. Cada día registraban que nos acercábamos más a nuestro objetivo.

A cada paso mi corazón latía aceleradamente, con un extraño entusiasmo de conquista,»Por fin pisarnos campos de hielo de luz rutilante, escalamos muros de púrpura y oro y, bajo cielos de azul nítido, con llarneantes nubes de gloria, ¡alcanzarnos nuestro objetivo!»

Peary tenía sus partidarios, pero también Cook, entre ellos algunos con los que Peary se había enemistado en sus expediciones previas. El diario Herald de Nueva York fue el más ferviente aliado de Cook: publicó su relato por 25 000 dólares. El Times estaba en favor de Peary. Mientras que Cook era pobre y siempre necesitaba dinero, Peary era ampliamente conocido y contaba con btienas infltiencias. Uno de los defensores de Cook comentó: «Cool, era un mentiroso y un caballero; Peary, ninguna de las dos cosas.» Aunque Peaty no logró refutar del todo a Cook, éste causó algún daño a la pretensión de Peary.

Cook insistió en que Peary jamás había llegado al polo Norte sino que, creyendo que lo había logrado, había regresado cuando se hallaba a 160 kilómetros de él. La controversia resultó imposible de dirimir, porque ninguno de los dos llevó consigo a un compañero que supiera usar el sextante y confirmara sus lecturas astronómicas.

CRONOLOGÍA DE LAS CONQUISTA DE LOS POLOS

1586 — Primera vez que se usa la palabra pingüino para referirse a un ave del sur, en la tercera navegación del globo, capitaneada por Thomas Cavendish a bordo del Desire. (después de Magallanes y Francis Drake).

1700 — Primer dibujo de un iceberg en el diario del astrónomo inglés Edmond Halley, que viajó como capitán a bordo del Paramore durante dos años. A la vuelta de su viaje, Halley publicó General chart of the variations of the compass, la primera carta de declinaciones y la primera en contener isogramas, líneas que representan valores iguales en un mapa.

1773 — James Cook es el primero en cruzar el Círculo Polar Ártico en su segundo viaje a bordo del Resolution.

1820 — Primeros avistamientos del continente antártico.

1821 — John Davis, marinero del Cecilia, es el primero en poner pie en tierra en la bahía de Hughes, en la Antártida, el 7 de febrero.

1829 — William H.B. Webster es el primer científico en hacer observaciones en la Antártida, el 9 de enero en la isla Decepción, para medir el magnetismo.

1839 — Sydney es el nombre del primer perro conocido en pisar la Antártida, acompañando a la expedición estadounidense de Charles Wilkes. Los primeros perros utilizados para arrastrar trineos en este lugar habrán de esperar a 1900.

1841 — Sir James Clark Ross es el primero en entrar en la bahía de Ross con los barcos Erebus y Terror.

1874 — Primeras fotografías tomadas de los icebergs antárticos por la expedición Challenger, financiada por la Royal Society. • El primer barco de vapor alcanza la costa antártica, un ballenero alemán comandado por Eduard Dallmann.

1902 — Eva es el nombre del primer globo en ascender en la Antártida, perteneciente a la expedición de Robert F. Scott.

1903 — Albert B. Armltage, de la expedición de Scott, es el primer hombre en caminar por la meseta polar. Esta expedición tendrá el honor de asumir numerosos primeros en la Antártida, por ejemplo, la primera cosecha (de mostaza y berros), la primera operación quirúrgica, los primeros fósiles y las primeras películas.

1911 — Roald Amundsen se convierte en el primer hombre en alcanzar el Polo Sur. De nuevo una expedición comandada por Scott lleva al primer fotógrafo y al primer soldado profesionales e Instala la primera línea telefónica entre el cabo Evans y Hut Point. Esta vez serán los segundos en llegar al Polo geográfico y los primeros en sufrir una desastrosa retirada.

1911-1914 — La expedición australiana de Dougl Mawson será la primera en usar radio y un avión que se estrelló antes de despegar y la primera en encontrar un meteorito en la Antártida.

1928-1929 — En 1928,1, expedición de Hubert Wilkins sobrevuela por primera vez el continente, y en 1929, el Floyd Bennett, de la expedición de Richard E. Byrd, sobrevuela por primera vez el Polo Sur.

1933-1935 – El estadounidense Richard E. Byrd, decidido a batir récords en muchas facetas de la Antártida consigue ser el primero en hacer observaciones sísmicas, en introducir una vaca lechera, en emitir un programa de radio y en hacer observaciones de rayos cósmicos. Claro que en aquellos momentos se podía ser el primero en cualquier cosa que se hiciera en la Antártida,

1935 — La noruega Carolina Mikkelsen, esposa de un capitán ballenero de su país, es la primera mujer en poner pie en el continente antártico.

1947 — Primera expedición en incluir mujeres, la Ronne Antarctic Research.

1957 — Primer vuelo comercial a la Antártida. Ruth Kelley y Patt Heppinstall son las primeras azafatas en visitar una base americana en este continente.

1965 — El 10 de diciembre llega al Polo Sur la primera expedición argentina, comandada por el coronel Edgar Leal, después de 66 días luchando para recorrer los 3.000 Km. de distancia a pie.

1993 — Llega al Polo Sur la primera expedición femenina, la American Women’s Antarctic Expedition, después de recorrer 1.100 kilómetros en 67 días con esquís. • La primera expedición formada sólo por mujeres tendrá lugar en el año 2000. Ann Daniels, Caroline Hamilton, Jan McCormac, Pom Oliver, Rosie Stancer y Zoé Hudson ya habían conquistado el Polo Norte en 1997.

 

Resumen de la Gloriosa Revolución En Inglaterra Caida de la Monarquia

Resumen de la Gloriosa Revolución En Inglaterra

Cambios económicos y conflictos de intereses: Hasta finales del siglo XVI, la monarquía de los Tudor tuvo muchos intereses en común con los burgueses urbanos y con los pequeños propietarios rurales de origen noble la gentry .

Sus intereses coincidían en la lucha contra España por el dominio de los mares atlánticos y por el empeño español en restablecer el catolicismo en Inglaterra; y también en la lucha contra las familias más poderosas de la nobleza inglesa —la aristocracia— que arruinaban el país con sus guerras privadas.

Pero esta alianza entre la monarquía, la gentry y los burgueses entró en crisis durante los reinados de los reyes Estuardo.

En las primeras décadas del siglo XVII, la riqueza de los burgueses dedicados al comercio y a la producción de mercaderías aumentaba, y también la de la gentry, cuyos miembros se diferenciaron del resto de la nobleza porque se dedicaron a una actividad típicamente burguesa como el comercio.

Mientras tanto, disminuían los ingresos de los nobles más poderosos que tenían como única fuente de riqueza la propiedad de sus tierras. Muchos nobles comenzaron a depender de la monarquía para sobrevivir, y los burgueses entraron en conflicto con el poder absoluto de la monarquía que intentó poner límites al desarrollo de sus actividades económicas.

La lucha por la nueva riqueza

burguesesEl problema era que los burgueses estaban generando y acumulando una riqueza a la que la monarquía no podía acceder.

Para obtener una parte de esa nueva riqueza la monarquía propuso crear nuevos impuestos y aumentar los que ya existían.

El Parlamento se opuso porque sus miembros no podían controlar el destino del dinero recaudado.

La corona también intentó participar directamente en algunas de las actividades industriales y comerciales, pero el resultado fue aumento de precios, desocupación y descontento general.

Para conseguir ingresos, la monarquía comenzó a exigir antiguos derechos feudales y reforzó su alianza con la jerarquía de la Iglesia Anglicana, integrada por grandes terratenientes.

Jacobo I Estuardo
Su tendencia a ejercer el poder en forma absoluta se confirmó en 1610 cuando disolvió el Parlamento y no lo volvió a convocar hasta 1621. Para los burgueses esto no hacia mas que frenar el libre comercio y el desarrollo de sus actividades económicas. 

La guerra civil y la abolición de la monarquía: 

El enfrentamiento por los impuestos continuó. La corona comenzó a exigirlos aunque no tuvieran la aprobación del Parlamento; y los burgueses comprendieron que los cambios económicos que necesitaban sólo se alcanzarían a través de la lucha política.

Las familias de comerciantes y terratenientes más poderosas, relacionadas entre sí por negocios comunes y que estaban representadas en las dos cámaras del Parlamento, fueron el núcleo de la oposición al rey Carlos I con el objetivo de lograr un gobierno que representara los intereses de los hombres de negocios.

Durante 1639 y 1640 los burgueses se negaron a pagar impuestos. Pero la crisis se agravó cuando, en 1640, Escocia pretendió separarse de Inglaterra y la Cámara de los Comunes se negó a aprobar los fondos necesarios para equipar y pagar un ejército a las órdenes de Carlos I.

La mayoría de los comerciantes, artesanos y aprendices apoyaron a los Comunes y en 1642 comenzó la guerra civil.

Ejecución del Rey Carlos I en 1649.El ejército ocupó la capital en 1648 y el Parlamento Depurado procesó al rey con el siguiente fundamento: «Los comunes de Inglaterra reunidos en el Parlamento, declaran que, por debajo de Dios, el pueblo es el origen de todo poder justo»…

En los dos bandos enfrentados, el parlamentario y el realista, había representantes de la nobleza y de los burgueses.

Lo que los diferenciaba era que los realistas tenían más fuerza en las regiones agrícolas del norte y el Oeste del país, mientras que el Parlamento encontraba el apoyo en el sur y en el este, regiones en las que predominaban la industria y el comercio.

También las ideas religiosas los diferenciaban: el puritanismo respaldaba, en general, al Parlamento, y el anglicanismo, como iglesia oficial, al rey.

En el conflicto armado, venció el ejército parlamentario que dirigía Oliverio Cromwell. En 1649, los nobles fueron expulsados del Parlamento, se proclamé la república y el rey Carlos I fue decapitado.

La Gloriosa Revolución: Después de la muerte de Cromwell, los burgueses más poderosos, que necesitaban paz y orden para sus negocios, llegaron a un acuerdo con la nobleza y, en 1660, la monarquía fue restaurada en la persona de Carlos II Estuardo. Por su parte, el rey aceptaba que correspondía al Parlamento la elaboración de leyes y la aprobación de impuestos.

Pero el acuerdo entre la monarquía y el Parlamento se rompió cuando llegó al trono Jacobo II, católico y con tendencias absolutistas.

El nuevo rey no encontró apoyo para restablecer la monarquía absoluta: la nobleza no era católica y, además, sabía que la mayor parte de la sociedad no aceptaba una vuelta al pasado.

Esto fue lo que llevó a un nuevo acuerdo entre los nobles y los burgueses, quienes coincidieron en la necesidad de destronar al rey y justificaron su propósito en las ideas del filósofo inglés John Locke.

Convencidos de que el destronamiento del rey en este caso era lícito, en 1688 nobles y burgueses ofrecieron la corona de Inglaterra al príncipe holandés Guillermo de Orange con dos condiciones: debía mantener el protestantismo y dejar gobernar al Parlamento. Jacobo II, abandonado por casi todos los grupos sociales, dejó el trono. Así, sin violencia, triunfó la Gloriosa Revolución (como la llamaron los hombres de la época), que abolió definitivamente la monarquía absoluta e inició en Inglaterra la época de la monarquía parlamentaría.

Sesión de la Cámara de los Comunes. El filósofo John Locke (1632-1704) sentó las bases del liberalismo político. En su Tratado de Gobierno Civil propuso un sistema político que aseguraba las libertades y los derechos de los individuos. Pensaba que los miembros de una sociedad establecían entre sí un contrato, por el cual delegaban e/poder en los gobernantes. Por eso, la acción de los gobernantes debía estar controlada por los representantes del pueblo, y si el gobierno era injusto el pueblo tenía el derecho a rebelarse. En su Carta sobre la Tolerancia de 1689, Locke afirmó: “Para m1 el Estado es una sociedad de hombres constituida únicamente con e/fin de adquirir conservar y mejorar sus propios intereses civiles. Intereses civiles llamo a la vida, la libertad, la salud y la prosperidad del cuerpo; y a la posesión de bienes externos, tales como el dinero, la tierra, la casa, el mobiliario y cosas semejantes.”

 El parlamentarismo y el desarrollo del capitalismo: Luego del triunfo de la Gloriosa Revolución, en Inglaterra comenzó a funcionar un sistema de gobierno llamado parlamentarismo. Este sistema aseguró la participación de los súbditos en el gobierno del Estado a través del Parlamento.

Durante el siglo XVII, los grupos comerciales y manufactureros más poderosos controlaron el gobierno parlamentario con el fin de promover sus intereses económicos.

Se eliminaron los privilegios reales, aristocráticos y de las corporaciones, los monopolios, las prohibiciones, los peajes y los controles de precios, que obstaculizaban la libertad de comercio y de industria. Se crearon y fortalecieron instrumentos que servían para el desarrollo de las nuevas actividades económicas: se creó el Banco de Inglaterra y se generalizaron las sociedades anónimas, se difundió la tolerancia religiosa y se protegió el progreso de la ciencia.

El Estado inglés promovió especialmente el desarrollo del comercio y de la industria de manufacturas.

El Acta de Navegación, que en 1651 estableció que el transporte de todas las mercaderías procedentes de o destinadas a Inglaterra debía hacerse únicamente en naves inglesas, fue el origen del desarrollo de una flota mercante que convirtió a Inglaterra en la dueña de los mares del mundo.

Desde el 1700, además, el Parlamento prohibió las exportaciones de lana en bruto y organizó el establecimiento de artesanos extranjeros, con lo que sentó las bases del desarrollo de la industria textil.

El Parlamento Inglés

El Parlamento Inglés: los parlamentarios se dividieron en dos partidos: los whigs y los tories. Los primeros liberales, defensores de las reformas antiabsolutista, los tories eran mas conservadores y querían mantener el antiguo régimen. El Parlamento siempre controló al Primer Ministro, nombrado por la Corona, el que debía formar un gabinete para gobernar. La pérdida de confianza en el Ministro era suficiente para presionar  a la Corona para que cambie el gabinete.

CRONOLOGÍA
Inglaterra

1603 Muerte de Isabel I. Comienza el reinado de los Estuardo y Jacobo I sube al trono. Unión de Inglaterra y Escocia.
1625 Muerte del rey Jacobo I. Su hijo Carlos I sube al trono.
1628 El Parlamento presenta la Petición de Derechos. El rey disolverá el Parlamento.
1641    El Parlamento Largo Intenta ampliar su poder.
1642   Comienza la guerra civil entre el rey y el Parlamento.
1645   Derrota del rey en Naseby.
1648   Triunfo de la primera revolución inglesa. Cromwell sube al poder.
1649   Ejecución de Carlos I. Proclamación de la república.
1651   Acta de Navegación.
1652   Guerra anglo-holandesa.
1653   Cromwell, lord protector.
1654   Guerra con España.
1658 Muerte de Cromwell. Su hijo Richard, al no poder contar con el apoyo del ejército, renuncia a ser lord protector.
1660   Restauración de los Estuardo. Car los II, nuevo rey.
1679   Ley de Habeas Corpus.
1685 Muere Carlos II. Le sucede su hermano Jacobo II.
1688   Segunda revolución inglesa. Huida de Jacobo II. Le suceden su hija, María II, y el marido de ésta, Guillermo III de Orange.
1689   Declaración de Derechos.
1702 Reinado de Ana, último miembro de la dinastía Estuardo (hasta 1714).

Otros países
1610 Asesinato de Enrique IV de Francia. Le sucede su hijo Luis XIII.
1 611   Gustavo Adolfo, rey de Suecia.
1613 Miguel III Romanov, nuevo zar de Rusia.
1618 Comienza la guerra de los Treinta Años.
1621 Reinado de Felipe ly de España (hasta 1665).
1643   Muere Luis XIII. Le sucede su hijo Luis XIV.
1644   Dinastía manchú en China. 1648   Los tratados de Westfalla ponen
fin a la guerra de los Treinta Años. Francia y España siguen en guerra. La Fronda en Francia (hasta 1654).
1656 Aprovechando el desorden del Imperio otomano, Venecia expulsa a los turcos de los Dardanelos.
1659 Paz de los Pirineos entre Francia y España.
1661 Comienza el reinado personal de Luis XIV.
1667 Guerra de Devolución entre Francia y España (hasta 1668).
1672 Guerra entre Francia y Holanda (hasta 1678).
1682   Pedro el Grande sube al trono de Rusia.
1683   Los turcos asedian Viena, aunque serán derrotados en Mohács (1687).
1685   Revocación del Edicto de Nantes; emigración  de   los  protestantes franceses. 1 700   Los Borbones suceden a los Austrias en España.
1701   Guerra  de  Sucesión  española (hasta 1714).

Galaxias Grupo Local Grupo de Galaxias Mas Cercanas La Via Lactea

Galaxias: Grupo Local – Grupo de Galaxias

MÁS ALLÁ DE LA VÍA LÁCTEA Como ya hemos visto, nuestro sistema estelar presenta un diámetro de 100.000 años-luz y un espesor de 20.000 años-luz en su densa parte central. ¿Contiene la Galaxia la totalidad del universo, de las estrellas, gas y polvo que podemos observar?. La respuesta es «no», puesto que los astrónomos han descubierto que nuestra Galaxia es sólo una entre muchos millones le galaxias.

Estas otras galaxias se extienden por el espacio en todas direcciones, hasta donde alcanza nuestra vista aun con la ayuda de los más potentes telescopios.

Como la Galaxia, todas ellas contienen estrellas y, posiblemente, planetas, así como gas y polvo. No obstante, los únicos planetas que hasta ahora hemos observado han sido sólo los del sistema solar, pero esto no significa que el Sol sea la única estrella del universo que tenga MI sistema planetario.

Significa, exclusivamente, que nuestros telescopios no son aún lo suficiente potentes para detectar otros planetas, si es que en realidad existen. Las incontables galaxias que podemos observar están a tal distancia de nosotros, que aun el diámetro de 100.000 años luz de nuestra propia Galaxia empieza a palidecer por su insignificancia.

Las galaxias más cercanas son visibles sólo desde el hemisferio sur. Se conocen con el nombre de Nubes de Magallanes, así denominadas en recuerdo del gran navegante Fernando de Magallanes, que fue el primero en tomar nota de su existencia durante su viaje alrededor del mundo, hace más de 400 años.

Las Nubes de Magallanes parecen trozos desgajados de la Vía Láctea; no obstante, se trata de dos galaxias independientes , a más de 150.000 años-luz de la nuestra. Y, sin embargo, las Nubes de Magallanes son vecinas muy próximas con respecto a la totalidad del universo.

Pertenecen al mismo cúmulo de galaxias que nuestro sistema estelar, al denominado «grupo local». Este cúmulo contiene por lo menos 35 galaxias, o mas. La Galaxia parece estar situada a un extremo del cúmulo, y cerca del centro se encuentra la galaxia —aparte las Nubes de Magallanes— que puede verse sin telescopio.

GRUPO LOCAL
Grupo Local

«La Vía Láctea es parte de un barrio cósmico más grande –un grupo de más de 35 galaxias conocido como el Grupo Local. Estas galaxias se mueven por el espacio como una sola unidad, unidas por su mutua atracción gravitatoria. El número de galaxias que pertenecen al Grupo Local es incierto, debido a que los astrónomos siguen encontrando nuevos residentes de este barrio galáctico. Por ejemplo, una de las galaxias del Grupo Local fue descubierta en 1997, a unos tres millones de años luz de la Tierra. Esta nueva galaxia es diminuta: sólo contiene un millón de estrellas aproximadamente, comparado con los cientos de miles de millones de la Vía Láctea.»

Dicha galaxia aparece a simple vista una mancha luminosa, tenue y nebulosa, en la constelación de Andrómeda; pero al ser fotografiada mediante un gran telescopio aparece tan nítida, que pueden verse hasta algunas de sus estrellas individuales. Esta galaxia de Andrómeda está a casi dos millones de años-luz de nosotros. La luz que esta noche veremos proveniente de allí empezó su recorrido mucho antes de. que el hombre apareciera sobre la Tierra.

La totalidad del grupo local, que tiene una configuración muy ovalada, ocupa un volumen tan grande, que es difícil encontrar alguna comparación que nos permita imaginar su tamaño. No conocemos sus dimensiones con mucha exactitud, pero parece ser que se extiende sobre una superficie de por lo menos 4,5 millones de años-luz en longitud y la mitad en anchura. Su espesor es del orden de unos 600.000 años-luz.


Al utilizar telescopios para explorar aún más lejos en el espacio, más allá de nuestro grupo local, las distancias llegan a ser inimaginables. Otras galaxias y cúmulos de galaxias, alejados 50 millones y hasta 100 millones de años-luz, son bastante frecuentes. Los astrónomos saben ahora que las galaxias pueden observarse tan lejos como sus telescopios pueden profundizar. Con los más grandes y modernos, equipados con cámaras fotográficas, podemos estudiar galaxias situadas hasta 3.500 millones de años-luz de distancia.


Durante los últimos veinte años se ha introducido un nuevo método para «ver» aún más lejos en el espacio: el radiotelescopio. Estos instrumentos sólo son radiorreceptores muy sensibles con antenas especiales. Su objeto es el de recibir, no la luz, sino las ondas de radio emitidas por las estrellas y por el gas interestelar de nuestra propia Galaxia y de las demás galaxias.

Con los radiotelescopios los astrónomos pueden sondear en el espacio con mucha mayor profundidad que mediante los telescopios ópticos. Estos nuevos instrumentos ayudan al astrónomo a formarse una idea de la totalidad del universo, un universo al que no podemos encontrar límites en la actualidad.