Evolución Tecnológica

Disputa Newton y Hooke Las Orbitas Elípticas de los Planetas

HISTORIA DE LA PUBLICACIÓN DE LOS “PRINCIPIAS” – CONFLICTO NEWTON-HOOKE

ANTECEDENTES DE LA ÉPOCA. El incipiente desarrollo científico que se inició en el siglo XVII,  comenzó cuestionando el primitivo y anacrónico aristotelismo (Conjunto de las doctrinas del filósofo griego Aristóteles que explicaban los fenómenos naturales ), como teoría sintetizadora general que da cuenta del conjunto del cosmos, es decir,  fue vulnerado seriamente por los nuevos descubrimientos científicos, pero éstos no bastaron, hasta Newton, para dar ocasión a una teoría que ordenara y diera sentido a la acumulación de descubrimientos parciales. Ello explica que en los más altos científicos de la época, las nociones matemáticas y astronómicas de la mayor exactitud se dieran junto a ideas místicas y religiosas tradicionales, tal como en el caso de Kepler.

En el campo de la astronomía se continuó la labor de Copérnico, especialmente por obra de Kepler, y los perfeccionamientos del telescopio que llevó a cabo Galileo permitieron comprender mejor la estructura del sistema solar.

La. investigación de la realidad física ensayó con éxito una metodología y una conceptuación nuevas cuando Galileo formuló las leyes del movimiento de los cuerpos, en 1638. El descubrimiento de la circulación de la sangre por William Harvey (1578-1657), significó un extraordinario avance para la fisiología.

En la segunda mitad del siglo, el mundo científico, tal como aconteciera con el mundo filosófico, estaba dominado por la polémica en torno del cartesianismo. La explicación dada por Harvey a los movimientos del corazón se impuso a la observación empírica, pese a la oposición de Descartes. Leibniz refutó las ideas cartesianas acerca del movimiento, y Pascal estableció la teoría de la probabilidad de las hipótesis.

Pero la culminación científica del siglo XVII fue la obra de Isaac Newton (1642-1727), quien había de resumir en sí y superar todas las tendencias intelectuales de la época. Descubrió el cálculo infinitesimal y formuló la ley de la gravitación universal, que pasó a ser la nueva concepción totalizadora del universo y desplazó definitivamente al aristotelismo.

Newton y Hooke

Robert Hooke (1635-1703), científico inglés, conocido por su estudio de la elasticidad. Hooke aportó también otros conocimientos en varios campos de la ciencia.Nació en la isla de Wight y estudió en la Universidad de Oxford. Fue ayudante del físico británico Robert Boyle, a quien ayudó en la construcción de la bomba de aire. En 1662 fue nombrado director de experimentación en la Real Sociedad de Londres, cargo que desempeñó hasta su muerte. Fue elegido miembro de la Real Sociedad en 1663 y recibió la cátedra Gresham de geometría en la Universidad de Oxford en 1665.

LA HISTORIA Y DESCRIPCIÓN DE LOS “PRINCIPIA”: Hacia 1680 el problema del sistema planetario, en el sentido de dar una explicación racional a las leyes, que Kepler había dado empíricamente, estaba, por así decir, en el aire entre los astrónomos ingleses. Se sabía, en virtud de las leyes de la fuerza centrífuga, que en un movimiento circular uniforme de un punto, que obedeciera a la tercera ley de Kepler, la fuerza era inversamente proporcional al cuadrado del radio.

¿Sería válida esta ley en el movimiento de los planetas, cuya órbita no era circular sino elíptica, y los cuerpos en cuestión no siempre podían asimilarse a puntos? Es a esta pregunta que Newton contesta afirmativamente en su célebre libro, en latín, Principios matemáticos de la filosofía natural (es decir de la física), conocido, abreviadamente como los Principia.

La obra se compone de tres libros, el Libro I de los cuales expone los fundamentos de la mecánica a la manera euclideana con definiciones, axiomas, teoremas y corolarios, introduciendo en los sistemas, además de la ley de inercia, el concepto de masa y el principio de acción y reacción. Este libro se ocupa del movimiento en el vacío, comprobándose las leyes de Kepler en el caso de un movimiento central en el cual la fuerza que actúa sobre el punto móvil es inversámente proporcional al cuadrado de ia distancia al centro fijo, foco de la órbita elíptica del móvil.

El Libro II se ocupa, en cambio, del movimiento en un medio resistente, y entre las distintas cuestiones que trata aparece la primera fórmula teórica que expresa la velocidad del  sonido.

Los dos primeros libros sientan los principios matemáticos, es decir teóricos, de la ciencia del movimiento; el Libro III estudiará el movimiento “filosóficamente”, es decir físicamente, tomando como ejemplo el “sistema del mundo”. Antepone para ello las “Reglas del razonamiento en filosofía”, es decir las normas que desde entonces constituyen las bases del método científico en la investigación de los fenómenos naturales; pasando luego al enunciado del grupo de fenómenos celestes que debe explicar, demostrando que la ley: “Dos cuerpos gravitan mutuamente en proporción directa de sus masas y en proporción inversa del cuadrado de sus distancias”, es de validez universal, dando así por primera vez una demostración matemática que elimina la milenaria distinción entre el mundo celeste y el mundo sublunar.

A continuación comprueba las leyes de Kepler y de la caída libre, demuestra el achatamiento de la Tierra, explica por vez primera las mareas y la precisión de los equinoccios, incluye los cometas en el sistema planetario…

En las ediciones sucesivas de los Principia que Newton publicó en vida, introdujo modificaciones y agregados entre los cuales el célebre “Escolio general”, en el cual el científico da paso al metafísico o, mejor, al creyente, expresando que “Este muy hermoso sistema del Sol, los planetas y cometas sólo puede proceder del consejo y dominio de un Ser inteligente y poderoso… discurrir de Él a partir de las apariencias de las cosas, eso pertenece, sin duda, a la filosofía natural”.

EL ORIGEN DEL CONFLICTO: LA LEY DE LA INVERSA DEL CUADRADO
EL ODIO ENTRE NEWTON Y HOOKE

A principios del siglo XVIII, el matemático y astrónomo alemán Johannes Kepplee había propuesto tres leyes del movimiento planetario, que describían con precisión como se mueven los planetas respecto al Sol, pero no conseguía explicar por qué los planetas  se movían como se movían, es decir en órbitas elípticas.

orbita elpitica de un planeta

1° Ley de Kepler: Los planetas recorren órbitas elípticas y el Sol ocupa uno de sus focos

Newton se propuso descubrir la causa de que las órbitas de los planetas fueran elípticas. Aplicando su propia ley de la fuerza centrífuga a la tercera ley de Kepler del movimiento planetario (la ley de las armonías) dedujo la ley del inverso de los cuadrados, que  establece que la fuerza de la gravedad entre dos objetos cualesquiera es inversamente proporcional al cuadrado de la distancia entre los centros de los objetos. Newton reconocía así que la gravitación es universal que una sola fuerza, la misma fuerza, hace que  una manzana caiga al suelo y que la Luna gire alrededor de la Tierra. Entonces se propuso contrastar la relación del inverso de los cuadrados con los datos conocidos.

Aceptó la estimación de Galileo de que la Luna dista de la Tierra unos sesenta radios terrestres,  pero la imprecisión de su propia estimación del diámetro de la Tierra le impidió completar esta prueba satisfactoriamente. Irónicamente, fue un intercambio epistolar en 1679  con su antiguo adversario Hooke lo que renovó su interés en este problema. Esta vez dedicó su atención a la segunda ley de Kepler, la ley de la igualdad de las áreas, Newton pudo demostrar a partir de la fuerza centrífuga.

Hooke, sin embargo, desde 1674 estaba intentando explicar las órbitas planetarias, y había logrado dar con el problema del movimiento orbital. En un tratado que se publicó aquel mismo año, descartó la idea de un equilibrio entre las fuerzas que empujaban hacia dentro las que empujaban hacia afuera para mantener a un objeto como la Luna en su órbita. Constató que el movimiento orbital resultaba de suma: por una parte, la tendencia de la Luna a moverse en línea recta y, por otra, una fuerza «única» que la atraía hacia la Tierra.

Mientras tanto el propio Newton, Huygens y todos los demás seguían hablando de «una tendencia a alejarse del centro», y Newton había llegado al extremo de aceptar vórtices cartesianos (una vieja teoría de Descartes) como responsables de empujar a los objetos para que volvieran a situarse en sus órbitas, a pesar de su tendencia desplazarse hacia el exterior.

También se sabe que  algunas de las cartas enviadas a Newton sobre este tema resultaron de particular interés para el científico, pues había despertado una gran idea para aplicar como teoría en sus investigaciones.  En una de sus cartas Hooke escribió a Newton para pedirle su opinión sobre estas teorías (que ya se habían publicado). Le habló de la ley del cuadrado inverso, que Newton ya tenía, de la acción a distancia, y de la idea a la que había llegado: no había fuerza centrífuga ninguna, sino solamente una fuerza centrípeta que apartaba a los planetas de una trayectoria rectilínea y la curvaba mediante la gravedad.

En el gran libro sobre la historia del pensmaiento científico, de Moledo y Olszevicki, conocido como:”Historia de las ideas científicas”, nos relata al respecto:

“Probablemente fue esta carta la que liberó a Newton del asunto de la fuerza centrífuga (que es una fuerza artificial, simplemente la reacción a la fuerza centrípeta —esta última sí real—) y lo estimuló para demostrar, en 1680, que una ley de la gravedad con cuadrados inversos a las distancias exige que los planetas se muevan recorriendo órbitas elípticae implica que los cometas deben seguir trayectorias elípticas o parabólicas alrededor del Sol. Ésta es la razón por la que ya tenía la respuesta preparada cuando, en 1684, Halley se apareció en la puerta de su casa.

Porque fue así: aprovechando un viaje, Halley, en agosto de 1684. visitó a Newton en Cambridge, donde debatieron sobre las órbitas de los planetas y la ley del cuadrado inverso. Según contó Newton después, cuando llevaban cierto tiempo reunidos, Halley le preguntó qué tipo de curva creía él que describirían los planetas, suponiendo que la fuerza de atracción hacia el Sol fuera inversa al cuadrado de las distancias respectivas de los planetas a dicho astro.

Newton dijo inmediatamente «una elipse», ante lo cual Halley le preguntó cómo lo sabía. «Porque la he calculado», respondió Newton de inmediato. Tras esto, Halley le pidió que le dejara ver los cálculos, pero Newton buscó entre sus papeles y no pudo encontrarlos. Se comprometió entonces a volver a hacerlos v a enviárselos apenas los tuviera listos.

Ese encuentro entre Halley y Newton y los cálculos que nunca encontro se convertirían en el puntapié inicial para que nuestro protagonis:: se pusiera a escribir los Principia.”

A petición de Halley, Newton pasó tres meses rehaciendo y mejorando la demostración. Entonces, en una explosión de energía sostenida durante dieciocho meses, durante los cuales se absorbía tanto en su trabajo que a menudo se olvidaba de comer, fue desarrollando estas ideas hasta que su presentación llenó tres volúmenes. Newton decidió titular su obra Philosophiae Naturalis Principia Mathemañca, en deliberado contraste con los Principia Philosophiae de Descartes.

Ya en 1684 Newton publicó un trabajo en el que explicaba la ley de cuadrado inverso, pero recién en 1687 vio la luz su gran obra épica.

Los tres libros de los Principia de Newton proporcionaron el nexo entre las leyes de Kepler y el mundo físico. Halley reaccionó con «estupefacción y entusiasmo» ante los descubrimientos de Newton. Para Halley, el profesor Lucasiano había triunfado donde todos los demás habían fracasado, y financió personalmente la publicación de la voluminosa obra como una obra maestra y un regalo a la humanidad.

“Los Principia fueron celebrados con moderación al ser publicados, en 1687, la primera edición sólo constó de unos quinientos ejemplares. Sin embargo, la némesis de  Newton, Robert Hooke, había amenazado con aguar la fiesta que Newton hubiera podido disfrutar.

Cuando apareció el libro segundo, Hooke afirmó públicamente que las cartas que había escrito en 1679 habían proporcionado las ideas científicas vitales para los descubrimientos de Newton. Sus pretensiones, aunque dignas de atención, parecieron abominables a Newton, que juró retrasar o incluso abandonar la publicación del tercero. Al final, cedió y publicó el último libro de los Principia, no sin antes eliminar cuidadosamente cualquier mención al nombre de Hooke.

El odio que Newton sentía por Hooke le consumió durante años. En 1693 todavía  sufrió otra crisis nerviosa y abandonó la investigación. Dejó de asistir a la Royal Society hasta la muerte de Hooke en 1703, y entonces fue elegido presidente y reelegido cacada año hasta su propia muerte en 1727.”

Fuente: “A Hombres de Gigantes”

Fuente Consultadas:
El Saber de la Historia de José Babini Edit. Biblioteca Fundamental del Hombre Moderno
Grandes Figuras de la Humanidad Edit. Cadyc Enciclopedia Temática Familiar
A Hombres de Gigantes Edit. CRÍTICA
Historia de las Ideas Científicas Leonardo Moledo y Nicolás Olszevicki Edit. PLANETA

Trabajo Enviado Por Colaboradores del Sitio

Explotación Agricola en Europa del Siglo XIX Economía

EL PREDOMINIO DE LA ECONOMÍA AGRÍCOLA
EN EUROPA EN EL SIGLO XIX

La Europa de principios del siglo XIX era aún una Europa campesina cuya vida económica dependía estrechamente de las fluctuaciones de sus principales producciones agrícolas. La ausencia de excedentes mantenidos limitaba el desarrollo de las ciudades, que permanecían muy ligadas al campo. Las frecuentes malas cosechas de cereales, patatas, legumbres, ocasionaban grandes subidas de precio. Las crisis estacionales o anuales, engendradas por las malas cosechas o por la deficiencia de las relaciones comerciales y de los medios de transporte, se conjugaron a partir de 1817 con una larga etapa de depresión y de hundimiento de los precios, que sucedió al favorable período precedente.

LA POBLACIÓN: A partir de 1801, la población mundial ha crecido con más rapidez que nunca. Sólo en el siglo XIX se duplicó con creces; la anterior duplicación tardó cuatro veces más. Desde el siglo XVII la curva de crecimiento se ha ido haciendo cada vez más empinada. Sin embargo, las cosas no son tan sencillas como parece deducirse de esta imagen general. Algunos países han crecido con más rapidez que otros, y lo mismo puede decirse de los continentes.

El resultado ha sido un cambio en el orden de las naciones, atendiendo a su número de habitantes. Empecemos por Europa: en 1801, Francia reunía bajo su bandera más habitantes que ningún otro país al oeste de Rusia; en 1914 ocupaba la cuarta posición, por detrás de Alemania, Austria-Hungría y Gran Bretaña. El crecimiento de los Estados Unidos fue aún más rápido: en 1900 sus habitantes habían ocupado ya todo el continente (que en 1801 aún seguía inexplorado en gran parte) y su número había ascendido de 6 a 76 millones, lo que representa un aumento del 1.150 por 100.

Se dispone  de   información   mucho   más completa y exacta acerca de los países de Europa y América que de los de Asia y África; no obstante, parece comprobado que la población creció en todas las partes del mundo durante el siglo XIX: en China, por ejemplo, el aumento superó el 40 por 100, llegándose a los 475 millones; Japón pasó de unos 28 millones a unos 45, y la India de 175 a 290 millones. Se trata, en todos los casos, de incrementos muy grandes.

LA AGRICULTURA CONTINUA PREDOMINANDO
Salvo algunas excepciones, los métodos de explotación agrícola permanecían anticuados, ya que la mayoría de los grandes propietarios se desinteresaron de ello y no trataron de aumentar sus rentas por medio de la comercialización de sus productos. En cuanto a los pequeños cultivadores, sin instrucción, apartados de la escena política por los regímenes censatarios, no disponían de capital suficiente para introducir innovaciones.

agricultura en europa

Falta de abono, la tierra se convertía en  barbecho  cada   tres   años;   falta   también de maquinaria (se sembraba a mano, se trillaba con el mayal, se segaba con la hoz), una gran parte del suelo se desperdiciaba y los rendimientos obtenidos eran muy escasos. El desconocimiento de los métodos de conservación de la carne, el estado de los animales, desnutridos y sujetos a epidemias, impedía toda explotación ganadera racional, utilizándose el ganado, sobre todo, para los trabajos agrícolas.

Las crisis de subsistencias probaba trágicamente que el destino de millones de  hombres  dependía aún de las cosechas  de   trigo;   por  eso la agricultura estaba orientada hacia los productos de más corriente consumo, y, en pri mer lugar, hacia los cereales, como el trigo el centeno, la cebada, la avena y el alforjón.

La ausencia  de  excedentes  obligaba  a  la: diferentes naciones e incluso a las regione: a  vivir  replegadas  sobre  sí  mismas.   Uni camente  los   productos   exóticos   (especias café) daban lugar a un tráfico importante Sin embargo, este medio siglo conoció cier tos progresos agrícolas, de los que Inglate rra fue la principal beneficiaria. Más  adelantada que sus vecinos, había experimentado, desde el siglo XVIII , nuevos métodos; 2.000 lores, propietarios del tercio de la superficie cultivable, transformaron hectáreas de tierra de labor en fértiles praderas, en las que practicaron una ganadería moderna con selección de razas (la raza Durham llegó a ser la primera de Europa).

Los decretos para la formación de «acotados» (reunión de tierras rodeadas por vallas), concluidos en 1840, los «cornlaws», leyes que prohibían la entrada de trigos extranjeros, habían enriquecido   a   estos   grandes   propietarios que llevaron a cabo una verdadera revolución sustituyendo el barbecho por el cultivo de plantas herbáceas, de trébol, de alfalfa y otras análogas, alternando con los cereales; la utilización de los abonos (cal, guano, fertilizantes industriales descubiertos por Liebig), la mejora de los arados, la desecación de los pantanos, reforzaron esta revolución agraria.

Las Corn Laws fueron aranceles a la importación para apoyar los precios del grano británico doméstico contra la competencia de importaciones, vigentes entre 1815 y 1846.

PEQUEÑAS PROPIEDADES Y GRANDES DOMINIOS: Además  del  tipo inglés (que acabamos de ver mas arriba),  se podían  distinguir otras dos modalidades  de  agricultura en Europa.  Una de ellas predominaba en Francia, Países Bajos, Suiza y norte de Italia; la supresión de las servidumbres señoriales   había   emancipado   jurídicamente   al campesinado, pero éste, dueño en su inmensa mayoría, de pequeñas o medias propiedades, vegetaba y se mantenía gracias a la supervivencia de las prácticas comunales y a la ayuda de trabajos artesanos.

Sin embargo, en estos países fueron realizados importantes   trabajos   de  desecación   (particularmente en Holanda, donde los «polders» alcanzaron una gran extensión) que permitieron acrecentar la superficie cultivable. El rercer tipo de agricultura, el de los grandes dominios   señoriales,  reinaba  en  la  mayor parte de Europa; en el sur de Italia y en Toscana, la aristocracia terrateniente practicaba el absentismo, dejando a los administradores el cuidado de ocuparse de sus inmensas propiedades, y éstos las hacían explotar por los jornaleros a los que apenas les quedaba para vivir. Los grandes propietarios españoles practicaban también la aparcería; pero tenían que hacer frente a la Mesta, poderosa asociación de ganaderos que monopolizaba inmensas extensiones de tierras, oponiéndose al desarrollo de la agricultura.

En Prusia y en Europa Oriental, las reformas napoleónicas fueron abandonadas después de Waterloo y los campesinos tuvieron que devolver a los nobles el tercio de sus tierras, cayendo nuevamente en un estado de semi-servidumbre. Sin embargo, algunos pequeños hidalgos prusianos intentaron modernizar sus posesiones siguiendo el ejemplo de los lores ingleses.

Por último, en Rusia, la tierra estaba en manos de la corona y de los nobles; una parte de sus inmensos dominios era explotada directamente, y la otra repartida en parcelas entregadas a las familias de los siervos a cambio de los servicios que prestaban trabajando las tierras de su señor. Rusia era entonces la mayor exportadora de trigo de Europa, pero las exportaciones se hacían en detrimento de la población, que vivía en condiciones miserables. Esta oposición entre la Europa Occidental y los países orientales, próximos todavía a las estructuras feudales, había de durar hasta nuestros días.

La Era Capitalista El Desarrollo De La Ciencia e Inventos En Europa

LA ERA CAPITALISTA EN EUROPA: EVOLUCIÓN TECNOLÓGICA Y DESARROLLO CIENTÍFICO

A partir del siglo XIX se inician un par de transformaciones que renovaran la economía, la sociedad y la política de todo Europa.Estas dos destacadas transformaciones son la Revolución Industrial y la Revoluciones Burguesas ocurridas entre 1820 y 1848. La primera cambió la forma de producir y de organizar la economía de ese momento, estableciendo un sistema capitalista que se extendió a nivel mundial y la segunda se refiere a los movimientos revolucionarios que luchaban por una sociadad mas justa, con mas libertad y sobre todo participación en la política, que culminaron con las ideas liberales como principio rector de la vida social, de esta manera nacía el liberalismo político y económico.

La Revolución Industrial dio origen a una nueva forma de organizar el trabajo: el trabajo fabril; a un nuevo tipo de trabajador: el obrero industrial; y a una nueva forma de organización económico-social: el capitalismo. El capitalismo surgió luego de una sucesión de grandes y profundos cambios sociales y económicos que se produjeron en el campo y en las ciudades.

El trabajo asalariado se difundió en las ciudades en las que se desarrollaba la industria y también en las zonas rurales en las que la producción agropecuaria se destinaba al mercado. Sin duda el capitalismo significó para el hombre un camino de progreso, pero al mismo tiempo llevó a la formación de una sociedad dividida en clases sociales con intereses contrapuestos. El conflicto más profundo fue el que se planteó entre la burguesía, propietaria de los medios necesarios para la producción, como las industrias, la tierra, las herramientas, y los obreros, que no disponían de bienes ni de tierras ni de herramientas, y que lo único que podían hacer para subsistir era vender su fuerza de trabajo.

revolucion industrial en europa

Hacia la primera mitad del siglo XIX, el capitalismo se consolidó en Europa occidental y los cambios que había introducido la Revolución Industrial se extendieron por otros países del continente europeo y los Estados Unidos. La burguesía se consolidó como clase y fue protagonista de importantes revoluciones —1830, 1848— e impuso al mundo sus ideas, valores e instituciones de corte liberal. Pero este mundo burgués fue también un mundo de fuertes conflictos sociales. Junto a la próspera burguesía, en las ciudades industriales el número de obreros organizados crecía cada vez más: reclamaban por mejores condiciones de vida y mejores salarios. El progreso y la miseria fueron las principales características de esta época.

La industrialización cambió de forma radical el mundo. Las nuevas fuentes de energía condujeron a la mecanización y surgieron nuevas formas de comunicación y transporte. Varios factores provocaron el avance de la industrialización en el siglo XIX. En Europa, la consolidación de grandes imperios, como el británico, conllevó mayores oportunidades comerciales. La ampliación de los mercados de exportación alentó un aumento de la productividad, como resultado de la cual comenzaron a aparecer grandes fábricas modernizadas. En Gran Bretaña, el ritmo del desarrollo industrial se había acelerado durante el siglo xvm, cuando el imperio alcanzó su extensión máxima.

Explica John M. Roberts en su libro: “Historia Universal Ilustrada“: ¿Qué entendemos por «industrialización»? Por lo general, suele interpretarse como producción organizada a gran escala, con mucha gente trabajando junta. Pero el sentido común nos dice que debemos excluir de la definición la agricultura, a pesar de que a menudo se ha practicado con gran número de operarios en una misma finca —los siervos en Europa oriental o los esclavos en las plantaciones, por ejemplo—, y también el comercio, que se ocupa del intercambio de mercancías, y no de su producción. ¿A qué nos referimos, pues, cuando hablamos de industrialización en el contexto de la historia de la humanidad? Una posible definición sería «el proceso que conduce a una sociedad que cada vez resulta más dependiente de la industria fabricante de artículos y menos del comercio o la agricultura».

LA MÁQUINA A VAPOR: En 1765, el inventor inglés James Watt construyó un modelo de máquina de vapor. Cuatro años después, en 1769, construyó su primera máquina de vapor. El invento halló muy pronto aplicación en las empresas de Inglaterra. En 1780, en Birmingham funcionaban 11 máquinas de vapor, on Leeds 20, y en Manchester 32. La invención de la máquina dE vapor marcó una nueva otapa de la revolución técnica. Juntamente con la máquina de vapor entra en escena la ciencia.

En su forma mas simple el vapor utiliza agua hirviendo para producir vapor a presión. Este vapor hace presión contra una turbina o un pistón y fuerza su movimiento, y ese movimiento acciona las ruedas del motor. Pese a haberse inventado ya en 1698, el accionamiento por vapor experimentó diversos refinamientos hasta poder ser usado para accionar el primer barco en 1802. Las modificaciones más importantes del motor de vapor las realizó el escocés James Watt. Nacido en 1732, Watt consagró su vida a mejorar el motor de vapor.

De hecho, de no haber realizado los cambios que realizó, el motor de vapor no habría podido impulsar la Revolución Industrial. Watt ideó la cámara separada en la que se condensaba el vapor y gracias a la cual el motor tenía una mayor eficacia; y también inventó el barómetro o indicador de presión, y la manivela y el volante que provocaron el movimiento rotatorio. Fue un motor de Watt el que impulsó el barco experimental Clermont aguas arriba por el río Hudson en 1807.

maquina newcomen a vapor

La bomba de vapor, empleada para suministrar energía a molinos y fundiciones, la inventó Newcomen en 1712, pero no resultó práctica hasta que james Watt perfeccionó en 1191 esta enorme máquina, basándose en el diseño de Newcomen pero eliminando la mayoría de sus inconvenientes para poderla emplear para impulsar maquinaria. Un elemento fundamental de la máquina era el regulador, que mantiene constante la entrada de vapor, sea cual sea la carga.

LOS TRIUNFOS DE LA CIENCIA
Fue en el siglo xix cuando las ciencias llegaron a ocupar un lugar preponderante en la civilización de la Europa Occidental. Los sabios no fueron ya aficionados, sino profesores e investigadores que se especializaban, publicaron sus trabajos, confrontaron sus métodos de razonamiento y de experimentación.

Descubrimientos matemáticos importantes fueron el origen de un desarrollo general en las otras disciplinas científicas: el alemán Gauss, profesor de la Universidad de Gottinga, puso las bases del cálculo de probabilidades; en Francia, Lagrange hizo progresar el estudio de la mecánica, Monge creó la geometría descriptiva, Laplace demostró la estabilidad del sistema solar, Arago determinó la medida del meridiano. Sus sucesores Cauchy y Evaristo Galois (que murió a la edad de 21 años, a consecuencia de un duelo) fueron los promotores de la nueva álgebra y de las matemáticas puras. Noruega tuvo en Abel su gran matemático.(Ver: Matemáticos y Físicos)

Estos descubrimientos fueron directamente aplicados a la astronomía; Arago logró medir el diámetro de los planetas; Verrier, basándose en cálculos, estableció la existencia de un nuevo planeta, Neptuno, que un astrónomo berlinés, Gall, descubrió muchos años después, con la ayuda de un telescopio. Varios descubrimientos esenciales revolucionaron la física: refutando todas las afirmaciones anteriores, el óptico Fresnel demostró que los fenómenos luminosos eran debidos a la propagación de las ondas vibratorias. A la sombra del viejo Berthollet, Biot y Arago hicieron las primeras medidas precisas relativas a la densidad del aire; el mismo año, Gay-Lussac descubrió las leyes de la dilatación de los gases y estudió la composición de la atmósfera.

Por su parte, Carnot definió en un largo estudio las primeras leyes de la termodinámica. Los progresos más ricos en consecuencias fueron realizados en el campo de la electricidad: en 1800, los italianos Galvani y Volta construyeron a primera pila; el danés Oersted descubrió la acción de la corriente eléctrica sobre una aguja imantada, y el francés Ampére definió las leyes del electromagnetismo. El inglés Faraday y el americano Henry establecieron la noción de la inducción, y el alemán Ohm expuso su teoría matemática de la corriente eléctrica.

Estos descubrimientos permitieron el empleo del telégrafo eléctrico (dispuesto por Steinheil y Morse), que funcionó en Francia y en Inglaterra hacia los años de 1840. Los progresos de la química revistieron el mismo carácter internacional: gracias al inglés Davy y al sueco Berzelius, la pila eléctrica fue utilizada para el análisis de los cuerpos; la electrólisis permitió así aislar nuevos cuerpos simples: el potasio, el sodio, el magnesio, el cromo, aislados por el francés Vauquelin, el yodo y el aluminio por el alemán Woehler.

La química orgánica hizo importantes progresos gracias al francés Chevreul, autor de un estudio sobre los cuerpos grasos naturales, y al alemán Liebig, que creó un centro de estudios sobre los ácidos orgánicos, la fermentación y la descomposición de las materias, y realizó trabajos sobre la aplicación de la química en la agricultura. Por último, el inglés Dalton y el italiano Avogadro concluyeron las primeras teorías del átomo. Dos aficionados, el ofi cial Niepce y el pintor Daguerre, estudiaron la fijación de las imágenes luminosas obtenidas en la cámara oscura; en 1839, el inglés Talbot realizó las primeras fotografías en papel; seis años después, Niepce de Saint-Víctor inventó la fotografía sobre vidrio.

Los biólogos se dedicaron al estudio de la célula, elemento fundamental de los tejidos, descubierta, en 1830. Bichat y Laennec modernizaron los métodos de la medicina, y el descubrimiento de los anestésicos permitió a la cirugía dar un gran paso adelante. Gracias a un estudio detallado de las rocas, los geólogos reconstruyeron las principales etapas de la evolución de la corteza terrestre. Cuvier, partiendo de la observación de los fósiles, lanzó las bases de la paleontología, ayudado por sus discípulos Dufrenoy y Elie de Beaumont.

Estos últimos se convencieron de la estabilidad de las especies después de su creación; los descubrimientos de Boucher de Perthes sobre el hombre prehistórico  pusieron  en  discusión sus conceptos sobre el origen del mundo.   Lamarck y  Geoffroy   Saint Hilaire   se instituyeron, contra Cuvier, en campeones del transformismo, es decir de la evolución de las especies bajo el efecto de los cambios de ambiente y de herencia. Esta teoría parecía  incompatible  con la  enseñanza  de la Iglesia y dio lugar a una larga controversia entre la ciencia y la religión.

La investigación científica no descuidó la historia; atendió sobre todo, a las civilizaciones del pasado:   Champollion descubrió  el  significado de los jeroglíficos de Egipto, fundando así la egiptología; en Mesopotamia y en Grecia   fueron   emprendidas   excavaciones, fundándose  en  ésta  última  la   escuela  de Atenas.

Con la escuela de Diplomas, los investigadores franceses se dedicaron a un estudio sistemático del pasado de su país, y los sabios italianos multiplicaron las excavaciones   para   exhumar  los   innumerables vestigios de la civilización romana. Las ciencias habían abandonado definitivamente el campo del empirismo y tomado una extensión que iba a provocar una nueva revolución industrial, prodigiosamente acelerada, hacia finales de siglo.

La revolución industrial  vino acompañada de una explosión tecnológica que trajo grandes avances en el transporte (el automóvil y el aeroplano), las comunicaciones (el teléfono y las señales inalámbricas) e incluso el ámbito doméstico (la bombilla y el gramófono). En las ciencias, el naturalista británico Charles Darwin transformó el modo de concebir el mundo con la Teoría de la Evolución.

LA TECNOLOGÍA APLICADA A LOS MEDIOS DE COMUNICACIÓN:

Los Caminos: Al ampliarse la producción y el mercado de venta, se necesitaban medios de comunicación más perfectos. Aún antes de comenzar la revolución industrial, los caminos no satisfacían las necesidades de la población. Según testimonios de los contemporáneos, eran “molestos, malos, y dignos tan solo de ser destruídos” Por ellos transitaban penosamente, como mil años atrás, únicamente bestias de carga. Los transportes eran lentos y sumamente caros. Entre Inglaterra y Escocia, en general, no había comunicación regular. De Londres a Oxford se tardaba no menos de dos jornadas, y las cargas requerían más de tres semanas para llegar a Liverpool.

La etapa inicial de la revolución industrial está relacionada con la intensificación de la construcción de caminos. Sólo en el quinquenio de 1769 a 1774, el Parlamento votó más de 450 decretos sobre la construcción de nuevos caminos o mejoramiento de los viejos. Con el mejoramiento de los caminos, la velocidad de las comunicaciones comerciales aumentó a más del doble. A partir de 1756 aparecieron las comunicaciones postales y de viajeros regulares entre Londres y Edimburgo. Las bestias de carga fueron sustituidas en casi todas partes por las carretas. Sin embargo, para la conducción de cargas voluminosas y pesadas, el transporte terrestre continuaba siendo muy caro e incómodo. Surgió la idea de sustituir los caminos por las comunicaciones fluviales. La construcción de canales comenzó a principios de la segunda mitad del siglo XVIII. En 1755 fue construido un canal de 11 millas de longitud entre Liverpool y Manchester.

Como consecuencia de la apertura del canal, los gastos en el transporte de mercancías se redujeron a la mitad. En 1766 se abrió un canal de 29 millas. A fines del siglo XVIII, el Gran Canal de Unión comunicaba a Londres con las ciudades del centro de Inglaterra. Hacia 1825, la red de canales alcanzó 500 millas de longitud A principios de la década del 40 del siglo XIX, Inglaterra disponía de 2.200 millas de canales y de 1.800 millas de ríos navegables.  En Unos 30 años el país se cubrió de todo un sistema de canales, abiertos preferentemente en los condados del centro y del norte del país.

Todos los canales los construyeron particulares, dueños de grandes manufacturas o magnates de la industria. Pero la verdadera revolución en los medios de transporte está relacionada con la aplicación del vapor y la invención de la locomotora y el barco de vapor. En el primer cuarto del siglo XIX, los veleros comenzaron a ser sustituidos por los vapores, y las torpes y pesadas diligencias por los ferrocarriles.

puentes y canales en la revolucion industrial

El primer vapor se botó en 1807 en el río Hudson, en Norteamérica. Su inventor y constructor fue Kobert Fulton. En Gran Bretaña, el primer vapor se construyó en 1811. En 1816 un vapor cruzó por primera vez el Canal de la Mancha. Tres años después, en 1819, el vapor norteamericano Savannah hizo el primer viaje entre el Nuevo y el Viejo Mundo, cruzando el Atlántico en 25 días, o sea en 6 días más que los barcos de vela.

En 1842, el vapor inglés Drover realizó el primer viaje en derredor del mundo. Hasta entonces sólo los barcos de vela habían circundado el globo. En los primeros tiempos, la navegación a vapor fue más letita que la de vela y resultaba más cara; muchos comerciantes y empresarios no querían utilizarla, pero los más sagaces no tardaron en darse cuenta de sus ventajas en un futuro próximo.Todavía la mayor trascendencia fue la construcción de los ferrocarriles.

El Ferrocarril: La aparición del ferrocarril fue esencial para el éxito de la industrialización. En Gran Bretaña funcionaba desde antes del siglo XIX una forma rudimentaria de ferrocarril: desdelas bocaminas y las canteras, unos vagones tirados por caballos transportaban el carbón por medio de unas sencillas vías fabricadas con piedra y hierro.

La invención del motor a vapor fue el catalizador del cambio. En 1804, un minero de estaño de Cornualles, Richard Trevithick, enganchó un motor a vapor a un vagón de una mina. Inspirado por esta acción, George Stephenson creó su Rocket, la primera locomotora móvil capaz de tirar de vagones.

primera linea de ferrocarril

La primera línea de ferrocarril enlazó Liverpool con Manchester en 1830, y tras ella se desató un boom de la construcción ferroviaria. A partir de 1850, el Estado británico tuvo que intervenir para estandarizar el ancho de vía, que hasta entonces había sido variado. Esta intervención dotó a Gran Bretaña del primer sistema de transporte ferroviario nacional totalmente operativo. El ferrocarril fue ampliándose por toda Europa, uniendo las regiones y comunidades más aisladas y contribuyendo a la integración económica.

Desde el descubrimiento de nuevas rutas marítimas en los siglos quince y dieciséis, los mares unieron a los continentes en lugar de separarlos. Con el aprovechamiento de la energía del vapor en el siglo dieciocho, los barcos cubrieron con rapidez esas distancias, o por lo menos lo hicieron a un ritmo más constante y confiable. Al ponerle ruedas a la máquina de vapor, la revolución del transporte terrestre no se hizo esperar.

Vapores en los puertos: La máquina de vapor, que primero se empleaba para bombear agua de las minas de carbón y estaño, llegó a ser el artefacto más importante de la Revolución Industrial. Esta fuente de energía alimentada por carbón fue adaptada con éxito a la propulsión de barcos, a comienzos del siglo diecinueve.

El norteamericano Robert Fulton construyó en 1807 un barco de vapor, el Claremont, que funcionó. Por la misma época, el inglés Patrick Bell construía a su vez un barco similar. Al principio, el vapor fue considerado útil en los viajes por ríos o canales, pero hacia la década del 30 los barcos de vapor realizaban ya viajes transoceánicos. Los buques de vapor, o vapores, que no dependían de los vientos favorables, podían ajustarse a horarios, lo cual nunca había ocurrido antes. En consecuencia el comercio internacional se incrementó con rapidez. El vapor, más que la vela, intercomunicó pronto vastos imperios como el británico.

Hacia 1880, el motor de vapor propulsaba casi todo tipo de barcos: de guerra, de carga y de pasajeros. Las armadas movidas por vapor exhibían acorazados más armados y más blindados que nunca en toda la historia.

barco movido a palas

Automóviles: La historia del automóvil comenzó en 1885, con la aparición de la primera máquina movida por un motor de combustión interna. Nueve años después, un inventor francés llamado Panhard construyó un vehículo de cuatro ruedas, fácilmente identificable como antepasado del automóvil moderno. Durante la siguiente década se construyeron automóviles en Francia y Alemania, que servían como juguetes para los ricos. Este período puede considerarse como la prehistoria del automóvil.

Su verdadera historia comenzó en 1907 en los Estados Unidos, cuando Henry Ford empezó a producir en serie su Modelo T, mucho más barato que ningún otro coche construido hasta la fecha. Ford estaba dispuesto a atraer a un mercado de masas, y sus primeros modelos costaban sólo 950 dólares. En veinte años, gracias al enorme éxito obtenido, pudo rebajar el precio a menos de 300 dólares.

La demanda aumentó con tal rapidez que en 1915 Ford producía ya un millón de coches al año; esto significaba que lo que antes era un lujo se había convertido en un artículo corriente. De este modo, Ford cambió el mundo; a partir de entonces, incluso las personas con ingresos modestos podían disfrutar de una movilidad impensable incluso para los millonarios de cincuenta años antes.

auto antiguo de 1894

Una revista francesa patrocinó en 1894 una carrera para vehículos automáticos de Varis a Ruán. Los vencedores fueron dos vehículos de gasolina de las firmas Panhard.A consecuencia de esta carrera, la industria accedió a respaldar financieramente a los inventores.

El tendido de cables: Samuel Finley Bréese Morse, artista e inventor norteamericano, produjo la primera aplicación práctica masiva de los impulsos electromagnéticos, al inventar el código Morse en 1837. Siete años más tarde envió un mensaje instantáneo que rezaba: “¡Lo que hubiera fraguado Dios!”, por una linea telegráfica que iba de Baltimore a Washington D.C. ¿Qué quería decir con ello? Se trataba de una expresión de admiración respetuosa. Para la época, el telégrafo era una novedad inimaginable, tan importante y sorprendente como es hoy Internet. Los cables no tardarían en extenderse en todas direcciones por los países industrializados de Europa occidental y Norteamérica, para llegar luego a las más remotas regiones del globo.

Hablar por teléfono: Alexander Graham Bell, un terapeuta de la fonoaudiología, se interesó en el sonido y la comunicación junto con la tecnología telegráfica (consultar la sección anterior sobre el telégrafo), y construyó un teléfono experimental en 1876. Bell, inmigrante escocés a Estados Unidos, produjo y comercializó los aparatos y fundó además Bell Telephone Company. A comienzos del siglo veinte el teléfono no era ya una novedad y se había tornado en una comodidad diaria.

El envió de ondas radiofónicas: A finales del siglo diecinueve, Guglielmo Marconi, inventor italiano, demostró que las ondas de radio podían servir para enviar señales sin necesidad de cables. Los escépticos pensaban que las ondas de radio no podían recorrer distancias lo suficientemente grandes para ser de utilidad. Marconi, que vivía y trabajaba en Inglaterra, probó que estaban equivocados enviando una señal en código Morse a 14,5 kilómetros de distancia, a través del canal de Bristol. En 1901 envió una señal a mucho mayor distancia: a través del océano Atlántico, desde Cornualles (situada en la punta suroccidental de la principal isla de Inglaterra), hasta Newfoundland, en Canadá. Marconi ganó el premio Nobel de física en 1909.

Los Zepellin: Durante mucho tiempo —quizá miles de años— los hombres han soñado con poder volar. En el siglo XVIII empezaron a hacerlo: los hermanos Montgolfier realizaron su primera ascensión en globo en 1783. Durante muchos años, los únicos agentes capaces de elevar el artefacto eran el aire y el gas calientes producidos al quemar materiales directamente debajo del globo, de ahí que se los llamara «globos de aire caliente».

En el siglo XIX, las «máquinas más ligeras que el aire» (una denominación curiosa, puesto que en realidad eran más pesadas, y lo único más ligero era el agente elevador) empezaron a utilizar gases como el hidrógeno, que no necesitaban calentarse. El tamaño y la forma de los aparatos fue cambiando, ya que se pretendía que sirvieran para algo más que el mero flotar a capricho del viento. Los primeros «dirigibles» verdaderos —es decir, aparatos que se podían guiar— aparecieron cuando surgió el motor de combustión interna y pudieron abandonarse los extravagantes experimentos realizados hasta entonces con grandes remos e incluso velas. (Ver: Historia de los Zepellin)

Primeros Vuelos en Aviones: (Ver: Los Hermanos Wright)

globo zepellin

El dirigible Zeppelin Sachsen aterrizando en el aeropuerto de Mockaa en 1913.
Estas aeronaves funcionaban con hidrógeno, un gas muy inflamable, con constante riesgo de incendio.

Fuente Consultadas:
Todo Sobre Nuestro Mundo Christopher LLoyd
HISTORAMA La Gran Aventura del Hombre Tomo X La Revolución Industrial
Historia Universal Ilustrada Tomo II John M. Roberts
Historia del Mundo Para Dummies Peter Haugen
La Revolución Industrial M.J. Mijailov

Los Satélites Artificiales Argentinos Historia Plan Espacial

HISTORIA PLAN ESPACIAL DE ARGENTINA

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio. Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos. En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

Mono Juan Enviado al Espacio Por Argentina, Murió en el zoologico de Córdoba.

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio. El tripulante, de la especie caí, había nacido en
Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja. Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal. En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD
A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas. En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos. Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones. La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas. El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social. El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información. La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos. La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES: La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida. En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre. Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó. En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador. Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite. Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento. Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta. En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete. El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:
Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro. Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica. Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se creala Sociedad Argentina Interplanetaria, la primera en América latina, en 1949. Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II. Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro “La Ciencia Argentina”, explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II. Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario. La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B. Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita. En febrero 1994, el New York Times se refería a la empresa argentina como “una pequeña versión argentina de una compañía de Silicon Valley” y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial “Argentina en el Espacio 1995-2006”. Varotto cuenta que este programa “fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo”. Y agrega: “Se decidió concentrar los recursos en ir arriba para mirar para abajo”. El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, “contribuya a la optimización de actividades de determinadas áreas socio-económicas”. Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

SATÉLITES SAC-A Y SAC-B
La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita. Mejor suerte tuvo la misión SAC-A, que se concretó en 1998. El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C
Argentina en su Plan Espacial Nacional – “Argentina en el Espacio 1995-2006” , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae). Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de “proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes”.

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7. Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales. Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la Conae llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino. Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites. El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la Conae- y varias empresas del país, que son las que construyeron el satélite. El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP. Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane
Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas. El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la “sugerencia” de EE.UU.
Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.
Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990. Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat). Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio. El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales. Fabricó el “bus”, o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE. Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina. A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche. De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica. Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre d 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia. La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales. El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
“La Ciencia Argentina” de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario “La Nación”

Concepto de Fuerza Centrífuga Aplicaciones Prácticas

Si se hace girar con rapidez un balde parcialmente lleno de agua, con los brazos extendidos alrededor del cuerpo, el contenido no se derrama, aun cuando el balde esté volcado sobre un costado. El principio responsable de este fenómeno es conocido por los físicos con el nombre de fuerza centrifuga.

Al mismo tiempo que se hace girar el balde, el agua tiende a permanecer dentro de éste, presionada hacia el fondo (es decir, hacia afuera con respecto a quien hace girar el balde) o al centro de giro por la fuerza centrífuga. Este es un ejemplo bastante directo de como se origina esta fuerza, aunque hay muchas otras aplicaciones más prácticas.

Sabemos, según las leyes de los cuerpos en movimiento, enunciadas por Isaac Newton, que las fuerzas siempre se originan por pares, siendo cada una de las mismas de igual valor y sentido contrario. La fuerza que se necesita para mantener un cuerpo que gira dentro de su trayectoria, evitando que se vaya hacia afuera, se conoce como fuerza centrípeta y es igual pero de sentido contrario a la fuerza centrífuga.

Fuerza centrífuga en un balde girando. El agua no sale del balde porque es empujada hacia el exterior o fondo.

En el caso del ejemplo mencionado, esta fuerza centrípeta se manifiesta como el esfuerzo realizado por el brazo para sostener el balde. Podemos ver, bastante fácilmente, cómo estas fuerzas se relacionan con la velocidad a la cual el objeto se mueve dentro de su órbita. Un ejemplo emocionante lo constituye, en el espec táculo circense, un motociclista que da vueltas dentro de una gran esfera de malla metálica.

Cuando su máquina se mueve lentamente, el motociclista no puede subir muy alto, pero a velocidades mayores la fuerza centrífuga que tiende a lanzarlo hacia afuera es tan grande, que puede trepar verticalmente hasta la cúspide de la esfera y girar sin perder contacto con la “pista”, a pesar de desplazarse “cabeza abajo”.

La inclinación que se observa en las curvas de las vías férreas obedece al mismo principio: la fuerza centrífuga que impulsa hacía afuera al tren cuando éste toma la curva, es contrarrestada por la fuerza centrípeta que se manifiesta cuando el costado de las ruedas presiona sobre los rieles. Este esfuerzo se reduce considerablemente inclinando las vías en un cierto ángulo, de modo que el riel exterior (el más alejado del centro de la curva) esté a mayor altura que el interior.

Otro ejemplo parecido lo constituye aquella famosa primera pista de Avus, en Alemania, donde ya en el año 1937, los promedios de velocidad establecidos por los coches de carrera llegaban a 261 Km./h., con records hasta de 280 Km./h. Esto podía lograrse porque aquella pista tenía curvas construidas con un extraordinario peralte que llegaba a los 45 grados. De esta manera, se conseguía precisamente vencer la gran fuerza centrífuga que esas velocidades provocaban en los giros. Una idea de dicha fuerza la da el cálculo de que, en el momento de paso sobre la curva, los neumáticos debían soportar nada menos que 3 veces el peso de la máquina.

Peralte o Inclinacion de la Carretera

Los llamados trajes de presión, creados por los japoneses durante la segunda guerra mundial y adoptados luego por casi todas las demás fuerzas aéreas, constituyen una solución bastante aceptable al problema de la tremenda fuerza centrífuga a que está sometido el piloto en un combate aéreo. Este traje evita que, en los giros violentos, la sangre se desplace y se agolpe por centrifugación, con el consiguiente desvanecimiento y pérdida momentánea de la visión. Pero no siempre ¡a fuerza centrífuga resulta negativa; muchas veces el hombre se vale de ella para obtener provecho.

Un buen ejemplo de aplicación práctica de este principio lo tenemos en el aparato denominado centrifuga. Si tenemos una suspensión de un sólido en un líquido, o una mezcla de líquidos de diferentes densidades, es decir, que tienen relaciones diferentes de peso a volumen (por ejemplo crema y leche), y que han sido mezclados hasta formar una emulsión, podemos separarla si la dejamos reposar tiempo suficiente.

Una centrifugadora es una máquina que pone en rotación una muestra para –por fuerza centrífuga– acelerar la decantación o la sedimentación de sus componentes o fases (generalmente una sólida y una líquida), según su densidad. Existen diversos tipos, comúnmente para objetivos específicos.

La atracción que ejerce la gravedad sobre la leche es mayor que sobre la crema, menos densa, que va a la superficie. Este proceso se puede acelerar centrifugando la mezcla (estas centrifugadoras tienen la forma de un cuenco que gira rápidamente). De este modo la leche es impulsada más lejos del centro que la crema, la cual, por no ser tan densa, no sufre con tanta intensidad los efectos de la fuerza centrífuga que se origina.

También bombas centrífugas y turbinas centrífugas que trabajan con líquidos y aire, respectivamente, son un acierto mecánico. Debemos recordar que los turborreactores centrífugos reciben este nombre porque su alimentación de aire lo produce una turbina de ese tipo.

Bomba centrifugadora

En la fundición de metales, las inyectaras centrífugas son insustituibles por la precisión, seguridad y calidad de los colados. Este tipo de inyectora recibe el metal fundido por un tragadero central, y mantiene adosada una batería de matrices a su contorno. Girando a gran velocidad, el metal es centrifugado con gran presión, e inyectado al interior de las matrices.

RAZÓN POR LA CUAL LA TIERRA NO ES ATRAÍDA POR EL SOL

Esquema Sistema Tierra-Sol

Esto se debe a que, a pesar de la atracción gravitacional (fuerza de gravedad) la fuerza centrífuga tiende constantemente a empujar a la Tierra hacia afuera. En este caso, las dos fuerzas están equilibradas. La fuerza de gravedad entre el Sol y la Tierra actúa como una fuerza centrípeta, que tiende a atraer al planeta, que gira en su órbita, hacia el Sol. La fuerza centrífuga originada por el movimiento de rotación, tiende a empujar al planeta en sentido contrario, es decir, fuera del Sol., El resultado es que la distancia entre el Sol y la Tierra se mantiene constante, suponiendo que la velocidad del planeta también se mantenga igual (en realidad, la velocidad de la Tierra sufre pequeñas variaciones, con la consiguiente alteración en la distancia al Sol). El mismo principio se aplica a los satélites artificiales que se ponen en órbita para girar alrededor de la Tierra. La atracción de la gravedad equilibra las fuerzas centrífugas, y los satélites pueden moverse a distancia más o menos constante de la Tierra, “suponiendo que su velocidad sea también constante”. De todos modos, la velocidad se reduce gradualmente, a causa del rozamiento con la atmósfera, y los satélites tienden a caer hacia la Tierra.

Formula de la Fuerza Centrípeta:

Diagrama de un cuerpo girando, Fuerza Centrifuga

Ejemplo: si se toma una piedra de 2 Kg. de masa, atada a una cuerda y se la hace girar con un radio de 1,2 m. a razon de 2 vueltas por segundo. Cuanto vale la fuerza centrífuga que debe soportar la cuerda?.

La masa es de 2 Kg., el radio: 1,20 metro, pero nos falta la velocidad tangencial Ve, pues la del problema es la velocidad angular.

Para ello se sabe que dá dos vueltas en un segundo, entonces el recorrido es, dos veces el perímetro de la circunferencia por segundo. Podemos hallarlo asi: 3.14. 1.2. 2=7.53 m. cada vuelta , por dos es: 15,07 m. distancia que la masa recorre en 1 segundo, por lo tanto la velocidad tangencial es: 15,07 m/seg.

Aplicando la formula se tiene que Fc= ( 15,07 )². 2 /1,2² =454/1.44=315,27 Newton

Fuente Consultada:
Revista TECNIRAMA N°21 Enciclopedia de la Ciencia y La Tecnología -La Fuerza Centrífuga-

Uso de Computadoras en la Segunda Guerra Mundial

PRIMEROS SISTEMAS DE CÁLCULO RÁPIDO APLICADOS EN LA GUERRA MUNDIAL

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta. La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo. La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo. Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano. Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años. Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR. Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco. Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves. Podía recordar solamente veinte números por vez. El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina. Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC. Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial. En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales. El tiempo de suma se redujo a 60 microsegundos. En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II. El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.   Su primer   trabajo fué analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos. Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas. Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del “empleado bancario” ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos. En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador. Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

Nace el minúsculo gigante
Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema. Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores. Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos. El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales. Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío. Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos “bigotes” de alambre realizaba todas las funciones de un tubo electrónico. Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes. Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico. Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo). Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones. Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija. Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años. Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades. A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos. Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos. De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos. Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas. Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales. Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

 

Historia de la Automatizacion Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales. Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta. Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente. El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales. Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero. La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano. El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford. Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

FÁBRICA AUTOMÁTICA
Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.   Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes. Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos. La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo. A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa. El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos. El sistema telefónico es automatizado casi en un 90 por ciento. En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó. Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión. Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase. En las fábricas ie lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización. Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro. Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos. La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel. Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática. En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura. Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados. Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día. Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos. Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central. Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna Edison Vs. Tesla

HISTORIA Y EVOLUCIÓN DE LA CORRIENTE ELÉCTRICA

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy. Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite. Pocos años antes, Edison había presentado su práctica lámpara incandescente. Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua. La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna. Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

MlCHAEL FARADAY
PRIMEROS PASOS….Conocido como el “príncipe de los experimentadores”. Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que un unan. girase alrededor de un alambre que transportaba corriente. De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes. ¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos. Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria. Fracasaron los ensayos que, con intermitencias, hizo durante diez años. No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo. Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela. Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba. Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro. Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar. Faraday consiguió convertir la fuerza mecánica en corriente. La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo: “Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética“. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente. En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.   Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó   al imán permanente.   Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad.

En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

Fue entonces   cuando   Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios. Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo. Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones. Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad. Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término. Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las “resplande cientes herraduras que brillaban dentro de los globo en forma de peras”.

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica. De los inducidos de 1e central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos. Cada libra de carbón producía al consumirse un kilovatio hora de electricidad. Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno yj consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz. Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica. La iluminación eléctrica sólo por períodos exigía el total de la energía. Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos? Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente. Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas. Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados. El nuevo sistema de transporte permitió la expansión de la ciudad. Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas. Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores. Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas. Entraron en los hogares en aspiradoras de alfombra. El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

La Corriente alternada
Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  “impulsar” a  mucha   distancia de la   central eléctrica. Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador. Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.   Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro. Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles. Westinghouse adivinó en el acto la importancia del generador de corriente alterna. Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros. Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor. La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones -por minuto. Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima. Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores. Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales. Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

 

Historia de la Produccion en Serie La Cadena de Montaje

CADENA O LÍNEA DE MONTAJE
Cuando pudieron hacerse formas metálicas exactamente iguales, fue lógico pensar en ellas como piezas intercambiables.

Eli Whitney fue quien por primera vez montó piezas intercambiables como un nuevo método de fabricación. Se pudo hacer las piezas en un lugar y luego armarlas en otro. Whitney pensó que en esta forma los productos manufacturados podrían producirse en cantidad mayor con más rapidez y a menor costo.

Ely Whitney

En los primeros años de su juventud, Whitney se ganó la vida batiendo clavos en un yunque. Nunca podía dar a los clavos formas exactamente iguales. Años después, cuando ya había inventado la desmotadora de algodón, en una ocasión en que observaba cómo con un martillo pilón se hacían miles de clavos idénticos, se convenció de que las máquinas tendrían que sustituir a la mano del hombre.

Por esa época, en 1789, Francia estaba en plena revolución, y los Estados Unidos temían que su mejor amiga pudiera volverse contra ellos. Se necesitaban fusiles para la defensa de las costas de América. Para fabricarlos a mano se requerirían años. No es de extrañar que el Departamento de Guerra se alegrase cuando Whitney propuso entregar 10.000 mosquetes en el término de dos años al bajo precio de $ 13,40 cada uno. Se celebró contrato con Whitney, adelantándole una suma para que comenzara la fabricación.

El joven inventor, sin embargo, tropezó con gran dificultad para encontrar hombres que poseyeran la pericia mecánica necesaria para hacer las máquinas cortadoras que reemplazasen al viejo martillo, el escoplo y la lima. Al igual que antes Watt, Whitney tuvo que hacerse las herramientas requeridas y adiestrar en el manejo a los obreros que él tomaba en las fundiciones y talleres de maquinaria.

Su primera tarea fue construir un elemento mecánico que reemplazara a las, manos humanas en la aplicación y dirección del movimiento de un instrumento cortante. No había maquinistas cuyas manos fuesen suficientemente firmes o fuertes como para sostener un instrumento de raspado contra una pieza de hierro que gira más de unos pocos minutos cada vez.

Se necesitaba una presión constante y exacta. Resolvió el problema con una especie de plantilla mecánica, que viene a ser un molde de madera o metal, a lo largo del cual se mueve una herramienta que hace piezas iguales.

Cada pieza del mosquete se sujetaba en una posición prefijada antes que las fresas la cortaran. De esta manera se repetía cada una con precisión absoluta. No sólo se empleaban piezas uniformes, sino que los bancos de trabajo se ubicaban de manera que las piezas pudieran pasarse de un obrero al otro.

La fábrica se dividía en departamentos, cada uno con su máquina especial unida por correa a un eje que impulsaba y hacía todas las herramientas cortantes.

Con esto la fábrica ya estaba preparada para ponerse en marcha, y todas las máquinas comenzaron a trabajar al mismo tiempo. Una máquina daba forma a la caja de madera del fusil, con sus superficies planas y curvadas. En hojas metálicas se hacían agujeros en lugares precisos, a fin de que sirviesen de guías para la producción en masa de trabajo de perforación.

Con grapas se sujetaban hojas metálicas contra los bancos, mientras las fresas las cortaban. Interruptores automáticos-detenían la acción de la herramienta. El mecánico sólo necesitaba agrapar las barras metálicas, las cuales eran cortadas, cepilladas, conformadas, taladradas, lustradas y esmeriladas automáticamente.

Los obreros solamente tenían que reunir las diversas piezas y llevarlas a la sala de montaje, donde se armaban los fusiles en tiempo record.

Finalmente, se dispuso de una forma de producir grandes cantidades de materiales con la rapidez, la uniformidad y la precisión que ningún artesano podía lograr individualmente.

Comienza la producción en masa
En este tiempo las avanzadas de pobladores y colonizadores de zonas lejanas estaban en plena marcha hacia el oeste de los Estados Unidos. Había que preparar las fronteras (que es como se llamaba a los límites entre civilización y regiones incultas) y construir viviendas.

El hacha era la herramienta predilecta del pionero. Pero éste a menudo tenía que esperar meses a que el herrero le forjara un hacha. Cada mango exigía un tallado cuidadoso. Cada hoja de hacha requería un largo y lento proceso de templado y pulimento.

Lo que Whitney había hecho para el fusil, otros entusiastas de la mecánica lo aplicaron al hacha. Las fábricas las hicieron a millares. Se colocaban en tambores giratorios y pasaban por las llamas de un horno en un proceso de calentamiento uniforme. Luego un martinete de fragua les daba rápidos golpes sucesivos, que hacían perforaciones de una medida exacta, por donde entrase a la perfección el mango.

De la noche a la mañana dejaron de faltar hachas. Corrió si se tratase de celebrar la intensificación de la producción fabril, empezaron a salir en cantidad los relojes de las fábricas. Con máquinas se perforaban miles de piezas por día y se montaban tan rápidamente que todo el mundo pudo tener reloj por muy bajo precio.

El hecho de que las máquinas pudieran hacer cosas mejores y con mayor rapidez produjo una conmoción creciente que todo lo inyadió. Elias Howe descubrió la parte esencial de la idea de una máquina de coser un día en que puso el ojo de una aguja en la punía en lugar de la cabeza.

De esta manera fue posible hacer que el hilo atravesase la lela sin necesidad de que la aguja la pasase de lado a lado. Otro hilo que salía de una lanzadera pasaba por dentro del lazo. Cuando la primera aguja retrocedía nuevamente, con un punto de cadeneta se apretaban los dos hilos. Esto resultó cien veces más rápido que coser a mano.

Singer introdujo mejoras. Mediante un pedal consiguió que las manos de la costurera quedasen libres y pudiesen guiar la tela. Se dio a la aguja movimiento vertical, subiendo y bajando, en vez de moverse Imrizontalmente como la aguja de Howe.

Al poco tiempo la máquina de coser pasó del hogar a la fábrica. La producción en masa hizo bajar los precios. Todos pudieron adquirir desde entonces mi traje nuevo, un vestido nuevo. Las máquinas construyeron nuevas máquinas despúes de cada nuevo invento. La lenta salida de los productos manufacturados, parecida a un goteo se transformó en un diluvio.

PARA SABER MAS…
Cadena de Montaje en Ford

La producción dependió de la rapidez con que el hombre pudiese servir a la máquina. En la línea de montaje, cada hombre agregaba una pieza al armazón desnudo que iba avanzando por esa línea. A medida que el magneto, por ejemplo, se desplazaba sobre un medio transportador, los hombres le añadían algo cada uno, hasta que finalmente salía terminado al cabo de trece minutos. Levantando el transportador del magneto veinte centímetros, para que los hombres no tuvieran que agacharse, el tiempo disminuyó a siete minutos. Imprimiendo al transportador un poco más de velocidad, ese tiempo se redujo a cinco minutos.

Con métodos similares, en la línea del ehassis se redujo el número de estaciones, hasta que fue sólo de cuarenta y cinco, y de la última operación salía el auto armado. Fue éste un ejemplo sensacional del método nuevo de producción. En 1915, un coche se terminaba en noventa y tres minutos. Una década después, luego de haberse vendido 16 millones de automóviles del modelo T, cada quince minutos salía un coche nuevo. Lo más sorprendente de todo es que el precio se pudo reducir de 850 a 295 dolores.

Frederick Taylor fue el primero que concibió la idea de que el propio hombre pudiera convertirse en un mecanismo. Taylor es el ingeniero que descubrió un acero de aleación nueva capaz de cuadruplicar la velocidad de las herramientas cortantes. Imaginó que el propio hombre podía llegar a ser igual de eficiente que una máquina si se eliminaban movimientos superfluos. Utilizando un cronógrafo, determinó el tiempo que tardaban distintos obreros y el que se requería en distintos movimientos para concluir una operación.

Otros ingenieros siguieron estudiando los movimientos de los obreros con el propósito de llegar al máximo de producción posible por minuto. Todos estos estudios sobre la forma de lograr que las piezas y los materiales saliesen en forma uniforme y fija; con la velocidad mayor con que las máquinas pudieran producirlas, desembocaron en una sorprendente conclusión: nunca se conseguiría que el hombre fuese una máquina eficiente.

Ver: Henry Ford y su Producción

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Aliscafos: Funcionamiento y Usos Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota. Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles. Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer “la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo. De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad. Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en “V”, puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes. Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones. De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias. Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica. El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave. Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente. También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO
Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos. Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento. Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo. Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas. Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio. Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua. Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos. Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua. Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible. De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad. Los sistemas principales emplean planos en “V”, grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación. En los dispositivos que emplean planos en “V”, el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en “V” próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación “vuela” sobre aguas quietas. Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte. A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen. Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor. Del mismo modo que en los sistemas en “V”, la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada. En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa. Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua. Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa. Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua. Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves. Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles. Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

Vista Inferior de los Aliscafos Con Sistemas Distintos

APLICACIONES
Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos. Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil. Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Aviones Convertibles Primeros Modelos y Tipos

INTRODUCCIÓN: El día 2 de noviembre de 1954 constituye un hito en la historia del aeroplano. Dicho día, en la base de pruebas de la casa Convair, el piloto J. K. Coleman realizó el primer vuelo en un avión que despegó verticalmente desde su posición de partida, basculó en el aire, voló horizontalmente a más de 800 kilómetros por ahora y aterrizó de nuevo en posición vertical hasta quedar apoyado sobre la cola.

El Faire-Rotodyne, convertible para pasajeros, de velocidad superior a los 300 kilómetros por hora.

El avión era un monoplano de ala en delta Corvair XFY-1 equipado con un turbopropulsor Allison de 5.500 HP. Dos hélices tripalas contrarrotativas proporcionan, junto con el empuje del chorro del reactor, la fuerza de sustentación necesaria para el despegue vertical. Se trata de un nuevo tipo de avión, que los norteamericanos designan VTOL (Vertical Take oíi Landing: despegue y aterrizaje vertical) y que en Europa se conoce por «convertible».

En el año 1950, con ocasión de la guerra de Corea, el Gobierno de los Estados Unidos se dio cuenta de la necesidad de disponer de aviones de caza capaces de despegar en cualquier clase de terreno, sin necesitar aeródromos y pistas de aterrizaje.

En efecto, el peso cada vez mayor de los aviones de caza obligó a hacer pistas y campos de aterrizaje de mayor extensión y resistencia, y, por otra parte, el terreno montañoso no ofrecía lugares a propósito para la instalación de tales campos y pistas. Asimismo había que pensar en aviones de caza capaces de despegar de la cubierta de los buques de guerra y de transporte y que pudiesen aterrizar de nuevo en ellos, evitando tener que acompañar las escuadras y convoyes con costosos y vulnerables portaaviones.

A partir de dicho año los proyectos se suceden, la mayoría irrealizables por fantásticos; pero algunos ofrecen posibilidades constructivas, y al cabo de cuatro años se consigue que vuele el primer «convertible».

Qué se entiende por avión convertible:

Un avión convertible es un avión capaz de despegar y aterrizar como un helicóptero, es decir, verticalmente, y una vez alcanzada la altura suficiente, volar como un avión.

Aunque el helicóptero resuelve muchos problemas, como son los del salvamento en zonas difíciles de acceso, vigilancia y enlace, así como transporte del aeropuerto al centro urbano y de ciudad a ciudad con helicopuertos centrales, las misiones de tipo militar, en campaña, quedan limitadas en estos aparatos por su reducida velocidad.

En dos décadas de desarrollo el helicóptero sólo ha alcanzado una velocidad máxima de 251 kilómetros por hora (récord mundial, septiembre de 1953, helicóptero Sikorsky XH-39, piloto Wester, de los Estados Unidos), y no es previsible ni probable que llegue a alcanzar nunca las velocidades sónicas, ya alcanzadas y hasta rebasadas por algunos tipos de aviones de caza.

El 5 de enero de 1959 el Fairey-Rotodyne, primer convertible comercial para pasajeros, ya logró alcanzar en sus vuelos de ensayo los 307 kilómetros por hora sobre un circuito de 100 kilómetros, batiendo con ello la marca de velocidad máxima alcanzada por los helicópteros.

Si motivos militares son los que han impulsado el rápido desarrollo del convertible, no debe olvidarse el problema de la seguridad, que queda ampliamente resuelto con este tipo de avión. Por consiguiente, no deberá extrañar que, una vez puestos a punto los convertibles militares, se construyan paralelamente los convertibles civiles, tanto para el transporte de viajeros como para el turismo o el avión particular.

Tipos de aviones convertibles:

Los convertibles se clasifican en tres grandes grupos:
1.° Los que disponen de rotores, hélices o reactores distintos para la sustentación como helicópteros y para la propulsión como aviones.
2.° Los que tienen un mismo rotor, hélice o reactor para la sustentación y la propulsión, y el eje del propulsor ha de girar 90° al pasar de una a otra clase de vuelo.
3.° Los que se sustentan y avanzan sobre una columna de aire creada por sus elementos propulsores. Son las plataformas volantes.

En el primer grupo, los aparatos reúnen las características del helicóptero combinadas con las del aeroplano: alas y hélices o reactores de avión para el vuelo horizontal, y rotor de helicóptero o reactores para el vuelo vertical. La ventaja principal de estos convertibles estriba en la seguridad de su pilotaje, ya que el paso de vuelo helicóptero al vuelo avión es continuo, conservando siempre el mando del aparato. El grupo primero se subdivide en tres subgrupos:

a)    Los convertiplanos cuyo rotor de despegue se para en el vuelo horizontal, de manera que las palas ofrezcan una resistencia mínima al avance.
b)    Los convertiplanos en que las palas del rotor de sustentación vertical se colocan de manera que en vuelo horizontal actúan como las alas fijas de los aviones normales.
c)    Los combinados de avión y helicóptero, es decir, los helicoplanos o helicópteros combinados, con fuselaje y alas de avión provisto de rotores sustentadores.

Entre los proyectos correspondientes al grupo primero, subgrupo a), destaca el convertiplano de Wilford, con rotor monopala contrapesado, de propulsión por reacción, a tase de chorro de gases comprimidos por el motor y eyectados e inflamados en el extremo acodado de la pala.

En el subgrupo b) merece citarse el convertiplano de Herrick, HV-1, que realizó sus primeros ensayos en 1931, prosiguiendo sus estudios en años posteriores (el HV-2 voló en 1937).

avion convertible herridyne

Modelo norteamericano «Helidyne», convertible, con dos rotores coaxiles y dos motores para vuelo horizontal. Ofrece, en su conjunto, las ventajas del helicóptero, el autogiro y del avión clásico.

Convertiplano de Herrick. Es un biplano con una ala fija y otra giratoria, a voluntad, dotada de turborreactores en sus extremos. Para el despegue y aterrizaje el plano superior actúa como un rotor de helicóptero; este rotor se convierte en plano cuando navega en vuelo horizontal.

El subgrupo c) está formado por los helicópteros «combinados», de los cuales constituye un precursor el autogiro español La Cierva, cuyos primeros vuelos datan del año 1923. El notable ingeniero Juan de la Cierva, con su revolución genial de la articulación de las palas del rotor y el descubrimiento del fenómeno de autogiración, hizo posible el desarrollo posterior del helicóptero y, como consecuencia, el del convertiplano.

Como se sabe, el autogiro primitivo era un avión de alas reducidas en las que una hélice tractora proporcionaba la velocidad suficiente para que el rotor entrase en autogiración, suministrando la fuerza de sustentación necesaria al vuelo. El rotor permitía una velocidad de vuelo muy reducida y el aterrizaje prácticamente vertical, y en los últimos modelos se lograba el despegue vertical acelerando el rotor mediante una transmisión desde el motor.

Soluciones parecidas, aunque no pueden clasificarse   estrictamente   como  convertibles,   son:

El «helicoplano» Hamilton, que se ensayó en los Estados Unidos en 1929, formado por un avión monoplano de ala alta Hamilton con dos hélices de eje vertical de 5,50 metros de diámetro situadas bajo el ala y a ambos lados del fuselaje.

Tipo de avión convertible que despega sobre un trípode, proyectado por L. H. Leonard. Una vez que el aparato ha despegado, gira sobre sí mismo un ángulo de 90 grados, las aletas estabilizadores se reducen por retracción (alas delanteras) y el aparato queda convertido en un cigarro puro volante de grandes alas.

El «giróptero» del francés Chauviére, construido en 1929, provisto de rotor sustentador y hélice tractora.El «clinógiro» de Odier Bessiére, ensayado en Francia en 1932, no es más que un monoplano Caudron 193, con motor de 95 HP, al que se le ha añadido una ala superior giratoria formada por un rotor de cuatro palas. Un proyecto posterior de A. Flettner prevé un avión clásico con cuatro hélices verticales para asegurar despegue y aterrizaje verticales.

Entre los «combinados» modelos pueden citarse los siguientes:

El helicóptero birrotor americano de la «Gyro-dyne Co.» Helidyne 7 A, con alas fijas reducidas de avión y dos motores con hélices propulsoras que le permiten volar a 140 kilómetros por hora con una carga útil de 1.340 kilogramos. Se trata de una adaptación del helicóptero Bendix. Sus primeros vuelos tuvieron efecto en noviembre de 1949. Un nuevo tipo, el Helidyne, destinado al transporte militar, presenta un peso en vuelo de 11.300 kilogramos.

Parecido a éste es el aparato experimental francés Farfadet SO-1310, helicóptero con un rotor de reacción a base de aire comprimido suministrado por una turbina «turbomeca» de 260 HP y alas fijas de superficie reducida, así como una hélice tractora accionada por una segunda turbina. En vuelo horizontal el rotor entra en autogiración. Sus ensayos dieron comienzo en el año 1953.

El Fairey-Rotodyne, que ya se ha citado, corresponde a este subgrupo.
En el grupo segundo, convertiplanos de rotor sobre eje que bascula en 90° para pasar del vuelo vertical al horizontal, también se distinguen dos subgrupos:

a)    Convertiplanos en que el rotor y el fuselaje basculan simultáneamente al pasar del vuelo en helicóptero a vuelo en avión, o sea eje del rotor invariable respecto al fuselaje.

b)    Convertiplanos con rotores o reactores de eje basculante respecto al fuselaje que permanece siempre en posición horizontal.

Los aparatos correspondientes al grupo segundo se caracterizan por tratarse en general de aparatos de alas fijas cuyas hélices son de diámetro mucho mayor al que normalmente sería necesario para el vuelo horizontal. En efecto, en este tipo de convertiplano las hélices, que trabajan con eje vertical, han de proporcionar la fuerza de sustentación necesaria para elevar vertical-mente el aparato.

El Hillar X-18 Propelloplane, avión convertible de ala basculante que despega en vertical.

Entre los aparatos del grupo segundo, subgrupo a), figuran los primeros convertibles de realización práctica y cuyos vuelos permitirán la solución del problema para los aviones de caza. Es el VTOL Convair XFY-1, ya citado, y otros como el Coleóptero, que más adelante describiremos con mayor detalle.

Este subgrupo a) es mecánicamente el de más fácil realización;  en cambio, presenta  otros inconvenientes que la práctica indicará la forma en que deberán solucionarse. Son éstos la difícil maniobra del paso de vuelo vertical a horizontal, y viceversa, basculando todo el aparato.

El embarco de los tripulantes y del material en el fuselaje en posición vertical tampoco será fácil. Por último, la estabilidad en el momento de aterrizaje si sopla viento algo fuerte parece precaria dada la altura del centro de gravedad con relación a la reducida base de apoyo sobre la cola.

Como primeros proyectos y realizaciones, merecen citarse los siguientes:
El de Focke-Wulf, que durante la segunda Guerra Mundial proyectó un convertible a base de substituir las alas por un gran rotor tripala situado tras la cabina de mando, accionado por estatorreactores en el extremo de las palas. Esto obligaba a utilizar cohetes de despegue. Los empenajes de tipo normal soportaban el tren de aterrizaje, sobre el cual se apoyaba el aparato en posición vertical para el despegue y aterrizaje.

Parecido al anterior, pero más atrevido, es el proyecto de L. H. Leonard, en el cual dos grandes rotores impulsan un fuselaje en cuya proa se halla la cabina de mando y los empenajes, y en la popa el tren de aterrizaje que, replegado en vuelo, se despliega para el aterrizaje vertical sobre la cola.

Un convertiplano correspondiente a este grupo, que fue construido por encargo de la Marina de los Estados Unidos, es el ala volante semicircular «Chance Vought» XFSU-1, de Zimmerman. En los extremos del ala dos grandes hélices tractoras despegaban el aparato colocado en ángulo de 45° y el aterrizaje se efectuaba en un espacio muy limitado, lo que permitía su utilización sobre las cubiertas de los buques. Fue rescindido el contrato de construcción en serie debido a la precaria estabilidad en el aterrizaje, defecto que, como indicamos, es inherente a este grupo.

Los aparatos del grupo segundo, subgrupo b), se reducen en general a aviones clásicos en los que, bien los motores, bien las alas, pueden bascular en 90° para lograr la posición vertical de las hélices.

Entre éstos pueden citarse el Bell XV-3, monoplano bimotor con dos rotores de 7 metros de diámetro en los extremos de las alas, cuyos ejes giran a la posición vertical para el despegue y a la horizontal para la propulsión. En el Bell-VTOL, monoplano de ala alta del año 1955, son los turborreactores situados bajo el ala los que basculan.

Otro tipo interesante de convertiplano es el Hiller X-18 Propelloplane, de 18 toneladas, cuyos primeros vuelos se realizaron en 1958. El ala, que gira solidariamente con los propulsores, colocándose en posición vertical para el despegue y horizontal para el avance, soporta dos turborreactores provistos de hélices contrarrotativas.

Una disposición análoga presenta el Vertol 76, cuyo primer vuelo completo se llevó a cabo el 15 de julio de 1958. El Kaman 16-B es un aparato anfibio construido según las mismas directrices.

Fuente Consultada:
Enciclopedia Cultural UNIVERSITAS Tomo N°17 -Los Aviones Convertibles-

Biografia de Cavendish Trabajo Cientifico Vida y Obra

Enrique Cavendish nació en Niza (Francia), en 1731. A la edad de 11 años íue enviado a la escuela en Hackney (Londres). En 1749 pasó a Cambridge, pero salió de allí sin haber obtenido ningún título. Perteneció a la Royal Society desde 1760 y, a partir de ese año, se dedicó, por su cuenta, al estudio de las matemáticas y de la física. Seis años después publicó trabajos sobre las propiedades del hidrógeno y del ácido carbónico.

Enrique Cavendish

Gran científico británico nacido el 10 de octubre de 1731. No muy famoso, pero destacado porque fue el primero en medir la densidad y composición de la atmosfera terrestre. Analizó la densidad media del nuestro planeta, descubrió el gas argón, inventó el pendulo de torsión, y propuso la ley de atracción electrica entre cargas de distinto signo. LLegó a poner en riego su vida al realizar experimentos con corrientes elétricas. Tenía una vida muy excentrica, y gozaba de una excelente posición social y económica.

Al mismo tiempo, investigaba las propiedades del calor, llegando independientemente a los conceptos de calor latente y calor específico, pero nunca se atrevió a publicar los resultados de sus investigaciones. También descubrió el nitrógeno, describiendo sus propiedades más importantes.

La  mayor contribución  de Enrique  Cavendish a la ciencia fue el descubrimiento de la composición del agua. Debe recordarse que la teoría del flogisto desorientó a los químicos durante algún tiempo, y que él, como muchos de sus contemporáneos, la apoyó.

Primero realizó experimentos sobre la composición del aire, demostrando que era constante. Luego mezcló dos partes de aire inflamable (hidrógeno) con una de aire desflogisticado (oxígeno) en el interior de un globo de cristal, haciendo explotar la mezcla por medio de una chispa eléctrica.

Otros químicos de su tiempo no se habían fijado en el rocío o empañamiento que se produce en las paredes de cristal del globo después de esta explosión. Cavendish comprobó que el peso del globo no había variado. Comprendió que los gases se habían combinado, dando agua. Como no publicó sus investigaciones, se suscitó una controversia, puesto que algunos atribuían el descubrimiento a Jacobo Watt, el inventor de la máquina de vapor.

En conexión con este experimento, descubrió la composición del ácido nítrico. A veces, las gotas de condensación que quedaban en ‘ las paredes del recipiente eran ligeramente acidas, y, al analizarlas, comprobó que tenían ácido nítrico. Explicó este hecho mediante la hipótesis de que el ácido se formaba por combinación del nitrógeno con los otros dos gases. El nitrógeno se encontraba allí como impureza.

Esto pudo demostrarlo añadiendo más nitrógeno, con lo cual se formaba más ácido nítrico. En sus años postreros viajó por toda Inglaterra, tomando nota de las formaciones rocosas y del paisaje. Su último gran experimento fue el descubrimiento de la atracción gravitatoria entre los cuerpos, lo que equivale a pesar la Tierra, como es denominado en algunas oportunidades.

obra cientifica de cavendish

El globo de explosión (reacción) que Cavendish usó se llenaba con los gases y se pesaba de la manera mostrada. Entonces se hacía explotar la mezcla por medio de una chispa eléctrica. Averiguó que el peso no cambiaba y que los gases desaparecían, quedando unas gotas de agua condensada en  las  paredes del  globo.  Se  basó en este experimento   para    explicar   ta    composición    del    agua.

Ampliar Sobre El Peso de la Tierra de Cavendish

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos. El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros. La cantidad de metales que existen en la corteza terrestre es relativamente pequeña. Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos. Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral. Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas. La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %. Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—. Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado. Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero. El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.   El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

METALURGIA: El campo de acción que abarca la metalurgia es verdaderamente amplio. Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características. En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales). El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre. Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

Minerales de Hierro

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado. En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado. Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente. Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición. Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente. Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente. Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos. En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables. Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza. El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación. Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada. Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación. También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.
El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia. Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable. Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción. También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta. Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos. Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales. La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia. La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año. En el- futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Cuadro sinoptico del Universo, Sistema Solar, Planetas y Galaxias

SINTESIS EN UN CUADRO SOBRE EL SISTEMA SOLAR

Nuestro sistema solar que está contenido en la galaxia llamada Vía Láctea, está conformado por el Sol y ocho planetas que gravitan a su alrededor. Los planetas siguen órbitas que, casi en su totalidad, están situadas en el mismo plano; y todos se desplazan en torno al Sol en el mismo sentido.

El tiempo que tardan en dar una vuelta constituye el año de cada planeta: Mercurio, el más cercano, demora tres meses terrestres. Además de los planetas, entre Marte y Júpiter circulan cuerpos pequeños, bloques de rocas cuyo diámetro no suele pasar los pocos kilómetros. Se cree que estos asteroides son los restos de un planeta que, o bien se fragmentó, o no llegó a formarse jamás.

Ampliar Sobre la Evolución del Universo

cuadro sinoptico universo

Diferentes clases de astros
Los astros se pueden dividir en cuatro tipos: a) ios que poseen luz propia, como el Sol, las estrellas, las nebulosas de emisión y algunos cometas: b) los que brillan con luz reflejada, como la Luna, los planetas, satélites, asteroides, ciertos cometas y ciertas nebulosas: c) los que no emiten luz alguna, como las nebulosas obscuras, cuya existencia se conoce en virtud de que impiden pasar la luz de los astros situados detrás de ellas; y d) las estrellas fugaces y bólidos, que lucen porque al entrar velozmente en nuestra atmósfera se tornan incandescentes al rozar con los gases de ésta.

Los movimientos aparentes de los astros difieren según los casos.

Las estrellas, los conglomerados, las nebulosas y las galaxias, describen un círculo completo alrededor de la Tierra en 24 ñoras menos cuatro minutos.

Los planetas tienen un movimiento aparente complejo. Se clasifican eñ interiores o exteriores según sea que su órbita esté, respectivamente, dentro o fuera de la que sigue la Tierra. Los planetas interiores, Mercurio y Venus, siguen una ruta cercana al astro mayor y sólo son visibles antes de orto o salida de éste, y después de su ocaso o puesta. Vistos a través del telescopio los planetas interiores presentan fases porque,estando sus órbitas dentro de la terrestre, su disco se ve más o menos iluminado por el Sol. Cuando se hallan a la mayor distancia aparente del Sol -máxima elongación- tienen la mitad del disco iluminado.

La elongación puede ser oriental u occidental, de acuerdo a cómo están situados respecto del Sol. Los planetas exteriores se ven de noche y, por lo común, viajan aparentemente de O a E a través de las estrellas, pero, según los movimientos combinados de cada planeta y la Tierra, hay un momento en que parece que se detienen: están esfa-cionarios; acto seguido cambian de rumbo y se dirigen de E a O, hasta llegar a otro punto donde permanecen de nuevo estacionarios, para continuar posteriormente con su marcha normal. Entre dos posiciones estacionarias llegan a la oposición, en que se sitúan en la línea Sol, Tierra y planeta. Si la disposición es planeta, Sol y Tierra, se dice que el planeta está en conjunción (con el Sol interpuesto). Los planetas se mueven dentro del Zodíaco, que es una faja de 8o de anchura a cada lado de la eclíptica.

Mapa de la Luna Superficie de La Luna Crateres Mares y Montañas

¿Por qué vemos más de la mitad de la superficie lunar? Hoy, esta y otras preguntas relativas al movimiento de nuestro satélite ya tienen respuesta. Sin embargo, a pesar de que la Luna es el objeto celeste más  próximo a nosotros, calcular su órbita todavía es difícil: se han descubierto más de 37.000 factores que influyen en sus movimientos.

Hace millones de años la Luna estuvo bombardeada por distintos cuerpos celestes, como asteroides y  cometas, dejando una superficie característica , totalmente “rugosa y ondulada”, formada por miles de cráteres que pueden observarse a simple vista. Inicialmente fueron grandes cuerpos, mientras que en una segunda etapa,  los cuerpos que impactaban fueron mas pequeños, provocando cráteres mas chicos, y todo esto ocurrió hace unos 3800 millones de años aproximadamente.

 El análisis de impactos responde al nuevo catálogo de alta resolución de los cráteres lunares de 20 metros de diámetro o superior -que son 5.185 en total- que se ha hecho gracias a los datos tomados por el altímetro de la sonda espacial de la NASA Lunar Reconnaissance Orbiter (LRO). China también está desde hace pocos años en un proyecto para fotografiar, estudiar y armar un meticuloso y fiel plano de la superficie lunar, por lo que ha enviado una nave que orbita la Luna consiguiendo imágenes en 3D. También estaría previsto enviar una nave no tripulada que alunizara.

Cráter Lunar

Cráter Lunar

INFORMACIÓN BÁSICA DE LA LUNA:
Durante e una órbita de la Luna alrededor de la Tierra, la distancia que separa ambos cuerpos celestes puede variar muchísimo: hasta 1/8 del valor medio. A la distancia máxima de la Tierra, el diámetro aparente de la Luna es aproximadamente 9/10 del que nos muestra cuando se encuentra a la distancia mínima.

Tampoco el perigeo y el apogeo son fijos. A pesar de que se trata del objeto celeste más cercano a la Tierra, calcular el movimiento de la Luna es una tarea difícil. Este tipo de medidas se refiere . siempre a los centros de los dos cuerpos celestes y no a sus superficies.

Deben considerarse también las perturbaciones debidas a la atracción gravitatoria del Sol, al abultamiento ecuatorial de la Tierra y a la influencia de los planetas. Además, la magnitud de las perturbaciones provocadas por todos estos cuerpos varía continuamente, ya que también varían las posiciones de cada uno de ellos en el sistema solar.

Las técnicas más modernas para medir la distancia Tierra-Luna se basan en el empleo del láser. Se envía un rayo láser a la Luna, el cual, por reflexión, vuelve a la Tierra. Sabiendo la velocidad del rayo enviado y calculando el tiempo que emplea en cubrir el recorrido de ida y vuelta, es posible obtener, con una diferencia muy pequeña (pocos centímetros), el valor que se busca. L; teoría que predice el comportamiento de la órbita lunar tiene en cuenta muchos factores periódicos, algunos de los cuales apenas modifican el valor en 2 cm.

Sin embargo, la precisión que se obtiene con el láser obliga a los astrónomos a tener presentes incluso las variables más pequeñas.

IMPORTANCIA DE LA DISTANCIA TIERRA-LUNA
Esta medida no sólo permite verificar nuestras teorías sobre el movimiento lunar, sino también conocer exactamente la distancia Tierra-Luna. Esta información es importante porque influye sobre otros fenómenos. Las mismas teorías sobre el material que forma el interior de la Luna dependen en parte de tales valores.

Gracias a esta medida, es posible obtener en un tiempo muy breve indicaciones exactas sobre la disminución de velocidad (no regular) de la rotación terrestre. La distancia de la Luna a k Tierra interviene también en la medición de la deriva de los continentes, cuyos desplazamientos pueden ser de algunos centímetros por año.

LA ÓRBITA LUNAR
El tiempo que emplea la Luna en efectuar una órbita completa merece un discurso especial: a pesar de que gira alrededor de la Tierra, ésta no está inmóvil en el espacio, sino que, a su vez, gira alrededor del Sol. Respecto a las estrellas que son fijas, un mes lunar dura 27,32 días (mes sideral), pero el tiempo que tarda la Luna en volver a la misma fase respecto a la Tierra es diferente, ya que interviene el movimiento de ambos cuerpos. Este intervalo, llamado mes sinódico, equivale a 29,5 días.

El plano de la órbita lunar no coincide con el terrestre (eclíptica), sino que está inclinado unos 5° 19′. Esto es importante porque gracias a la existencia de un ángulo entre los dos planos no se producen cada mes eclipses en la superficie terrestre.

Con el tiempo, los nodos -puntos de intersección de los dos planos- se mueven con un desplazamiento de 19° por año. También la línea de los ápsides -la que une el perigeo con el apogeo- se mueve, aunque en dirección opuesta. El período de este último movimiento es de 8,85 años.

ROTACIÓN Y TRASLACIÓN
Como ya se ha indicado en otras ocasiones, el movimiento de rotación y el de traslación están sincronizados, es decir, la Luna tarda el mismo tiempo en efectuar una rotación completa alrededor de su propio eje que en girar alrededor de la Tierra. Esto se debe a la fuerza gravitatoria terrestre, que, a lo largo del tiempo, ha hecho disminuir la velocidad inicial de la rotación lunar.

Una consecuencia interesante de ello es que los movimientos del Sol en el firmamento de la Luna son muy lentos: basta decir que el Sol permanece sobre el horizonte durantes 354 horas consecutivas y que el disco solar tarda mas de una hora en emerger completamente. En una semana, el Sol asciende desde el horizonte hasta el punto mas alto del firmamento, y en otra llega a la puesta. El eje de rotación de la Luna está poco inclinado respecto al plano de la órbita y, por lo tanto las variaciones estacionales son mínimas.

ALGO MAS SOBRE LA SUPERFICIE LUNAR…

Un paisaje totalmente desolado, más severo y más áspero que cualquier escenario terrestre, daría la bienvenida a un visitante de la Luna. Elevadas cadenas de montañas., imponentes picos dentados de más de 10.000 metros de altura se alzan sobre una superficie marcada con profundas hendiduras e innumerables cráteres, cubierta por una delgada capa de polvo de ceniza.

Uno de los caracteres más distintivos de la superficie lunar son los cráteres. Éstos varían de tamaño, desde pequeños hoyos hasta enormes depresiones de más de ICO Km. de ancho. Algunos están cercados por empinadas paredes que se elevan quizá a 5.000 metros sobre el piso del cráter y algunos kilómetros sobre la superficie genera! del “terreno”. Otros son depresiones poco profundas con paredes de sólo algunos cientos de metros de altura. Muchos tienen pisos a nivel, pero en otros casos se puede ver en el centro un pico solitario.

El origen de los cráteres ha sido motivo de gran número de discusiones. Dos hipótesis principales se formularon a este respecto: la que los atribuía a un origen volcánico, y la que los explicaba como debidos a grandes colisiones de cuerpos, tales como meteoritos, contra la superficie lunar.

La teoría volcánica adquirió bastante crédito antes de que los científicos comprobaran que era un hecho cierto la caída de meteoritos sobre la Tierra; fue necesaria une larga discusión, que se prolongó durante un siglo, antes de que todos los astrónomos aceptaran que la mayoría de los cráteres eran debidos a choques. De hecho, como luego pudo demostrarse, se pueden también hallar sobre la superficie de la Tierra cráteres formados de un modo semejante.

Uno de los más famosos, el cráter Meteoro, en Arizona, tiene 1.200 metros de ancho y 150 metros de profundidad. La razón de que la Tierra no esté marcada con cráteres, como la Luna, es porque el agua, el viento, y el hielo, han borrado en el trascurso del tiempo todas las huellas, excepto las de los cráteres más recientes.

Pero en la Luna no hay erosión alguna (ya que allí no existen el viento, el agua y el hielo), de modo que se guarda cuidadosamente la evidencia acumulativa de muchos millones de años de castigo meteorice Esta falta de erosión explica también la aspereza del paisaje. Actualmente se reconoce que existen también pequeños cráteres que no pueden ser debidos a choques y, por lo tanto, deben ser de origen volcánico, aun cuando su forma no es la de los volcanes terrestres. En este sentido, se plantea la cuestión de si la Luna se encontró en algún momento en forma de una masa fundida, a alta temperatura, o bien se formó a más baja temperatura a partir de materiales sólidos. Todos los indicios, resultantes de consideraciones de distintos tipos, parecen indicar que la Luna ha debido formarse a baja temperatura, si bien, desde luego, es posible que presente actualmente un interior parcialmente fundido.

La fuente de calor quizá no es su origen residual primitivo; al igual que actualmente se acepta para el origen de los volcanes terrestres, se puede derivar de acumulaciones de materiales radiactivos.

Otra interesante característica del paisaje luna-está constituida por la presencia de grandes áreas oscuras, que los primeros astrónomos creyeron que eran mares. Aunque actualmente se sabe que no son mares (no hay agua líquida en la Luna), continúan utilizándose los nombres antiguos. Un “mar” lunar es una especie de planicie seca situada a cierta distancia por debajo del nivel medio de la superficie. Así, por ejemplo, el océano de las Tormentas, que se sitúa totalmente a la izquierda en la fotografía de la superficie lunar. Un poco más al centro, en la parte superior, se halla el mar de las Lluvias (“Mare imbricum”), con la bahía o golfo de los Iris, de forma semicircular, en su parte superior.

En la parte de abajo, el mar de los Nublados. El astrónomo Gilbert, estadounidense, fue el primero que estudió con gran detalle las características de la imponente colisión que dio lugar a la formación de uno de estos mares, la que se ha denominado “colisión imbria”, por haber originado el mar de las Lluvias. Según todos los indicios, un enorme bólido, con un diámetro de más de 150 Km., incidió sobre la región del golfo de los Iris, procedente del noroeste, elevando una inmensa ola en todas las direcciones de la superficie lunar, pero especialmente en la dirección de su movimiento, esto es hacia el centro del disco visible de la Luna. La energía liberada por la colisión debió ser fabulosa.

Se estima que sería del orden de unos cien millones de veces superior a la de los mayores terremotos conocidos en la Tierra o, si se prefiere una medida más “actual”, ¡del orden de cerca de un billón de bombas atómicas! Un choque de esta magnitud debió producir efectos muy notables. La región afectada se pulverizaría hasta el grado de arena fina, una parte de la cual pudo extenderse sobre un área considerable. Grandes trozos de materia de la superficie lunar y del mismo meteorito fueron probablemente lanzados en alto para caer después en grandes bloques, formando varias masas montañosas. Trozos más pequeños, animados de grandes velocidades, produjeron surcos y estrías en la superficie, que se extienden a grandes distancias del área del choque.

En otras ocasiones la energía desarrollada por la colisión pudo originar la fusión de una parte del material, dando lugar a la formación de las corrientes de lava que parece ser la sustancia principal de algunos de los mares. Este tipo de fenómenos se especula que pudieron ocurrir durante un período del orden de un millón de años, hace unos 4.500 millones de años. Posteriormente, los cuerpos que cayeron sobre la Luna fueron más pequeños, produciendo cráteres menores.

Fuente Consultada: El Universo Enciclopedia de la Astronomía y del Espacio Tomo 3 – Movimientos y Fases de la Luna

Escala del Sistema Solar
Distancia a las Estrellas
La Vía Láctea
Más Allá de la Vía Láctea
Características del Módulo Lunar
La Fases De La Luna
El Hombre Llegó a la Luna
Lugares de Alunizajes

El planeta sedna, Características y datos, Distancia y medidas

OPINION CIENTIFICA –1

Sedna: el décimo planeta en el Sistema Solar

Aunque es más pequeño que Plutón, es el cuerpo más grande en órbita alrededor del Sol identificado desde el descubrimiento de Plutón, en 1930. Existe discusión entre los astrónomos si, por su pequeño tamaño, tendrá o no status de planeta…o será solamente un planetoide.

planeta sedna

Planeta Sedna, N°:10 del sistema solar

Mercurio, Venus, Tierra, Marte, Júpiter, Saturno, Urano, Neptuno, Plutón… ¡y Sedna!… Sí, porque entre los astrónomos ya se hizo oficial el descubrimiento del décimo planeta del Sistema Solar, el cuerpo celeste más lejano al Sol y de un tamaño muy similar a Plutón.

Está tan lejos del Sol que es el más frío del Sistema Solar. De hecho, su temperatura nunca sobrepasa los -240º C. Pero es el cuerpo celeste más importante y más grande en órbita alrededor del Sol identificado desde el descubrimiento de Plutón, en 1930.

¿Cómo se hizo posible la confirmación de este nuevo planeta?… El equipo encabezado por el investigador Mike Browne, del California Institute of Technology (Caltech) lo detectó por primera vez el 14 de noviembre del 2003, con la ayuda del telescopio Samuel Oschin, en el Observatorio Palomar de Caltech, cerca de San Diego, en California. Con el correr de los días, los telescopios de Chile, España, Arizona y Hawai confirmaron la existencia de Sedna. También lo hizo el nuevo telescopio infrarrojo espacial Spitzer, de la NASA.

Michael Brown dijo que era tanta la distancia de Sedna con respecto al sol, que desde el nuevo planeta se podría tapar el sol con la cabeza de un alfiler.

Más acerca de Sedna

Este nuevo planeta fue bautizado como Sedna en honor a la diosa del mar entre los pueblos inuit, habitantes esquimales del Norte de Canadá y Groenlandia, dama de las profundidades del mar y de las emociones humanas.

Según el pueblo inuit, la diosa Sedna dio origen a las criaturas marinas desde una cueva congelada que ocupa en el fondo del océano.

Sedna se encuentra aproximadamente a 12.800 millones de kilómetros de la Tierra y su tamaño parece ser tres cuartas partes el de Plutón. Es seis veces más pequeño que la Tierra.

Posee un diámetro de unos 2.000 kilómetros y una superficie recubierta de hielo y roca, y debido a su dimensión pequeña, algunos científicos expresaron sus dudas a que pueda ser considerado un planeta más. Y es que – dicen – tal vez sería más correcto hablar de un “planetoide”.

Sedna es más rojo que cualquier otro cuerpo del Sistema Solar, con la excepción de Marte, y sigue una órbita muy elíptica, que en su punto más alejado lo sitúa a unos 135.000 millones de kilómetros del Sol, una distancia equivalente a 900 veces la existente entre el Sol y nuestro planeta, por lo cual tarda 10.500 años terrestres! en completar una sola órbita.

Para tener una idea, Plutón, el noveno planeta del Sistema Solar, y hasta ahora el último, tiene un diámetro de dos mil kilómetros y se encuentra a 6 mil millones de kilómetros de la Tierra.

Los primeros cálculos sugieren que Sedna se encuentra ubicado exactamente en una región del espacio llamada Cinturón de Kuiper. Éste posee cientos de objetos conocidos y los astrónomos creen que aún existen muchos otros esperando ser encontrados.

La mayoría son pequeños mundos de roca y hielo, aunque algunos también podrían ser tanto o más grandes que Plutón. La importancia de Sedna radica específicamente en que es el primero de este tipo de mundos que mantiene una órbita regular, ya que otros objetos similares son menos estables.

¿Qué viene ahora?…Intentar determinar si Sedna posee algún grado de atmósfera. Además, los científicos usarán el Hubble para descubrir por qué posee el tono rojizo más brillante después de Marte.

OPINION CIENTIFICA -2-

Sedna no es el décimo planeta del sistema solar. Numerosos medios de comunicación han cometido varios errores a la hora de describir el último descubrimiento de la NASA.

Entre otras cosas Sedna, un planetoide descubierto por astrónomos del Instituto Tecnológico de California ( Caltech) en cooperación con la NASA, no es un planeta ni tampoco, como se ha dicho, forma parte del cinturón de Kuiper.

El mismo equipo descubrió hace unos días otro planetoide, denominado 2004DW , y este si que forma parte del cinturón de Kuiper. De hecho, por su tamaño de 1600 km de diámetro, su descubrimiento habría sido una gran noticia sino fuera porque Sedna, a pesar de ser de un tamaño similar , tiene la particularidad de ser el primer planetoide situado más allá del cinturón de Kuiper, en una zona que hasta ahora era sólo intuida por la teoría y que se conoce como Nube de Oort.

Sedna está a más del doble de distancia que los objetos más lejanos de nuestro sistema conocidos hasta ahora y tres veces más lejos que Plutón. Por eso es noticia.

En nuestro sistema conocemos el cinturón de asteroides que se encuentra entre Marte y Júpiter, y un cinturón similar llamado Cinturón de Kuiper que se encuentra más allá de Plutón. De echo muchos astrónomos consideran que Plutón no es en realidad un planeta sino uno de los objetos que forman el Cinturón de Kuiper, ya que su tamaño es relativamente pequeño, su órbita es demasiado inclinada y a diferencia de los demás planetas sigue una trayectoría que hace que en ocasiones no sea el más alejado de la Tierra. Sedna es aún más pequeño que Plutón, su órbita también es muy inclinada, y su trayectoria es tan parabólica que sólo lo hemos detectado por casualidad, ya que dentro de unos 70 años volverá a alejarse de nuevo para no regresar y ser visible en las mismas condiciones en los próximos 10,500 años.

Ningún astrónomo calificaría a Sedna como planeta, y muchos dudan que Plutón lo sea, así que difícilmente se puede afirmar que Sedna es el décimo planeta de nuestro sistema. Se trata sólo de una exageración periodística.

Algunos Datos Sobre el Sistema Solar…

– El Sistema Solar está formado por una estrella central, el Sol, los cuerpos que le acompañan y el espacio que queda entre ellos.

– El Sol contiene el 99.85% de toda la materia en el Sistema Solar. Los planetas, los cuales están condensados del mismo material del que está formado el Sol, contienen sólo el 0.135% de la masa del sistema solar.

– Júpiter contiene más de dos veces la materia de todos los otros planetas juntos. Los satélites de los planetas, cometas, asteroides, meteoroides y el medio interplanetario constituyen el restante 0.015%.

– Los planetas terrestres son los cuatro más internos en el Sistema Solar: Mercurio, Venus, Tierra y Marte. Éstos son llamados terrestres porque tienen una superficie rocosa compacta, como la de la Tierra.

– Los planetas Venus, Tierra y Marte tienen atmósferas significantes, mientras que Mercurio casi no tiene.

– A Júpiter, Saturno, Urano y Neptuno se les conoce como los planetas Jovianos (relativos a Júpiter), puesto que son gigantescos comparados con la Tierra, y tienen naturaleza gaseosa como la de Júpiter. También son llamados los gigantes de gas, sin embargo, algunos de ellos tienen el centro sólido.

– Los asteroides son rocas más pequeñas que también giran, la mayoría entre Marte y Júpiter. Además, están los cometas que se acercan y se alejan mucho del Sol. Por su parte, los meteoritos son fragmentos de tierra extraterrestre que se encienden y se desintegran cuando entran a la atmósfera.

Propergoles Combustibles para cohetes Tipos y Componentes

Las aeronaves que operan dentro de la atmósfera utilizan considerablemente el aire, puesto que lo necesitan como sustentación para sus alas, queman el combustible con su oxígeno y, si poseen hélices, requieren aire a cierta presión para que éstas puedan “aferrarse”.

Como por encima de la atmósfera terrestre hay tan pocas moléculas de gas, los métodos convencionales de propulsión resultan insuficientes, al par que la falta de oxígeno obliga a que las aeronaves lleven consigo su provisión de él, ya sea en forma del elemento propiamente dicho, en estado líquido, o en la forma de algún compuesto oxidante.

Se han inventado varios tipos de combustibles y de fuentes de oxígeno para la propulsión de cohetes y otros vehículos espaciales, pero el principio fundamental de toda propulsión de cohete es el mismo en todos los casos, o sea, el principio de acción y reacción de la dinámica.

Al quemarse el combustible, ya sea sólido o líquido, crea enormes cantidades de gases calientes, que se encuentran a gran presión, debido al reducido tamaño de la cámara de combustión. Los gases que escapan por la parte de atrás del motor proveen el empuje necesario para impulsarlo hacia adelante. Los estadounidenses parecen preferir los propergoles líquidos. Entre las combinaciones que han utilizado con buen éxito está la de hidrógeno y oxígeno líquido, que al combinarse producen vapor. También emplearon el oxígeno líquido como oxidante de-combustibles tales como el queroseno y el amoníaco.

La combustión del queroseno produce vapor y bióxido de carbono. Como alternativa, en lugar de oxigeno han usado a veces el peróxido de hidrógeno (agua oxigenada), que se descompone en oxígeno y vapor. En otros cohetes, la combinación era dimetil-hidrazina, oxidada mediante ácido nítrico.

Cuando se emplean propergoles líquidos, el combustible y el oxidante deben ser mantenidos en recipientes separados. Los propergoles sólidos, por el contrario, deben ser mezclados antes de formar las “tortas” de combustible compacto. Los ingredientes típicos de una de esas tortas pueden .ser: perclorato de aluminio (agente oxidante), el ácido acrílico polibutadieno y polvo de aluminio (combustible), más un agente que tiene la función de endurecer la torta luego que ésta ha sido formada en el molde.

Las proporciones de agente oxidante y combustible se disponen de manera que siempre haya un ligero exceso de agente oxidante. Para esto hay dos razones: si la cantidad de agente oxidante es apenas la justa para la combustión completa, existe un serio riesgo de explosión, y, además, el aumento de presión que sufre el agente oxidante excedente, debido al calor de la combustión, se añade al aumento total de presión dentro de la cámara de combustión del motor cohete.

DISTINTAS FUENTES DE ENERGÍA PROPULSORA
Se obtiene el máximo aprovechamiento de la energía disponible por el combustible de un cohete, cuando la velocidad de salida de los gases de la combustión iguala a la velocidad con que el cohete se mueve hacia adelante. Por ello resulta conveniente comunicarle la energía inicial mediante algún medio exterior, tal como podría ser un poderoso motor, que le proporciona la energía de movimiento, o cinética, requerida para que su velocidad alcance un valor aproximado al de salida de los gases de combustión.

El principio de acción y reacción, en el cual se fundamenta la propulsión de cohetes, puede aplicarse no sólo con combustibles sólidos o líquidos convencionales, sino que podríanlos pensar en energía obtenible de distintos modos. En efecto, sabemos que cargas eléctricas, colocadas en un punto del espacio donde exista un campo eléctrico, experimentan fuerzas de naturaleza eléctrica. En los aceleradores modernos de partículas cargadas se obtienen valores elevados de la velocidad de las mismas. Éste sería un método apropiado para obtener la energía necesaria para la impulsión del cohete.

Las partículas podrían ser aceleradas mediante poderosos campos eléctricos. Dado que la materia es una dura concentración de energía, tal como surge de la teoría de la relatividad de la física moderna, fácil es ver que un combustible como éste ocuparía poco espacio, pero en cambio serían indispensables complejos aparatos construidos por la tecnología más avanzada.

Los cohetes de propergol sólido fueron conocidos desde hace mucho tiempo, pero sólo se volvieron a emplear hace muy pocos años. Ello se debió a la simplicidad del sistema y a la facilidad de almacenamiento. Los trabajos de investigación con combustibles sólidos son, en la actualidad, constantes.

cohete propergoles En los Estados Unidos se ha desarrollado, en la década de los 70, un combustible sólido que tiene la consistencia del caucho. Es el thiokol, que se fabrica en base a un derivado del caucho sintético líquido, mezclado con un oxidante sólido. El rendimiento potencial de un combustible depende de la eficacia de la oxidación.

Una idea de la bondad del combustible la da el impulso específico. Utilizando ácido nítrico como oxidante y anilina como combustible, se obtiene un empuje específico de 221, mientras que empleando oxígeno como oxidante y alcohol etílico como combustible, se obtiene un empuje específico de 242.

La fluorina como oxidante y el amoníaco como combustible dan una mezcla combustible de empuje específico igual a 288. El ozono y el hidrógeno, como oxidante y combustible respectivamente, dan una mezcla de empuje específico igual a 369.

La fluorina es uno de los agentes oxidantes más eficaces que se conocen. Es muy probable, con todo, que se mantenga, secreto el conocimiento de algún oxidante de rendimiento superior del tipo del ozono. La fluorina da un buen rendimiento oxidante, sobre todo con fluorita, pero el costo de esta mezcla es actualmente muy elevado. El ozono tiene un mayor poder oxidante que la fluorina, pero ofrece el inconveniente de que en estado puro manifiesta una marcada tendencia a descomponerse explosivamente.

El trimetilo es un compuesto de aluminio, fluido y de poder inflamable sumamente elevado. Su combustión es espontánea al ponerse en contacto con el aire. Su aplicación a la propulsión de cohetes no se halla desarrollada; mas puede constituir un elemento útil para el futuro.

Una fuente de energía hasta ahora prácticamente desconocida está en los radicales libres, que no son más que fragmentos moleculares libres de carga eléctrica, que se forman durante una reacción exotérmica. Las regiones superiores de la atmósfera terrestre son una fuente prácticamente inagotable de estos radicales libres, los cuales son originados por la radiación solar. Los radicales libres son el resultado de un proceso en que absorben energía. Luego pueden suministrar esa energía para la propulsión.

Recientemente se han realizado varios trabajos de experimentación e investigación. La tendencia de esos trabajos es la de aislar, los radicales libres para aprovecharlos como combustibles. Han sido aislados los radicales libres del vapor de agua, del amoníaco, del hidrógeno y del nitrógeno.

El empuje específico de los combustibles basados en los radicales libres resulta muy superior al de los elementos normales. Así, por ejemplo, en el caso del hidrógeno, si se fabrica un combustible con hidrógeno bajo la forma de radical libre, se obtiene un combustible cuyo empuje específico es cinco a seis veces superior al de los convencionales. De este modo, un cohete, propulsado con combustibles basados en los radicales libres, tendrá un alcance de unas treinta veces el del tipo común. No obstante estas ventajas de los radicales libres, en cuanto a concentración de energía, no han salido del campo teórico, debido a que es necesaria la solución de otros problemas muy complicados, tales como producción grande y barata, almacenamiento, control y estabilidad.

Empleando el radical de amoníaco con el hidrógeno líquido, se eleva a 7 u 8 veces el alcance de los cohetes comunes. La propulsión iónica es sin duda el medio más adecuado para impulsar las naves espaciales. En este procedimiento, la fuente de iones apropiados es el cesio.

Los iones de este elemento, acelerados en una superficie incandescente de tungsteno, y colocados bajo la acción de un potencial de unos 30.000 voltios, pueden alcanzar una velocidad de unos 220.000 m/seg., que es la requerida para que el impulso específico resulte elevado.

El berilio es un elemento que posee un elevado poder calorífico por unidad de peso, pero es muy tóxico, y se lo encuentra en la naturaleza en cantidades relativamente pequeñas. Por otro lado, el litio, que es un metal alcalino, y el boro, metaloide, permiten combinaciones con el hidrógeno, llamadas híbridos; estos son las bases esenciales de una gran parte de los supercombustibles empleados en la cohetería moderna. El boro no quema a temperaturas inferiores a los 700° C.

Los hídridos, tales como el de caborano, el pentaborano y el diborano, están destinados a reemplazar al carbono en sus combinaciones con el hidrógeno. El diborano es un gas tóxico, muy inestable en presencia de humedad o del aire. Los procesos tecnológicos requeridos para obtener combustibles basados en boro son en general complicados. En la práctica, se logra estabilizar los hídridos y eliminar su toxicidad, alcalinizándolos.

En Estados Unidos, el pentaborano alcalinizado es conocido bajo el nombre de Hi-Cal2 y Hef2, y el de caborano por Hi-Cal3 y Hef3. Estos combustibles son empleados en el desarrollo del avión cohete X-15.

Los combustibles que emplean borano en su composición química poseen un gran impulso específico, pero tienen una limitación. En efecto, sólo pueden usarse en los casos en que se dispone de aire.

Fuente Consultada: Historia de la Astronáutica – Ediciones Riego S.A.

Programas de Exploracion Espacial Cronología Las Misiones al espacio

Programas de Exploración Espacial
Cronología Las Misiones al Espacio

Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el Año Geofísico  Internacional , pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958.

Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960.

A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Tabla siguiente es un resumen de los principales programas de exploración del espacio:

Nombre País Fechas Logros Miembros
Sputnik URSS 1957-1958 Primer
Satélite
Valery Byskovsky.Yuri Gagarin, Adrián
Nikolayaev, Pavel Popovitch, Valentina
Tereshkova, GhermanTitov
Malcolm Scott Carpenter, L. Gordon
Cooper
.John Glenn,Virgil Grissom,
Walter Schirra, Alan Shepard
Explorer EE.UU. 1958-1984 Experimentos
Científicos
Pionner EE.UU. 1958 Investigación
de la Luna
Lunik URSS 1959 Aterrizaje
en la Luna
Vostok URSS 1961-1963 Primer Vuelo
Tripulado
Mercury EE.UU. 1961-1963 Americanos en el Espacio
Venera URSS 1961-1983 Investigaciones
de Venus
Ranger EE.UU. 1961-1965 Alunizajes
Mariner EE.UU. 1962-1974 Mercurio, Venus
y Marte
OSO EE.UU. 1962 Estudio Solar
Mars URSS 1962-1971 Investigación
de Marte
Pavel Belyayev, Konstantin Feoktistov,Vladimir
Komarov, Alexei Leonov, BorisYegorov
Edwin Aldrin, Neil Armstrong, Frank
Borman, Eugene Cernan, Michael Collins,
Charles Conrad, L Gordon Cooper.Virgil
Grissom, James Lovell, James McDivitt,
Walter Schirra, David Scott, Thomas
Stafford, Edward White, John Young
Vokshod URSS 1964-1965 Vuelos espacial con tres tripulantes
Géminis EE.UU. 1964-1966 Prueba de Vuelos Lunares
Luna URSS 1966 Fotografía
Lunar
Luna Orbiter EE.UU. 1966-1967 Cámara en
órbita lunar
Adwin Aldrin, William Anders, Neil Armstrong,
Alan Bean, Frank Borman, Eugene Cernan,
Michael Collins, Charles Conrad, Walter
Cunningham, Charles Duke, Don Eisle,
Richard Gordon, Fred Haise, James Irwin,
James Lovell, Edgar Mitchell, Stuart Roosa,
Walter Schirra, Harrison Schmitt, Rusell
Schweickart, David Scott, Thomas Stafford,
Jack Swigert,Alfred Worden, John Young
Surveyor EE.UU. 1966-1968 Robot Lunar
Apolo EE.UU. 1966-1975 El hombre llega
a la Luna
Soyuz URSS 1967-1986 Estación
Espacial
Vladimir Dzanibekov, Georgi Grechko, Alexei Gubarev, Pyotr Klimuk, Vladimir Remek,Yuri Romanenko, Víctor Savinykh, Svetlana Savitskaya.Vladimir Shatalov, Vitaly Stevastyanov, Vladimir Vasyutin, Vladimir Volkhov Alan Bean, Gerald Carr, Charles Conrad, Owen Garriott, Edward Gibsonjoseph Kerwinjack Lousma, William Pogue, Paul Weitz
Salyut URSS 1971-1986 Estación espacial tripulada
Skylab EE.UU. 1973-1974 Primera estación espacial americana
ATM EE.UU. 1973-1974 Estudio Solar
Apolo-Soyuz EE.UU./URSS 1975 Emprendimiento Internacional Vanee Brand, Valery Kubasov, Alexei Leonov, Donald Slayton,Thomas Stafford
Voyager EE.UU. 1977-1986 Estudio de Gigantes
de Gas
Valery Byskovsky.Yuri Gagarin, Adrián Nikolayaev, Pavel Popovitch,Valentina Tereshkova, GhermanTitov Malcolm Scott Carpenter, L. Gordon Cooper.John Glenn,Virgil Grissom, Walter Schirra,Alan Shepard
SMM EE.UU. 1980-1989 Estudio
Solar
Transbordador EE.UU. 1981-? Naves tripuladas de uso reiterado
Spacelab EE.UU./AEE 1983 Laboratorio espacial de uso reiterado
Vega URSS 1985 Estudio atmosférico de Venus y fotos del cometa Halley
Mir URSS 1986-? Estación
Espacial
Pavel Belyayev, Konstantin Feoktistov,Vladimir Komarov, Alexei Leonov, BorisYegorov Edwin Aldrin, Neil Armstrong, Frank Borman, Eugene Cernan, Michael Collins, Charles Conrad, L. Gordon Cooper.Virgil Grissom, James Lovell, James McDivitt, Walter Schirra, David Scott,Thomas Stafford, Edward White, John Young
Giotto AEE 1986
Susei Japón 1986
Buran URSS 1988
Fobos URSS 1988
Galileo EE.UU. 1992-?
Cassini EE.UU./AEE 1996

Historia de la astronautica: vuelos tripulados y no tripulados

VUELOS NO TRIPULADOS

Vostok I, Primer Vuelo Ruso

VOSTOK 1     URSS 12-4-1961 Yury A. Gagarin. Primer hombre en el espacio dando una vuelta alrededor de la Tierra.

VOSTOK 2     URSS 6-8-1961 Gherman 5. Titov. Segundo astronauta ruso que estuvo en órbita durante 25 horas.

FRIENDSHIP 7 EE.UU. 20-2-1962 John H. Glenn Jr. Primer astronauta americano en órbita alrededor de la Tierra.

VOSTOK 3     URSS 11-8-1962 Andrian G. Nikolayev. En órbita simultáneamente con el Vostok 4.

VOSTOK 4     URSS 12-8- 1962 Pavel R. Popovich. En órbita simultáneamente con el Vostok 3.

VOSTOK 6     URSS 16-6- 1963 Valentina V. Tereshkova. Primera mujer en el espacio.

VOSKHOD 1     URSS 12-10-1964 Vladimir M. Komarov, Konstantin P. Feoktistov y Boris B. Yegorov. Primera cápsula espacial con más de un astronauta a bordo.

GEMINI 4     URSS 18-3- 1965 Pavel Belyayev y Aleksey Leonov que realizó el primer paseo espacial.

VOSKHOD 2 EE.UU. 3-6- 1965 James A. McDivitt y Edward H. Whíte II. Primer paseo espacial realizado por los norteamericanos.

GEMINI 7     EE.UU. 4-12- 1965 Frank Borman y James A. Lowell Jr. Establecen un nuevo record de permanencia en el espacio al efectuar 206 vueltas alrededor de nuestro Planeta.

SOYUZ 1     URSS 23- 4-1967 Vladimir M. Komarov, sufre el primer accidente mortal en la carrera del espacio.

APOLLO 8     EE.UU. 21-12- 1968 Frank Borman, James Lowell Jr. y William Anders. Primer vuelo de una nave tripulada alrededor de la Luna.

APOLLO 11 EE.UU. 16-7-1969 Neil A. Armstrong, Edwin E. Aldrin Jr. y Michael Collins. Llegada del hombre a la Luna.

APOLLO 13 EE.UU. 11-4-1970 James A. Lowell Jr., Fred W. Haise Jr. y John L. Swigert Jr. Una explosión en el módulo de mando obliga a suspender el alunizaje y el regreso a la Tierra se hace en precarias condiciones.

APOLLO 15 EE.UU. 26-7-1971 David R. Scott, Alfred M. Worden y James B. Irwin. Los astronautas utilizan por segunda vez el vehículo todo terreno, permitiéndoles de este modo hacer una experiencia lunar más extensiva.

SKYLAB 1 EE.UU. 25-5-1973 Charles P. Conrad, Joseph P. Kerwin y Paul J. Weitz son la primera tripulación que habita en el laboratorio espacial.

SKYLAB 3 EE.UU. 16-11- 1973 Gerald Carr, Gibson y Pogue. 84 días de permanencia en el espacio.

APOLLO– EE.UU. 15-7-1975 Stafford, Slayton, Brand, Leonov y Kubasov.

SOYUZ     URSS Primer vueló conjunto soviético- norteamericano y primera cita espacial.

SOYUZ 29 URSS 15-6-1978 Vladimir Kovalyonok y Aleksandr Ivanchenkov permanecen más de 4 meses en el espacio (139 días).

Resumen de la Vida de las Estrellas Evolucion Estelar Vida y Muerte Estrella

Resumen de la Vida de las Estrellas y Su Evolución Estelar

LA VIDA DE UNA ESTRELLA

Las estrellas tienen una fuente interna de energía. Pero, al igual que todo tipo de combustible, sus reservas son limitadas. A medida que consumen su suministro de energía las estrellas van cambiando y cuando se les acaba, mueren. El tiempo de vida de las estrellas, aunque muy largo comparado con las escalas de tiempo humanas, es, por lo tanto, finito.

A medida que envejecen sufren profundos cambios en sus tamaños, colores y luminosidades, siempre como consecuencia de la disminución de sus reservas. Para aumentar su expectativa de vida, la estrella lucha continuamente contra la fuerza gravitatoria que intenta contraerla. Las distintas etapas evolutivas son sucesiones de contracciones que terminan cuando la estrella comienza a quemar otros combustibles que mantenía en reserva y logra establecer una nueva situación de equilibrio.

Galaxias y estrellas del universo

El factor más importante en el desarrollo de una estrella es su masa inicial. Las estrellas más masivas tienen mayores temperaturas centrales y, en consecuencia, producen energía y consumen combustible a un ritmo creciente. Este hecho fue determinado observacionalmente y se llama relación masa-luminosidad. Podría parecer que las estrellas más masivas, las que tienen más combustible, deberían tener vidas más largas. Pero en realidad sucede exactamente lo contrario. Al igual que con el dinero o la comida, la duración del combustible estelar depende tanto de la cantidad disponible como del ritmo de consumo. Por ejemplo, la vida del Sol será de 10 mil millones de años. Una estrella de masa 10 veces mayor tiene 10 veces más combustible, pero lo quema a un ritmo tan grande (de acuerdo a la relación masa-luminosidad) que termina de consumirlo en 30 millones de años. En el otro extremo, una estrella de 0,1 M0 brillará durante 3 billones de años antes de morir.

¿Cómo se mide la masa, esa propiedad fundamental que determina completamente la estructura y evolución de una estrella?

El único método de determinación directa de masas es el estudio del movimiento de estrellas binarias. Las estrellas dobles o binarias están muy próximas entre sí y cada estrella gira alrededor del centro de gravedad del par. Aplicando a estos sistemas las leyes de Newton es posible deducir su masa. Sin embargo, la masa de cada estrella del sistema se puede determinar sólo en el caso de que el sistema binario sea ecipsante (es decir cuando una de las estrellas eclipsa a la otra). Estas mediciones, aunque pocas en número, son interesantes porque a partir de ellas se han podido establecer algunos resultados que dieron la clave para comprender la evolución estelar.

Una manera indirecta de determinar la masa estelar es usando la relación masa-luminosidad que pudo ser establecida cuando se desarrolló una de las herramientas más poderosas con que cuentan los astrofísicos, el diagrama R-R que consideraremos a continuación.

Se han observado estrellas muy masivas, hasta 120 M0, pero ¿hay una masa mínima para las estrellas? La respuesta a esta pregunta está todavía en estudio. Las estrellas de menor masa observadas son Ross 614B, de 0,08 M0 y Luyten 726-8B con 0,04 M0, pero la mayoría de las estrellas tienen masas de entre 0,3 y3 M0.

EL DIAGRAMA H-R  

En el año 1911 el astrónomo danés E. Hertzsprung comparó la magnitud absoluta y la luminosidad de estrellas pertenecientes a varios cúmulos. Trazó la curva de variación de uno de estos parámetros en función del otro y observó que los puntos no estaban esparcidos al azar en el diagrama, sino que se distribuían a lo largo de una línea bien definida. En 1913, el astrónomo norteamericano H. Russell llegó a la misma conclusión con datos de otras estrellas. Mostró empíricamente la existencia de una relación entre la luminosidad y temperatura estelares. El diagranta resultante se llama diagrama Hertzprung-Russell (H-R), y está representado en la figura.

La posición de unaa estrella en el diagrama H-R depende de su estado de evolución, y por eso la estructura y la historia de nuestra galaxia se pueden estudiar con este instrumento básico. Así como los botánicos pueden estimar la edad de un árbol a partir de la cantidad de anillos de su tronco, los astrónomos encuentran en el H-R la herramienta que les permite estimar la edad de una estrella.

Diagrama estelar E. Hertzsprung

El diagrama Herzprung-Russell. Cada estrella se representa según su magnitud absoluta, que mide su brillo intrínseco, y su tipo espectral, que refleja su color y su temperatura. Esta última aumenta hacia la izquierda

Un examen en el diagrama H-R de las estrellas con distancias conocidas muestra que no están distribuidas al azar, sino que muchas (entre ellas el Sol) están agrupadas en una banda angosta sobre la diagonal, llamada secuencia principal. Otro grupo de estrellas, la rama de las gigantes, se extiende horizontalmente sobre la secuencia principal. Las estrellas con luminosidades mayores que las gigantes se llaman supergigantes, mientras las estrellas sobre la secuencia principal se llaman enanas.

Estudiando los sistemas binarios se pudo establecer que la luminosidad de una estrella de secuencia principal es proporcional a su masa elevada a la potencia 3,5. Es decir que una estrella 2 veces más masiva que el Sol será 11 veces más 1 luminosa. Esta relación masa-luminosidad es una forma de estimar la masa de una estrella que no pertenece a un sistema binario a partir de su luminosidad, con la condición de que pertenezca a la secuencia principal, lo que se puede determinar, como veremos, con criterios espectroscópicos.

Las cantidades fundamentales que definen este diagrama se pueden medir con distintos parámetros, dándole así distintas formas. El H-R clásico usa dos cantidades: el tipo espectral (que es una determinación cualitativa de la temperatura) y la magnitud absoluta.

El tipo espectral

La única fuente de información sobre la naturaleza de las atmósferas estelares es el análisis de su espectro, del que se pueden hacer dos tipos de aproximaciones: cuantitativas y cualitativas.

Como hemos visto en el capítulo anterior, el análisis cuantitativo pernúte determinar los parámetros físicos que describen la atmósfera estelar. El análisis cualitativo descansa en la simple observación de que los espectros pueden agruparse en familias: esta clasificación espectral considera sólo la apariencia del espectro en el visible. Según ella, las estrellas se ordenan en 7 clases principales (de acuerdo a su temperatura) a las que se designa con las letras O, B, A, F, G, K y M. Para tener en cuenta las diferencias de apariencia entre espectros de la misma clase fue necesario establecer una subdivisión decimal, y entonces el tipo espectral se representa por BO, B1, B2, …, B9, AO, A1…

La clasificación espectral se basa en la presencia o ausencia de líneas de ciertos elementos, lo que no refleja una composición química diferente de las atmósferas sino sólo las diferencias de temperatura atmosférica.

Así el H, que es el elemento más abundante del universo y del que todas las estrellas tienen casi la misma abundancia, predomina en las líneas espectrales de estrellas con temperaturas cercanas a lO.0000K, porque la excitación del átomo de H es máxima a esta temperatura. En las atmósferas de las estrellas más calientes, de tipo espectral o, el H está casi todo ionizado y entonces no produce un espectro significativo de líneas de absorción.

En las atmósferas de estrellas frías (por ejemplo de tipo espectral K) los átomos de H son neutros (no ionizados) y prácticamente todos están en el estado fundamental, no excitado. El espectro de líneas así producido pertenece principalmente al rango ultravioleta, no observable desde la Tierra, mientras que las líneas de H observadas en el visible son muy débiles.

Las estrellas de tipo o que son las más calientes, muestran en sus espectros líneas de He ionizado, pero no líneas de H. Yendo a tipo BO hasta AO la intensidad de las líneas de He también decrece cuando las condiciones de temperatura no son favorables y la de los metales (elementos más pesados que el He) crece para tipos espectrales correspondientes a temperaturas más bajas. En las estrellas más frías, las líneas de metales neutros se hacen más y más intensas y aparecen bandas características de moléculas.

Las clasificación en “gigantes” y “enanas”, tiene sentido sólo para un dado tipo espectral. Si se consideran dos estrellas del mismo tipo espectral, una de la secuencia principal y la otra de la rama de las gigantes, las dos muestran gran diferencia en luminosidad. Como son del mismo tipo espectral, tienen la misma temperatura.

La diferencia de luminosidad se origina entonces en la diferencia de tamaño. Comparemos, por ejemplo, dos estrellas de clase M. La luminosidad de la gigante es 10.000 veces mayor que la de la enana (o de secuencia principal). Por lo tanto su área superficial debe ser 10.000 veces mayor y entonces el radio de la gigante será 100 veces mayor que el de la enana. (La ley de Stefan-Boltzmann dice que:  L es proporcional a R2.T4).

Las estrellas que aparecen por debajo de la secuencia principal son las enanas blancas, cuyos radios son muy pequeños.

NACE UNA ESTRELLA

Como ya hemos dicho la vida estelar es una sucesión de contracciones. La primera gran contracción es la de la nube interestelar que crea la estrella. La cuna de las nuevas generaciones de estrellas en nuestra galaxia parece estar en las nubes interestelares de átomos y moléculas. La densidad promedio del medio interestelar en la galaxia es de cerca de un átomo por cm3. La formación de una estrella requiere una densidad 1024 veces mayor. El único mecanismo capaz de actuar a grandes distancias y de originar tal factor de compresión es la fuerza de la gravedad, que juega aquí un papel esencial. Por otro lado el movimiento térmico de las moléculas y el movimiento turbulento del gas interestelar producen una presión que impide una contracción abrupta impuesta por el campo gravitatorio.

Cuando la gravedad rompe este equilibrio se puede formar una estrella o un grupo de estrellas. En términos muy generales, esto sucede cuando la masa de la nube sobrepasa una cierta masa crítica. Una nube colapsará si, por ejemplo, su masa aumenta por colisiones con nubes más pequeñas, pero su temperatura promedio sólo aumenta ligeramente, o si la masa de una nube permanece constante, pero su temperatura disminuye, de manera que la presión no puede frenar el colapso. Estas dos situaciones podrían ocurrir simultáneamente. Los cálculos indican que en nubes con masas mayores que unas 2.000 M0 la gravedad gana sobre las fuerzas de presión. La nube se hace gravitatoriamente inestable y se contrae más y más rápido. Como la masa de una estrella típica es unas 1.000 veces menor, hay que concluir que la nube se fragmenta.

Los complejos moleculares gigantes muy fríos, con temperaturas de unos 10 a 90 0K, son los lugares reconocidos de formación estelar. Sus masas son muy grandes; alcanzan hasta 1.000.000 M0. El polvo de la nube oculta las nuevas estrellas al astrónomo óptico, pero éstas se pueden detectar en el infrarrojo.

Hay un tipo de nubes moleculares pequeñas, llamadas “glóbulos de Bok”, algunos de los cuales se han observado en contracción gravitatoria. Su velocidad de colapso es de aproximadamente medio km/seg, y su radio es del orden de 2 años luz. Si nada frena su colapso, estos glóbulos se condensaran en estrellas dentro de 1.000.000 años, lo cual, en términos de la vida total de la estrella, es un período muy breve.

Estos objetos aislados (que se ven como zonas negras contra el fondo de la Vía Láctea) ilustran los modelos teóricos de formación estelar. La región central, altamente comprimida y mucho más densa que la periferia, atrae a la materia que la rodea. La temperatura aumenta progresivamente y la presión se hace suficientemente alta como para parar momentáneamente el colapso del núcleo.

Poco a poco toda la materia en la envoltura cae hacia la protoestrella. Cuando su temperatura pasa los 10 millones de °K, comienzan las reacciones termonucleares, es decir el autoabastecimiento de energía. En este momento la estrella entra en la secuencia principal y comienza su vida normal. En las galaxias espirales, como la nuestra, las estrellas se forman en los brazos espirales, donde se encuentran el polvo y el gas interestelares.

La observación de estrellas en formación o estrellas muy jóvenes junto con su ambiente provee importantes contribuciones a la teoría de formación estelar. En el esquema presentado la formación de estrellas está directamente relacionada a la evolución de las nubes moleculares, pero aunque es el caso más estudiado, no es el único. Una forma de aprender más sobre formación estelar es investigar galaxias vecinas.

La formación estelar en la Gran Nube de Magallanes presenta algunos problemas para este esquema: en una región llamada 30 Dorado se observan unas 50 estrellas O y B asociadas con una nube de 50 millones de M0 de hidrógeno neutro. No hay polvo en esta región ni se ha detectado ninguna nube molecular. Esto muestra claramente que la teoría de formación estelar basada en nubes moleculares no explica todos los nacimientos estelares. Este es un tema de gran actualidad en astrofísica que todavía no está resuelto.

La protoestrella entra al diagrama H-R por la derecha (la parte roja o fría), en el momento en que la temperatura central se hace suficientemente alta (recordemos que bajo compresión la temperatura de un gas aumenta) y la estrella comienza a convertir H en He. La posición inicial de la estrella en el H-R define la llamada secuencia principal de edad cero (ZAMs). Cuanto más masiva nace una estrella más arriba comienza su vida de secuencia principal y más luminosa es.

La posición de la ZAMS sobre el diagrama H-R depende de las composiciones químicas de las estrellas que se forman. La abundancia de metales (elementos más pesados que el He) aumenta de generación a generación, a medida que las estrellas más viejas evolucionan y enriquecen el medio interestelar con elementos pesados. En consecuencia la ZAMS se desplaza cada vez más hacia la derecha sobre el H-R a medida que la galaxia envejece, y este corrimiento permite estimar la edad de la galaxia.

La secuencia principal representa la primera pausa y la más larga en la inexorable contracción de la estrella. Durante este intervalo las estrellas son hornos nucleares estables y a esta estabilidad debemos nuestras propias vidas, ya que el Sol se encuentra en esta etapa. A medida que la estrella envejece se hace un poco más brillante, se expande y se calienta. Se mueve lentamente hacia arriba y a la izquierda de su posición inicial ZAMS.

Evolución de las Estrellas

Para una persona, incluso para una toda generación de seres humanos resultaimposible observar una única estrella para descubrir todo lo que le sucede en el transcurso de su existencia, ya que la vida estelar media es del orden de los miles de millones de años. Identificar y ordenar las distintas etapas en la vida de las estrellas, puede compararse con obtener una fotografía en conjunto de todos los habitantes de una ciudad; en la foto se tendría una visión de las posibles fases o estadios de la vida humana: habrían recién nacidos, niños, adultos, ancianos, etc.

Al analizar la imagen obtenida de cada persona y clasificándola de acuerdo a cierto carácter, podría establecerse el ciclo de la vida humana con bastante precisión; se podría estimar el ciclo completo, captado en un único instante de tiempo en la fotografía de conjunto.

Debido a la cantidad y a la gran variedad de estrellas existentes, se logra tener una idea de su evolución observando estrellas en las diversas fases (o etapas) de su existencia: desde su formación hasta su desaparición. Al respecto se debe tener en cuenta que, efectivamente, se han visto desaparecer estrellas (por ejemplo, la supernova de 1987) como también se han hallado evidencias de la formación de otras nuevas (como en el profundo interior de la Nebulosa de Orión, por ejemplo).

Ya mencionamos que en el estudio de las estrellas, se utilizan parámetros físicos como la temperatura o la masa, entre otros. Pero debe señalarse también otra de las técnicas usuales en Astronomía, denominada Espectroscopía.

La luz estelar se descompone en su gama intrínseca de colores, llamándose “espectro” al resultado de esa descomposición cromática (la palabra espectro que significa “aparición”, fue introducida por I. Newton, quien fue el primero es descubrir el fenómeno). En el espectro de las estrellas, además de los colores, aparecen ciertas líneas o rayas bien nítidas. Esas líneas o mejor dicho, cada una de las series de líneas, se corresponde, según su posición en el espectro, por una parte con la T de la superficie estelar y por otra, con los elementos químicos presentes en la atmósfera de la estrella.

Diferentes elementos químicos absorben o emiten luz según la temperatura a que se encuentren; de esta manera la presencia (o ausencia) de ciertos elementos en la atmósfera de la estrella, indica su temperatura.

Los astrónomos han diseñado un sistema de clasificación de estrellas, de acuerdo a las características que presentan sus respectivos espectros. En ese esquema, las estrella s se ordenan desde las más calientes a las más frías, en tipos espectrales que se identifican según el siguiente patrón de letras: O B A F G K M

Las estrellas más calientes (O) tienen temperaturas de unos 40.000 ºC; en el otro extremo, las más frías (M), alcanzan sólo 2.500 ºC; en este esquema, el Sol, con una temperatura superficial de 6.000 ºC, resulta una estrella de tipo espectral intermedio entre las más calientes y las más frías: es una estrella tipo G.

Este sistema de clasificación se corresponde además con los colores de las estrellas: las de tipo (O) son azules-violáceas y las de tipo M, rojas; el Sol (tipo G) es amarillo. Los colores observados también se relacionan con la temperatura, ya que las estrellas más calientes emiten la mayor parte de su luz en la zona azul del espectro electromagnético, mientras que las más frías lo hacen en la zona roja.

En las estrellas más calientes, las distintas capas interiores deben vencer mayor atracción gravitacional que las capas más externas, y por lo tanto la presión del gas debe ser mayor para mantener el equilibrio; como consecuencia, mayor es la temperatura interna. Implica que la estrella debe “quemar” combustible a gran velocidad, lo que produce una ingente cantidad de energía. Esta clase de estrellas sólo puede tener una vida limitada: unos pocos millones de años.

Las estrellas frías (generalmente pequeñas y con una fuerza de gravedad débil) sólo producen una modesta cantidad de energía; en consecuencia aparecen brillando tenuemente. Así, estas estrellas pueden existir como tales sólo algunas decenas de miles de millones de años.

En la siguiente Tabla se indican la temperatura característica (en grados centígrados, ºC) de cada tipo espectral (T.E.).

Tipo Espectral Temperatura (ºC)
O 40.000
B 25.000
A 11.000
F 7.600
G 6.000
K 5.100
M 2.500

Ahora bien, la temperatura y consecuentemente, la cantidad de energía que emite una estrella, depende de su masa: cuanto mayor es su masa, mayor es la temperatura y por consiguiente mayor es la cantidad de energía que irradia. Pero hasta que en su núcleola temperatura no alcance un valor de algunos millones de grados, no se producirán transformaciones nucleares (del tipo de transmutación de hidrógeno en helio) y, por lo tanto, mientras eso no ocurra, la cantidad de energía que emiten será bastante pequeña (objetos de esta clase son denominados protoestrellas). Cuando se inicia la vida de una estrella, el calor de su interior procede de la energía gravitacional, es decir, de la nube de gas que se comprime sobre sí misma (colapso).

La etapa de protoestrella se corresponde con grandes inestabilidades en su estructura interna, las que acaban cuando la temperatura de su núcleo alcanza los 10 millones de grados, iniciándose entonces la transmutación del hidrógeno en helio y, por lo tanto, la generación de energía desde su núcleo: en esa etapa el astro se considera ya una estrella.

Las estrellas contienen suficiente hidrógeno como para que la fusión en su núcleo dure un largo tiempo, aunque no para siempre. La velocidad de combustión del hidrógeno depende de la masa, o sea de la cantidad de materia que compone la estrella.

Llegará un momento en que se acabará todo el hidrógeno disponible y sólo quede helio. En esas condiciones la estrella sufrirá diversos tipos de transformaciones: aumentará de tamaño y el helio acumulado se transmutará en elementos más pesados como el carbono, el nitrógeno, el oxígeno, etc, mediante otras reacciones nucleares. Entonces la estrella dejará de ser estable: sufrirá cambios de volumen y expulsará al espacio parte de su material. Las capas mas externas serán las primeras en alejarse.

Después de cinco a diez mil millones de años, una estrella como el Sol evoluciona a un estado denominado de gigante roja: un objeto de gran tamaño (de dimensiones mayores que las originales), mucho más fría y de una coloración rojiza. Su temperatura superficial disminuye y por lo tanto toma color rojizo. La gigante roja brillará hasta que su núcleo genere cada vez menos energía y calor. En esas condiciones la estrella empieza a contraerse: disminuye su diámetro y al mismo tiempo aumenta su temperatura superficial.

Si la estrella, al formarse, tiene una masa cuarenta veces mayor que la masa del Sol, pasará al estado de gigante roja en sólo unas pocas decenas de millones de años. Luego irá disminuyendo de tamaño y perderá rápidamente una cantidad significativa de su masa expulsando materia hacia el espacio.

Otra modo de expulsar materia es lentamente, a través de fuertes vientos estelares; de esta forma los astrónomos han observado que se forma una envoltura gaseosa que circunda la estrella y que puede llegar a ser bastante densa; si ese proceso continúa puede dar lugar a un objeto denominado nebulosa planetaria.

Con el nombre de nebulosas planetarias, se define a una estrella muy caliente y pequeña, rodeada por una esfera de gas fluorescente en lenta expansión; algunas fotografiadas con potentes telescopios, muestran que esas nebulosas tienen forma de anillo, razón por la cual se le ha dado ese nombre, ya que su aspecto observada en el telescopio es similar al disco de un planeta.

Finalmente, hacia el término de su existencia, esas estrellas se convierten en objetos de pequeñas dimensiones (del tamaño de la Tierra o aún menor), calientes y de color blanco: son las enanas blancas. La materia de estos objetos se halla extremadamente comprimida: 1 centímetro cúbico de la misma puede pesar varias toneladas. En otras palabras, en un volumen similar al de nuestro planeta se halla condensada la misma cantidad de materia que hay en un volumen comparable al del Sol.

Pero no todas las estrellas acaban como enanas blancas. Cada estrella termina su vida de un modo que depende mucho de su masa inicial, aquella que tuvo cuando comenzó su existencia. Una estrella de gran masa (varias veces la del Sol) y que no pierde mucha materia durante su evolución termina su vida en una explosión muy violenta que se denomina supernova; cuando esto ocurre la estrella brillará tanto como toda la galaxia en la cual se encuentra, aunque su brillo será efímero: la estrella ya está condenada a extinguirse como tal.

En el siguiente cuadro se muestran los distintos estados evolutivos finales para estrellas de diferente masa inicial (M). La masa está expresada en masas solares (Msol = 1).

Masa Inicial Estado evolutivo final
M < 0,01 Planeta
0,01 < M < 0,08 Enana marrón
0,08 < M < 12 Enana blanca
12 < M < 40 Supernova + estrella de neutrones
40 < M Supernova + agujero negro

Distintos estados evolutivos finales para estrellas de diferente masa inicial <M>. La masa está expresada en masas solares (Msol = 1).

Los restos gaseosos de una supernova (que se denominan remanentes) se esparcen cubriendo una extensa zona del espacio, formando una nube en permanente expansión que se aleja a varios miles de kilómetros por segundo y cuyas características son bastante peculiares (por ejemplo, aparecen campos magnéticos sumamente intensos).

El gas que compone un remanente de supernova es bastante diferente al gas de la nube que formó a la estrella. La nube de origen estuvo compuesta casi exclusivamente por helio y helio, mientras que en el remanente existe una gran variedad de elementos químicos, restos de la fusión nuclear que ocurriera en la estrella desaparecida y también otros formados durante la explosión que se produce en la fase de supernova.

En el siguiente cuadro se muestran algunas estrellas con sus características físicas más importantes.

Estrella Magnitud
aparente (m)
Magnitud
Absoluta
Temperatura
(en ºC)
Radio
(en radios solares)
Características
Centauri 0,6 -5,0 21.000 11 gigante
Aurigae 0,1 -0,1 5.500 12 gigante
Orion 0,4 -5,9 3.100 290 supergigante
Scorpi 0,9 -4,7 3.100 480 supergigante
Sirio B 8,7 11,5 7.500 0,054 enana blanca

 De este modo se recicla el material estelar: las estrellas que se formen con el gas expulsado en una explosión de supernova, serán menos ricas en hidrógeno y helio, pero más ricas en los elementos químicos más pesados, que las estrellas de su generación anterior.

Pero sucede que luego de la explosión de una supernova, lo que queda del astro, además de sus remanentes, es un cuerpo de apenas algunos kilómetros de diámetro, conformado por él núcleo de la estrella original.

En la explosión de supernova se produce un catastrófico colapso de la estrella; debido a su gran masa, la enorme fuerza de gravedad comprime la materia con mucha más intensidad que en el proceso que genera a una enana blanca . En estas condiciones toda la masa de una estrella ordinaria (como el Sol) se comprime en una pequeña esfera de apenas 15 Km. de diámetro; a estos diminutos astros se los ha bautizado estrellas de neutrones (su denominación se debe a que se trata de objetos compuestos básicamente de neutrones). La materia en estos objetos se ha comprimido a tal extremo y su densidad alcanza a valores tan grandes, que los electrones se combinan con los protones dando lugar a la formación de nuevos neutrones.

Fuente Consultada: Astronomía Elemental de Alejandro Feinstein y Notas Celestes de Carmen Nuñez

SÍNTESIS DEL TEMA…

Ningún astrónomo ha podido contemplar, hasta ahora, el interior de las estrellas, pero todos los científicos conocen ya los fenómenos que se producen en el centro de éstas y en los estratos que lo cubren hasta llegar a la superficie visible.

Las estrellas son enormes esferas de gas, de un diámetro medio, equivalente a cien veces el de la Tierra. El gas que las compone contiene, aproximadamente, un 80 % de hidrógeno y un 18 % de helio. La mayor parte de los elementos se hallan presentes en ellas, aunque en cantidades insignificantes.

La superficie de las estrellas está incandescente: su temperatura oscila, según el tipo de estrella, entre miles y decenas de millares de grados centígrados. Pero, a medida que se penetra en su interior, esa temperatura va haciéndose cada vez más alta, hasta alcanzar, en el centro, decenas de millones de grados, lo cual pone a los átomos en un estado de “agitación” tan violenta, que los lleva a chocar entre sí, perdiendo electrones y formando iones (átomos que han perdido, por lo menos, uno de sus electrones). El gas de los iones y electrones se ve sometido a presiones tan altas, que en ocasiones alcanza una densidad miles de veces superior a la del agua.

¿Qué es lo que comprime el gas en el interior de las estrellas? El peso de los estratos superiores. Todo el mundo ha oído hablar de las elevadas presiones existentes en el fondo del mar o en el centro de la Tierra (éstas, particularmente, alcanzan cifras asombrosas). Pero, en el centro de una estrella, a una profundidad cien veces mayor, las presiones son tan enormes, que bastan para comprimir toda la materia estelar en un reducidísimo espacio. Los átomos, chocando entre sí, perdiendo y, a veces, adquiriendo electrones, emiten una gran cantidad de luz, comparada con la cual la superficie del Sol parecería oscura.

Llegados a este punto, conviene explicar que la luz ejerce presión sobre los cuerpos que ilumina: poca presión, cuando su intensidad es débil, y mucha, cuando es fuerte. Esta propiedad de la luz se encuentra, naturalmente, fuera de los límites de nuestra experiencia, ya que la Tierra, por fortuna, nunca se ve expuesta a radiaciones luminosas de tanta intensidad. Pero éstas son lo suficientemente intensas, en el interior de las estrellas, como para ejercer, sobre los estratos superficiales, presiones que llegan al millón de toneladas por centímetro cuadrado. Es decir: equilibran, en parte, la presión hacia el interior de estos estratos y evitan que la estrella se convierta en un pequeño y densísimo núcleo.

A las temperaturas descritas, los átomos chocan en forma tan violenta que, cuando los núcleos de hidrógeno entran en colisión entre si, o con núcleos de otros elementos (carbono y nitrógeno), se funden y originan núcleos de helio. Este proceso de fusión de núcleos se llama “-reacción termonuclear”, lo que significa “reacción nuclear provocada por la temperatura”. Cada vez que se forma un nuevo gramo de helio, se libera una energía equivalente a la que se obtendría quemando media tonelada de carbón. ¡Y se forman millones de toneladas de helio por segundo!

La fusión del hidrógeno es, pues, la reacción que mantiene el calor de las estrellas. Como la mayor parte de éstas contiene casi exclusivamente hidrógeno, y basta consumir un poco para obtener una gran cantidad de energía, se comprende que las estrellas puedan brillar ininterrumpidamente durante miles de millones de años.

La zona del interior de las estrellas en las que se produce ,La energía termonuclear es pequeña: muy inferior a una décima parte del volumen total de la estrella. Lo cual dificulta notablemente la llegada del calor a la superficie.

Una parte de éste se transmite por radiación (es decir: la energía térmica producida en el núcleo central es enviada, bajo forma de radiaciones electromagnéticas, a los átomos exteriores, que la absorben y la envían, a su vez, hacia átomos más exteriores, hasta que así, de átomo en átomo, la energía llega a la superficie de la estrella, irradiándose en el espacio). Pero la mayor parte de la energía térmica es transportada a la superficie por la circulación de la materia estelar, que se halla en continuo movimiento: sube caliente del centro, se enfría en la superficie, por cesión de calor, y vuelve fría al centro, en busca de más calor. Esta forma de transporte se llama transporte por “convección”.

Los movimientos convectivos de la materia estelar provocan importantes fenómenos magnéticos, que repercuten en la superficie, produciendo maravillosas y fantasmagóricas manifestaciones: fuentes de gas incandescente, gigantescas protuberancias de gas luminoso coloreado, y manchas oscuras de materia fría, rodeadas por campos magnéticos, de extensión .e intensidad enormes. De esta naturaleza son las famosas manchas solares descubiertas por Galileo, que siempre han despertado gran interés entre los investigadores, por su influencia sobre la meteorología de nuestro planeta, sobre las transmisiones electromagnéticas, e incluso, al parecer, sobre algunos fenómenos biológicos.

La existencia de una estrella depende, por tanto, del perfecto equilibrio entre los mecanismos que producen la energía en su interior y los encargados de transportarla a la superficie. Cuando este equilibrio es inestable, las estrellas experimentan variaciones (estrellas variables); cuando, en cambio, se altera completamente, puede producirse uno de los más grandiosos fenómenos cósmicos: la explosión de una estrella, de lo cual nos ocuparemos en otro artículo.