La Ciencia Rusa

Objetivos de La Ciencia:Historia,Desarrollo y Clasificacion

Objetivos e Historia de La Ciencia:Desarrollo y Clasificacion

CIENCIA. Estudio de las nociones fundamentales sobre el origen, naturaleza y propiedades de las cosas, de modo que resulte comprensible su definición y sea fácil comprobar la verdad que encierra.

Así, ante cualquier hecho que se repite, la ciencia investiga la ley que lo rige.

La naturaleza se nos presenta en un cambio incesante, y en medio de esta multiplicidad de los fenómenos, los hombres de ciencia descubren la razón de ciertos hechos que siempre ocurren de igual manera; por ejemplo: las estaciones se suceden con regularidad, hay uniformidad en la salida del Sol y de la Luna.

Este hizo pensar en un orden natural de causas que hace necesario que los frutos maduren en cierta época, que en otoño caigan las hojas de los árboles y que las golondrinas emigren a regiones más propicias.

Para conocer el porqué de cada cosa ha sido preciso averiguar sus causas fijas e invariables y enunciarlas por medio de leyes.

Primordialmente, el objeto de la ciencia fue la investigación de las leyes naturales.

En consecuencia, la ley es una regla que rige una serie de hechos iguales y el conocimiento de algo por sus causas.

Nunca se refiere a un hecho aislado, sino a una serie de hechos correlativos.

Cuando se enuncia, por ejemplo, una ley sobre la herencia en animales o vegetales, ésta no se refiere a determinado árbol o animal, sino a todos los vegetales y a todos los animales.

La formulación de una ley científica presupone un orden y regularidad universales, y, por lo tanto, si descubrimos que una serie de fenómenos ocu-
rren siempre de igual manera, podemos inferir que todos los que ocurran en individuos de la misma especie, en todo tiempo y en todo lugar, han sucedido y sucederán del mismo modo.

Una de las características del conocimiento científico es su método, su fundamentación.

El conocimiento vulgar, aunque sea exacto, no trata de indagar si lo que afirma es verdadero, cree ingenuamente en la verdad de sus impresiones sensibles.

Si un hombre contempla una mesa, objeto que considerará de sobra conocido y familiar, la definirá según la ve, como una tabla horizontal colocada sobre unas patas verticales; pero el conocimiento científico del mismo objeto necesitaría explicaciones más largas y complejas.

Es indudable ante todo, para el físico, que la superficie lisa y brillante de la madera de esta mesa no es, más que una apariencia, y si se define a ese mueble como un conglomerado de átomos en movimiento y una gran cantidad de espacio vacío se estará más cerca de la verdad científica.

mirada cientifica de una mesa

En otro sentido, si un niño acerca su mano al fuego inferirá que el fuego quema; para los fines prácticos de su vida cotidiana este conocimiento le bastará.

Pero científicamente no puede considerarse válida esta afirmación tan general, obtenida con tan poco método, pues no puede decirse que a un metal lo queme el fuego.

En la experiencia común se identifican generalmente dos o más sucesos por simpatía, antipatía o error; la apariencia basta para que se hagan afirmaciones que la ciencia a veces contradice abiertamente.

Así, la Luna y el Sol, según los antiguos, giraban alrededor de la Tierra, junto con todas las estrellas; en apariencia aún hoy continúan haciéndolo.

Sólo la ciencia, alejándose de la observación directa y con difíciles cálculos matemáticos, ha podido descubrir con exactitud cuáles son los verdaderos movimientos de astros planetas y satélites.

Astronomia: El Sistema Solar y sus Planetas Movimiento

Esta oposición entre el conocimiento ingenuo y el conocimiento científico se ha ido haciendo cada vez mayor a medida que la ciencia progresaba.

El mundo de la ciencia es hoy completamente distinto del mundo real cotidiano.

Antiguamente si un profesor de física trataba de explicar a sus alumnos el comportamiento de un cuerpo suspendido en el espacio, les hablaba de sus juegos, de la parábola que describe una pelota o de la manzana de Newton.

Biografia de Isaac Newton Vida y Obra Cientifica del Fisico -

Un sabio moderno, para explicar el mismo fenómeno, recurrirá a complicadas fórmulas matemáticas, de carácter completamente abstracto, donde la referencia a la realidad tal como ésta aparece no es evidente.

La ciencia es una interpretación de la experiencia, pero en términos abstractos.

Quizá sólo la física contemporánea cumple hoy ese ideal de abstracción; pero en general esa es la meta de todas las ciencias.

La experiencia es sometida a una crítica cada día más aguda, se evitan las antiguas generalizaciones, no se estudian las grandes masas, sino la estructura interna del universo indudablemente matemática.

Quizá los primeros que intentaron superar la verdad de los sentidos fueron los hindúes, que con una lógica muy compleja redujeron el universo a unas pocas verdades absolutas.

La misma desconfianza hacia la apariencia sensible y un intento de descubrir, mediante el solo uso de la razón, la estructura del universo, aparece en Grecia unos 600 años antes de Jesucristo.

Por ese camino continuará la ciencia occidental; su confianza en la razón la llevará a intentar una identificación entre la experiencia y la ciencia esencialmente racional: la matemática.

Ésta sería la verdadera ciencia exacta, la verdadera ciencia metódica, pues en ella todas las verdades son indudables y fundadas.

La matemática sería el verdadero modelo para el pensamiento y es notable cómo, en este sentido, algunos filósofos han intentado, no hace muchos años, identificar lógica y matemática y crear una sola ciencia del pensar.

El progreso científico se debe ya menos al azar de los descubrimientos que al desarrollo de la matemática.

Nuestro mundo no es el sencillo mecanismo que imaginaban los antiguos.

Sólo la matemática puede expresar con cierta exactitud la complejidad del universo.

Antiguamente se confiaba en la validez absoluta de los elementos de medición, por ejemplo.

Hoy los conceptos de masa, de tiempo y de distancia son, de acuerdo al principio de relatividad, tan sólo hipotéticos.

Tampoco es posible determinar con exactitud ciertos movimientos de la materia.

Según el principio de indeterminación aceptado por la física contemporánea, una ley que anuncia la aparición de un fenómeno sólo puede considerarse como probable; aunque de esa probabilidad podría decirse que es real, verdadera, que refleja en cierto modo la estructura del mundo.

La creciente complejidad del mundo científico ha obligado, además, a limitar cuidadosamente el objeto observado.

Esa limitación implica también una vigilancia y atención al medio ambiente, que antes no se tenía en cuenta.

Se trata de atender más al objeto que al sujeto, tanto en los experimentos de física como en la psicología.

Sólo la matemática puede expresar con cierta exactitud la complejidad del universo.

El mundo que nos presenta la ciencia contemporánea es unitario, en él los elementos aislados no tienen importancia.

Hoy un electrón es tal solamente dentro del átomo, como componente de similares a los que encontraba Lavoisier en la química, es decir, invariables, independientes del mundo exterior, de la situación histórica.

La biología actual concede también una gran importancia al medio ambiente; el organismo no vive aislado, sino en relación con su ambiente exterior.

Algunos biólogos llegan a pensar que sólo esa relación puede explicar el misterio de la vida.

Esta síntesis general, que comprende la ciencia, la historia y el mismo destino humano, parece realizar, aunque muy parcialmente, el deseo de unidad de los griegos, que imaginaban un universo armónico.

Hoy ese universo nos parece más complejo y difícil de reducir a una fórmula única; pero la ciencia no ha encontrado en los obstáculos sino motivos para continuar tratando de revelar la verdad de la naturaleza.

• El Método Científico.

Platón opinaba que la geometría era una ciencia innata; que cualquier esclavo, aun el más ignorante, sabía geometría pues sus principios fundamentales estaban en la mente de todos los hombres.

Sin embargo, en el siglo XIX Lobachesvky demostró que las verdades geométricas sólo podían probarse mediante la observación del mundo real, y no sólo el razonamiento.

Este cambio de actitud con respecto a la geometría es característico de la ciencia moderna.

Biografia de Aristoteles :Pensamiento Aristotelico y Filosofia - BIOGRAFÍAS  e HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA
Aristóteles

El error común de casi toda la ciencia aristotélica se debe a que su autor afirmaba una presunta verdad sin tratar de probarla experimentalmente.

Todos los descubrimientos deben ser fundados según determinado método.

Pues no cualquier método es válido para cualquier ciencia.

Durante mucho tiempo se aplicó en psicología, en el estudio de la conducta humana, el método analítico propio de la química del siglo XVIII, lo que llevó a muchos resultados e interpretaciones erróneos.

El método científico aplicable a las ciencias de la realidad comienza generalmente con la observación.

La matemática no es una ciencia de la realidad, es una disciplina ideal; sus métodos se reducen a los estrictamente lógicos, abstractos, los números y sus relaciones.

Una ciencia como la física actual, de base matemática, no depende enteramente de la observación; pero ésta debe, por lo menos, confirmar la teoría.

La observación debe ser siempre imparcial, sin prejuicios, correcta.

Para ello la ciencia cuenta con numerosos auxiliares: microscopios, telescopios, aparatos registradores, cámaras neumáticas, etc.

La física contemporánea ha necesitado, para poder observar la estructura del átomo, enormes y complejos aparatos.

esquema basico de la estructura de un atomo
Esquema basico de la estructura de un atomo

Un error en que caía a menudo el antiguo observador era el de ver nada más que lo que esperaba o deseaba ver.

Cuando se inventó el microscopio se hicieron observaciones muy singulares: algunos hombres dijeron que en los granos de arena habían visto millones de seres de cuatro patas, muy similares a los mamíferos y otros con rostro humano.

Hay ciertos errores de observación inevitables, como los que plantean la teoría de la relatividad y el principio de indeterminación de Heisenberg; pero como ambos son constantes, más que errores pueden llamarse condiciones de la observación.

Según el principio de indeterminación un electrón sólo es risible cuando está en movimiento, pues sólo entonces emite luz.

Pero se ha logrado establecer la regularidad de esas apariciones y desapariciones y es posible establecer matemáticamente la órbita del electrón.

Esa órbita es naturalmente probable, pues no es posible una confirmación experimental.

Pero el conocimiento de que muchas leyes no son más que probables, estadísticas, es una de las conquistas de la ciencia moderna.

El segundo paso del método científico es la experimentación.

«El observador, afirma Cuvier, escucha la naturaleza, el experimentador la interroga».

En la experimentación, lo mismo que en la observación, el adelanto de la técnica abre siempre nuevas probabilidades.

El hombre de ciencia desea a veces hacer un experimento y le faltan los medios; la técnica puede facilitárselos.

Como los adelantos técnicos dependen del progreso de la ciencia, puede decirse que ésta abre su propio camino.

Otras razones dificultan a veces la experimentación; por ejemplo, en medicina razones humanitarias.

No está permitido experimentar en el hombre el efecto de ciertas enfermedades.

El experimentador puede recurrir a los animales o en casos heroicos y extremos, inocularse la enfermedad en él mismo.

Un ejemplo de la mutua influencia de la observación y la experimentación, podría ser la obra de Newton.

Se cuenta que este físico ingles vio caer un día una manzana desde lo alto de un árbol.

Ésta es la observación simple.

Como podemos imaginar muchos hombres habían visto caer ya muchas manzanas, sin sacar de ese fenómeno ninguna consecuencia interesante.

Pero Newton se preguntó si no habría alguna fuerza que obligaba a la manzana desprendida del árbol a no subir por los aires, sino caer hacia la tierra.

Biografia de Isaac Newton Vida y Obra Cientifica del Fisico - BIOGRAFÍAS e  HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA
Isaac Newton

Si esa fuerza existía debía ser general y no podía comprender solamente a las frutas.

Los experimentos en este caso podían haber sido repetidos indefinidamente con todos los cuerpos; pero era necesario también comprobar si esa ley comprendía a los grandes cuerpos celestes, es decir, si esa fuerza era de carácter universal.

La observación de los astros verificó su teoría y llamó a esa fuerza gravitación.

En este caso vemos cómo de una observación particular se llega a una generalización científica.

Si estudiamos atentamente la teoría de Newton, veremos que, sin embargo, esta generalización no alcanzaba a los fenómenos ópticos.

Una generalización aun mayor dio a esta teoría —con algunas modificaciones— el físico Einstein al enunciar sus principios de relatividad general.

No sólo los astros sino también la luz, es decir todos los fenómenos electromagnéticos, entraban dentro de la teoría.

Las primeras generalizaciones de Newton, como la idea de que si un cuerpo cae todos los cuerpos caen, nos ilustran sobre uno de los métodos típicos de la ciencia: la inducción.

Si Newton no hubiera creído en la validez del método inductivo, antes de enunciar su teoría, debía haber comprobado experimentalmente que todos los cuerpos caían.

Hubieran desfilado por sus manos todos los objetos del universo y nunca hubiera podido saber con certeza si algún cuerpo, aún no conocido, no escaparía a esa ley.

Podemos concluir muy bien que si un objeto tiene determinadas cualidades todos los de la misma clase también las tendrán; pero ninguna demostración experimental es posible, sólo nuestra confianza en la validez de la inducción nos autoriza afirmarlo.

Este método, como lo reconoce muy bien la ciencia contemporánea, sólo nos da verdades probables.

Es válido en general mientras la armonía y la uniformidad del mundo sean bastante notables; en un mundo desordenado y caprichoso habría que abandonar la inducción como método científico.

• Ciencias Sociales

Las llamadas ciencias sociales requieren ciertos métodos particulares, aún más estadísticos e improbables que los de las modernas ciencias físicas.

Algunos que creen que la sociedad está constituida por los mismos elementos materiales de la física y la química, le aplican los mismos métodos que a estas ciencias.

Es posible que un día se descubran mayores fundamentos para esta interpretación materialista de la sociedad; pero lo cierto es que hasta hoy no ha sido posible prever con exactitud la conducta humana, ni descubrir muchos de sus móviles.

Se ha tenido más éxito al comparar los organismos sociales con los organismos biológicos.

El desarrollo de una sociedad o de una cultura no es quizá muy distinto del de un ser viviente.

Con el mismo criterio se han comparado civilizaciones diferentes y se ha estudiado en ellas la semejanza de su evolución.

Las ciencias naturales, como la zoología y la botánica, han podido enunciar hasta ahora pocas leyes y su método, por el mismo motivo, se ha reducido casi únicamente a la observación, con muy pocas generalizaciones.

El entomólogo Fabre ha dado un buen ejemplo de los maravillosos resultados que pueden dar a la ciencia natural la paciencia y la tenacidad.

La observación cuidadosa de todo lo que encontraba en su camino ha creado una obra monumental sobre la vida de los insectos.

La experimentación y la observación directa no son métodos muy antiguos.

Los griegos casi se redujeron al estudio de la geometría que, según ellos, no requería experimentos.

También las afirmaciones de Aristóteles se basan muchas veces, aun en ciencias naturales, en conceptos extraídos de ideas sin mayor relación con la realidad.

Aunque por ese entonces ya se realizaron algunos descubrimientos científicos, como el del movimiento de la Tierra alrededor del Sol, por Aristarco de Samos, y el principio de los cuerpos flotantes, por Arquímedes, el primero que estudió conscientemente la experimentación y es, en este sentido, fundador de los modernos métodos de investigación, fue el físico Galileo Galilei que vivió entre los siglos XVI y XVII.

En su época la ciencia se reducía a las lecturas de los libros clásicos en la materia, sobre todo los de Aristóteles, considerado autoridad infalible.

Se cuenta que Galileo subió un día a la torre de Pisa con dos cuerpos de muy diferente peso y los dejó caer desde lo alto.

Supuesta Experiencia de Galileo en la Torre de Pisa
Supuesta Experiencia de Galileo en la Torre de Pisa

Según Aristóteles, un cuerpo diez veces más pesado que otro debía caer más rápidamente, pero los dos cuerpos elegidos por Galileo llegaron juntos al suelo.

La teoría de Aristóteles estaba así refutada y hoy nos parece que todo un movimiento de aplauso y admiración debía de haberse producido alrededor del experimentador.

Pero los libros eran entonces más importantes que los experimentos y los griegos eran considerados prodigios de sabiduría, de modo que aun algunos de los que vieron el experimento dedujeron que como Aristóteles no podía haberse equivocado se habían equivocado los cuerpos al caer.

• Historia de la Ciencia.

Los pueblos antiguos vivían en un mundo poblado por dioses y espíritus, a los cuales se les adjudicaba todo lo que ocurría.

Para curar a los enfermos se ofrendaban sacrificios a los dioses.

Se pensaba que el Sol era movido por una divinidad y la Luna por otra y que las estrellas eran lámparas colgadas de un gran techo: el cielo.

Creían que la Tierra era plana, y que un caminante, aproximándose a su borde, podía caer en el vacío.

Hoy llamamos mitos a estas creencias primitivas y las leemos como historias ingenuas o cuentos de magia.

Hoy tratamos de obtener las explicaciones de las cosas no de mitos o supersticiones que carecen ae comprobación, sino de las verdades de la ciencia.

En sus orígenes, no obstante, la ciencia se ha laba mezclada con los mitos que, a medida que avanzaron sus descubrimientos y que éstos se constituyeron en crítica de la misma, fue descartando.

Así por ejemplo, la alquimia o ciencia de los hechiceros precedió y dio origen a la química actual; y la astrología o ciencia de la adivinación del porvenir por el movimiento de los astros precedió también a la astronomía.

Alquimistas Medievales
Alquimistas Medievales

Paralelamente al conjunto de conocimientos empíricos de orden especulativo que mezclados a supersticiones religiosas formaban la magia, se desarrolló un conjunto de conocimientos de orden práctico que formaron técnicas rudimentarias que ayudaban al hombre a resolver problemas relacionados con sus necesidades materiales.

Pero la historia de la ciencia ha comenzado no con las primeras artes de la agricultura o con la elaboración de los metales, lo que indudablemente no encierra ningún principio científico, sino con el descubrimiento de pesas y medidas.

Los instrumentos de medición permitirían estudiar las relaciones abstractas que originarían la geometría.

Geometría significa en griego medida de la tierra.

El origen de la geometría debe, pues, buscarse en las necesidades prácticas.

Los egipcios, por ejemplo, deben de haber desarrollado su sistema de medidas a causa de que las inundaciones del Nilo borraban los límites de los campos y provocaban enojosas discusiones entre los propietarios.

Elementos prácticos y elementos científicos estaban muy confundidos en estas épocas primitivas.

Es difícil imaginar hasta qué punto estaban entremezcladas en la antigua Babilonia la astrología y la astronomía.

La astrología parte de fines aparentemente prácticos, conocer y guiar el destino del hombre, y la astronomía es, en cambio, eminentemente científica.

Esta última se había desarrollado hasta tal grado que los astrónomos babilonios eran capaces de predecir con toda exactitud los eclipses de Luna.

Atrónomos de Babilonia
Atrónomos de Babilonia

Pero, sin embargo, es posible que este conocimiento hubiera sido desarrollado para satisfacer exigencias de la astrología.

Aún en nuestra época, muchas investigaciones científicas tienen su origen en necesidades prácticas, como por ejemplo las investigaciones sobre las leyes de la herencia, con el fin de lograr especies de cereales más fuertes y resistentes.

Urgidos por necesidades prácticas, los egipcios desarrollaron toda una geometría y eran capaces de calcular el área del triángulo, del rectángulo y del trapezoide.

El primer geómetra totalmente teórico parece haber sido el griego Thales de Mileto.

Es, en efecto, en Grecia, donde la razón aparece venerada por primera vez como una potencia capaz de escudriñar y comprender los misterios del universo.

La tendencia del pueblo griego a interpretar el mundo como una unidad tiene su origen en este mismo culto a la razón.

Deseábase descubrir el principio general de todas las cosas.

Tales opinaba que este elemento era el agua.

Anaxímenes, el aire; Heráclito, el fuego.

Naturalmente estas teorías estaban envueltas en ideas religiosas.

Era difícil separar las teorías científicas de las creencias en los dioses, y cuando Anaxágoras se atrevió a decir que el Sol era más grande que el Peloponeso fue combatido y perseguido como lo serían luego algunos sabios del Renacimiento.

Esa mezcla de ideas religiosas y científicas es aún más evidente en otro griego, Pitágoras.

El universo, según él, se rige por leyes numéricas, lo que aparentemente es una idea muy moderna; pero los números de Pitágoras están dotados de propiedades verdaderamente mágicas, arbitrariamente supuestas, es decir sin ninguna relación con la realidad.

Ideas también aparentemente modernas, pero confusas y sin base experimental, son las de Demócrito sobre los átomos y la constitución de la materia.

La materia, afirmaba Demócrito, no es un todo compacto, pues si no no sería posible introducir un cuchillo en la madera, por ejemplo.

Debe, pues, estar formada por elementos separables.

A estos elementos Demócrito los imaginó diminutos y los llamó átomos.

Naturalmente, su teoría era completamente hipotética, pues ninguna comprobación experimental era entonces posible.

En realidad, era tan grande la creencia de los griegos en los poderes omnímodos de la razón que los experimentos, creían, no podían añadir nada a los descubrimientos hechos por ella.

Si la casi totalidad de las ideas científicas de Aristóteles han dejado de tener valor, el motivo es sólo éste: la edificación de teorías arbitrarias, sin verificación experimental.

En las ciencias naturales estuvo, aparentemente, más acertado.

Como en estas ciencias era inevitable atenerse a la observación y a la práctica, las consecuencias teóricas no eran tan erróneas.

Así se ha podido ver que algunos biólogos contemporáneos sostienen aún ideas parecidas a las del filósofo griego en lo referente al origen de la vida.

Sin embargo, esas teorías no son experimentales.

Como aún no se ha descubierto el principio que anima a los seres vivos, es posible enunciar teorías completamente hipotéticas sobre ellos.

Pero, en general, en todos aquellos órdenes donde se han hecho comprobaciones experimentales, las teorías griegas sobre la naturaleza han resultado inadecuadas.

El médico griego Hipócrates, que vivió en el siglo v antes de Jesucristo, se atuvo muchas veces a los fines prácticos (la cura de la enfermedad) y por ese mismo motivo algunos de sus principios tienen aún hoy cierta validez.

En general, la historia de la ciencia revela un acrecentamiento de la experimentación y una mayor generalización matemática de ella.

En ese sentido la ciencia moderna comienza realmente en el Renacimiento.

Así, Leonardo de Vinci, atraído por el redescubrimiento renacentista de la naturaleza, estudió la casi totalidad de los fenómenos físicos.

Leonardo Da Vinci y la ciencia experimental
Leonardo Da Vinci

A él se deben los primeros estudios sobre el plano inclinado, la polea, la velocidad del sonido y la posibilidad del vuelo mecánico.

Se juzga, sin embargo, a Galileo el verdadero fundador de la ciencia, pues él fue el primero que intentó dar a la experimentación un carácter racional.

Para Galileo la naturaleza era de orden geométrico, de modo que experimentación y razón debían unirse.

La ciencia contemporánea no cree ya que el fundamento de la ciencia sea la geometría sino la matemática; pero la primera aproximación a esta idea se debe a Galileo.

Después de él, la experimentación comienza a practicarse asiduamente.

Galeno había practicado la disección de cadáveres de monos y Vesalio dio un paso adelante atreviéndose a estudiar cadáveres de hombres.

Con métodos similares descubrirá Harvey la circulación de la sangre.

Para lograr una mayor eficacia en la experimentación se crean los laboratorios, lugares especialmente destinados al estudio de los fenómenos científicos.

Los descubrimientos se suceden entonces con rapidez.

La química de los elementos, ciencia creada por Lavoisier, aparece en los laboratorios.

avoisier , Padre de la Química Moderna
Lavoisier , Padre de la Química Moderna

Al mismo tiempo se sistematiza y se clasifican los objetos del mundo natural.

Linneo y Buffon hablan por primera vez de especies animales y vegetales; Cuvier crea toda una lógica de la estructura anatómica que hace posible la reconstrucción de los grandes fósiles.

Linneo, Naturalista
Linneo, Naturalista

De estudios comparativos similares se derivarán las teorías de Lamarck y Darwin sobre evolución.

Charles Darwin: Teoria de la Evolución
Charles Darwin: Teoria de la Evolución

El magnetismo, que había sido considerado hasta entonces como mero entretenimiento o curiosidad, es examinado atentamente en los laboratorios.

De estas investigaciones surgirá toda la física contemporánea.

Preocupa sobre todo encontrar la afinidad entre electricidad y magnetismo.

Después de varios años de labor, Faraday logra probar esa afinidad de un modo concluyente, al obtener electricidad de un cuerpo magnético.

Faraday, Científico dedicado al estudio del electromagnetismo
Faraday, Científico dedicado al estudio del electromagnetismo

Su teoría del campo electromagnético servirá luego a Albert Einstein para modificar las ideas de Newton sobre la gravitación.

1905: Año Maravilloso Trabajos y Descubrimientos de Einstein - BIOGRAFÍAS e  HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA
Albert Einstein

Otro descubrimiento también esencial para la física nacería de este afán de indagación; el átomo.

Las ideas de Lavoisier sobre los ele lientos, según él de peso indefinido e invariable, sirven como base para estudiar los procesos de la energía y de la transformación de los cuerpos.

Así Planck y Bohr descubren la naturaleza del átomo.

Junto con estos descubrimientos aparece una nueva faz del universo, su aspecto matemático.

En cierto sentido se invierte el proceso clásico de investigación.

No se parte del experimento; de él se espera que confirme las teorías matemáticas.

La teoría de la gravitación de Einstein es un ejemplo; fue demostrada experimentalmente cuatro años después de ser enunciada.

Muchos otros ejemplos hay en la ciencia contemporánea de teorías que anteceden a la demostración práctica.

Durante mucho tiempo se habló de la identificación entre masa y energía. Según un físico, la masa era energía congelada y la energía masa fluida.

La bomba atómica comprobó esta teoría.

• Clasificación de las Ciencias.

Se ha intentado clasificar las ciencias de muy diverso modo; en realidad ninguna clasificación de esta naturaleza puede entenderse como definitivamente válida.

Estará siempre sujeta a los progresos y variaciones del pensamiento científico, que une a veces dos ciencias antes consideradas disciplinas casi opuestas (así la física y la matemática) o hace aparecer un nuevo mundo de objetos que no estaba clasificado previamente (los genes, factores de la herencia, por ejemplo).

Cuanto más general sea una clasificación mayor será su validez, pero su exactitud en cambio resultará perjudicada.

La primera clasificación de cierto valor es la de Francis Bacon, en el siglo XVIII, que divide las ciencias según las facultades humanas que deben estudiarlas.

La Importancia de la Educacion Segun Bacon Francis - BIOGRAFÍAS e HISTORIA  UNIVERSAL,ARGENTINA y de la CIENCIA
Francis Bacon

Bacon notó la existencia de tres regiones mentales: memoria (que estudia la historia), imaginación (la poesía) y razón (la filosofía y las ciencias).

Esta clasificación fue ampliamente difundida por los enciclopedistas franceses y a ellos quizá deba su popularidad; pero por la misma época Hobbes ensayaba otro tipo de clasificación, algo más moderno.

Distinguía este filósofo entre el conocimiento basado en los sentidos y la memoria, y el racional, propiamente científico.

Una clasificación muy original es la del filósofo positivista francés Augusto Comte, que ordena las ciencias de este modo: matemática, astronomía, física, química, biología y sociología.

Este orden, según su creador, sería lógico (cada ciencia depende de la anterior) e histórico (el orden de la clasificación es también el orden en que estas ciencias aparecieron en la historia).

La sociología es la ciencia más nueva y a la vez la más compleja, pues necesita del concurso de todas las demás.

Las clasificaciones más comunes y usuales son las que tienen en cuenta los distintos objetos que estudian las ciencias.

Así, la ciencia de los animales es la zoología, la de las plantas la botánica, la de los hombres la antropología, la de la materia la física, etc.

Una división reciente, generalizada por filósofos alemanes, sostiene la existencia de dos únicos grupos: las ciencias naturales (física, biología, psicología, etc.), y las culturales (historia de la civilización, del arte, etc.).

• Ciencia y Técnica.

Una clasificación muy popular, pero algo discutible, es la que divide las ciencias en puras y aplicadas.

Las llamadas ciencias aplicadas no son a veces más que las técnicas quo aprovechan ciertos conocimientos científicos para su propio desarrollo y beneficio.

Sin embargo, es difícil distinguir entre ciencias puras y aplicadas cuando las técnicas son muy precisas y complejas.

Por ejemplo, de la física matemática pura y sus teorías del átomo se derivó la bomba atómica; pero la preparación de esta bomba requirió continuar el estudio de la desintegración de la materia, lo que seguramente no puede ser llamado un problema de ciencia aplicada.

Historia del Lanzamiento Bomba Atomica en Hiroshima - BIOGRAFÍAS e HISTORIA  UNIVERSAL,ARGENTINA y de la CIENCIA
Bomba Atómica

Hay sin duda una relación entre la ciencia y la técnica, y hasta una relativa dependencia mutua.

Los físicos actuales no hubieran logrado muchos de sus descubrimientos sin el auxilio de la técnica.

Las primeras técnicas deben de haberse empleado en la conservación del fuego, los cultivos agrícolas y la elaboración de los metales.

Pero la técnica moderna, es decir, la aplicación de conocimientos estrictamente científicos, comenzó a finés del siglo XVIII.

Ciertos inventos de entonces, como el uso del vapor para la locomoción, no son verdaderas técnicas científicas, sino la aplicación ingeniosa de hechos al alcance de la observación común.

Se dice que Watt inventó la máquina de vapor inspirado en el humo que salía de una tetera.

En cambio el uso de la electricidad o de los abonos químicos no podía haber sido previsto por nadie que no hubiese dedicado su vida a la ciencia.

La técnica utiliza casi siempre elementos teóricos o que han sido concebidos sin tener en cuenta su interés práctico.

Faraday estudió el campo electromagnético sin pensar en la telegrafía sin hilos que sería su consecuencia práctica más inmediata; Planck y Bohr nunca imaginaron que sus estudios sobre la naturaleza del átomo serían utilizados alguna vez como métodos guerreros; los estudios de Mendel no pretendían revolucionar la agricultura.

Biografia de Max Planck: Científico Creador de la Teoría Cuántica -  BIOGRAFÍAS e HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA
Planck, Físico de la Ciencia Cuántina

El progreso de la ciencia trae aparejado el progreso de la técnica.

La vida humana está en este sentido profundamente influida por el desarrollo científico.

Algunos combaten ese progreso, del mismo modo que el filósofo chino Lao-tse combatía la construcción de puentes y caminos como artificios que podían destruir la originalidad de la vida humana.

Historia del Taoismo y Vida de Lao Tse, Filosofo Chino - BIOGRAFÍAS e  HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA
El Taoísmo en China

Es indudable que el uso indebido de la técnica, puede provocar muchos males.

De nada serviría!, al hombre inventos como la televisión, los aviones supersónicos, el radar, etc., si en vez de ser utilizados en su beneficio material y cultural, son usados para su destrucción.

El problema de un mal uso excesivo de la técnica en la vida humana ha preocupado a muchos hombres de nuestro tiempo.

Léanse los libros de H. G. Wells, de Bertrand Russell, de Aldous Huxley.

En una novela del escritor inglés Samuel Butler el viajero que llega a un desconocido país advierte que allí las máquinas están en los museos o abandonadas en el campo como restos de animales antediluvianos.

Las ciencias que se enseñan en ese país son especulaciones arbitrarias y completamente inútiles.

Ese pueblo ha destruido las máquinas como único medio de librarse de los peligros de la técnica.

El uso más humano de la técnica ha de otorgar indudables beneficios prácticos.

Ya gracias a la ciencia el término medio de la vida humana que era de 30 años en la Edad Media es ahora de 70.

Es posible hoy fabricar artificialmente muchos productos naturales, como el caucho y la seda y no es de temer el agotamiento de ciertas materias primas.

Ciertos productos esenciales para la vida del hombre, como las vitaminas, pueden producirse en los laboratorios.

La rapidez de los medios de comunicación contribuirán algún día a un mayor acercamiento entre los hombres.

Fuente Consultada: Enciclopedia Ilustrada Cumbre Tomo V – Entrada: Ciencia – Editorial CUMBRE S.A.

Temas Relacionados:
Las Ciencias en Grecia Antigua:Cientificos Griegos
Orígenes de la Ciencia Moderna y La Filosofía Renacentista
Desarrollo de la Ciencia en Argentina:Primera Universidad Cientifica
La Ciencia en la Edad Moderna-La Revolucion Cientifica y Teorias
La Ciencia Árabe Medieval: Logros Cientificos del Islam Resumen
Los cientificos del siglo XIX:Descubrimientos y Avances de la ciencia
Las ciencias en Roma Cientificos Romanos Historia de la Ciencia
La Gran Ciencia: Los Grandes Proyectos Cientificos del Mundo
La Ciencia en el Siglo XVIII :Descubrimientos y Cientificos
La Era Capitalista El Desarrollo De La Ciencia e Inventos En Europa

Enlace Externo:• Museo de Historia de la Ciencia

Biografia de Mandelbrot Benoit,Matematico:Vida y Obra Cientifica

Biografia de Mandelbrot Benoit Matematico:Vida y Obra Cientifica

Benoit B. Mandelbrot (1924-2010), matemático polaco, nacionalizado francés, que desarrolló la geometría fractal como campo independiente de las matemáticas

A mediados de 1900 las matemáticas se usaban para ocuparse de 4 dimensiones (Líneas, planos, sólidos y tiempo).

Mientras los físicos desvelaban más información en sus búsquedas para entendei la dinámica cuántica y el trabajo de átomos, Benoit Mandelbrot comenzó a explorar las zonas alrededor de las 4 primeras.

Reivindicó que el mundo real en el que vivimos se describe mejor por su geometría fractal, una geometría que encuentra espacio entre las principales dimensiones.

El sencillo algoritmo utilizado en esta ciencia ha revelado un entendimiento de objetos desde los copos de nieve hasta los perfiles montañosos, desde las tendencias en los precios de los mercados de valores a bonitos cuadros con infinitos detalles en sus formas.

Biografia de Mandelbrot Benoit,Matematico:Vida y Obra Cientifica

Estudió en la Escuela Politécnica de París, el Instituto de Tecnología de California (CalTech) y la Universidad de París.

Trabajó en el Consejo Francés de Investigaciones, el Instituto de Estudios Avanzados de Princeton. donde colaboró con John von Neumann y como profesor en las Universidades de Ginebra, Lille, Harvard, Yale y París y en el Colegio de Francia.

También ha trabajado en el centro de investigación Thomas J. Watson de IBM en Yorktown (Nueva York), donde alcanzó el grado de IBM fellow.

Su aportación principal ha sido el concepto de fractal, que se aplica a ciertas funciones matemáticas monstruosas, que no son fáciles de representar con las técnicas analíticas ordinarias.

• Una Mirada A Los Fractales

Antes de Benoit Mandelbrot, la geometría se basaba en la interpretación Euclidiana de espacio.

Viviendo en Grecia en el año 300 a. C, el matemático Euclides había escrito 13 libros, alguno de los cuales tenía que ver específicamente con la geometría.

Habían formado la base del concepto de las tres dimensiones físicas, y poco había sucedido durante dos milenios para desmoronar esa base.

Entonces aparece Albert Einstein, e introduce una cuarta dimensión — el tiempo. Más cerca estaba Benoit Mandelbrot, que hizo sus grandes descubrimientos desafiando las matemáticas académicas establecidas.

Fue más allá de las teorías de Einstein para descubrir que la cuarta dimensión incluye no sólo a las tres primeras, sino también los huecos o intervalos entre ellas, las dimensiones fractales.

Haciendo esto, demostró que las matemáticas podían tener un valioso papel en la descripción de los trabajos de la naturaleza.

Las matemáticas estaban en la sangre y en la educación de Mandelbrot.

Su tio, Szolem Mandelbrot, era miembro de un grupo selecto de matemáticos franceses en París conocido como el «Bourbaki».

Benoit Mandelbrot nació en Warsaw en 1924, en una familia lituano-judía, pero su familia se trasladó a París en 1936 para buscar protección de la persecución.

Puede que estuvieran más seguros, pero el joven Benoit no recibió una formación académica.

Después de la guerra, Mandelbrot prosperó en matemáticas, pero prefirió imaginar problemas, más que trabajar a través de sistemas de lógica establecidos, y después de conseguir un doctorado.

Se fue a los Estados Unidos con la esperanza de encontrar libertad intelectual.

Finalmente, en 1958, comenzó a trabajar en el centro de investigación de IBM en Yorktown Heights, Nueva York , donde prosiguió con sus matemáticas al mismo tiempo que jugaba con los ordenadores más grandes del mundo.

Durante unos años, desafió el concepto académico de especializarse en un área en particular, y en su lugar tuvo escarceos con la lingüística, las teorías de juego, la aeronáutica, la ingeniería, la economía, la fisiología, la geografía, la astronomía y, naturalmente, la física.

De vez en cuando, su trabajo suscitaba algún interés definido.

Comenzaba a ver los cambios de cada día en el precio del algodón, un artículo para el que los récords se remontaban 200 años.

Fijándose detalladamente, los datos no demostraban nada de interés, pero analizándolos con ordenadores revelaban patrones generales en el movimiento de los precios.

Esto era escandaloso. Si había patrones, entonces los operadores de bolsa serían capaces de hacer predicciones exactas de lo que podía ocurrir en el futuro.

En este punto, aunque Mandelbrot no se diera cuenta, había encontrado los fractales.

Los fractales se conocen desde finales del siglo XIX , pero sólo Mandelbrot, a partir de 1973, los unió bajo una teoría coherente.

Existen tres tipos de fractales:

1-los que se obtienen como límite de convergencia o divergencia de una función recursiva (que se aplica una vez y otra sobre su resultado), como el conjunto de Mandelbrot ;

2-los que se obtienen como límite de la aplicación recursiva de una transformación geométrica, como los conjuntos de Peano o las curvas copo de nieve de von Koch y

3- los que se obtienen aplicando procese s recursivos aleatorios, como el movimiento browniano.

Los fractales han encontrado aplicaciones insospechadas en los últimos años: el estudio matemático de las formas naturales, el proceso de imá genes, la transmisión de información a la gas distancias o en ambientes de ruido ele vado (como en las cápsulas espaciales que envían imágenes desde los planetas más ale jados del sistema solar) o la teoría del caos, que estudia los sistemas cuya situación estable varía muchísimo a consecuencia de diferencias minúsculas en su estado inicial.

Benoit Mandelbrot fue miembro de la Academia Americana de Artes y Ciencias y ha recibido diversos galardones científicos.

Entre sus obras destaca The fractal geometry of nature (La geometría fractal de la naturaleza, 1977).

• El conjunto Mandelbrot

En 1975, Mandelbrot publicó Les objets fractals, un libro que establece su nueva idea de geometría fractal.

Por toda su complejidad, el concepto total gira en torno a una fórmula increíblemente simple: zi = zo2 + c.

La idea es que se repita el cálculo una y otra vez, comenzando con un valor específico de zo, y luego se reemplace zo por zi en cada cálculo posterior.

El valor c es el mismo que el original zo, y permanece inalterable en cada repetición.

Mandelbrot demostró que haciendo a c un número real, como: i, 2,3 ó 4, creaba patrones, pero lo divertido empezaba con números complejos como -1,1 y -1;38.

Si el proceso se repetía, o se cambiaba millones de veces, el número resultante está siempre entre 2 y -2.

Observando la secuencia desarrollada se demuestra que los patrones comienzan a repetirse.

Estos patrones matemáticos pueden ser representados visualmente sobre pantallas de ordenador como diseños en forma de copo de nieve siempre expandido, que dan la apariencia de revelar continuamente más y más detalles.

El grupo de números que crean el dibujo es un conjunto Mandelbrot.

La fórmula le permitió comenzar a describir figuras como la forma de una nube, una montaña, un litoral o un árbol.

Como Mandelbrot dijo en su libro La Geometría Fractal de la Naturaleza (1983):

«Las nubes no son esferas, las montañas no son conos, los litorales no son círculos, la corteza no es lisa y un relámpago no va en línea recta».

Antes de este trabajo, los matemáticos creían que la mayoría de los patrones de la naturaleza eran demasiado complejos, irregulares, fragmentados y amorfos para describirlos matemáticamente.

Pero la nueva geometría fractal de la naturaleza de Mandelbrot, basada en las cuatro dimensiones y en números complejos, era capaz de describir la mayoría de las formas amorfas y caóticas del mundo real.

• Naturaleza entre dimensiones

Si las cuatro dimensiones de la geometría han parecido un armazón trepador seguro para entretener ejercicios intelectuales, Mandelbrot estaba a punto de demostrar que el mundo real eran mucho más complejo.

Inventó el término «dimensión fractal» del adjetivo latino fractus, una palabra derivada de frangere, que significa romper, o crear fragmentos irregulares. Los fractales nos ayudan a ver la naturaleza de otra forma.

Por ejemplo, a mirar la forma irregular de una montaña y después mirar más de cerca una pequeña parte de la montaña —la misma forma básica de toda la montaña se repite de nuevo a menor escala.

Mirar más cerca todavía, y la misma forma está ahí.

Y así hasta el infinito.

Esto sucede en los cuadros creados por los conjuntos Mandelbrot, donde un número infinito de formas Mandelbrot más pequeñas se esconden en los bordes en zigzag y en espiral de todas las formas.

Fuente Consultada:
E=mc²,Las Grandes Ideas Que Formaron Nuestro Mundo de Pete Moore Editorial Lisma

Temas Científicos:

• Biografía de Cientificos Argentinos – Vida y Obra Cientifica
• Los cientificos del siglo XIX:Descubrimientos y Avances de la ciencia
• Grandes Cambios Cientificos, Tecnicos y Sociales en el Siglo XX
• Cientificos Perseguidos y Condenados por la Inquisicion o Iglesia
• Geometria Panal de Abejas Celda Hexagonal de los Panales
• Inventos Accidentales Serendipia La Casualidad en los Inventos

Enlace Externo:Fractales y Teoría del Caos (.pdf)

Records de la Aviación Civil: De Altura, Velocidad y Distancia

Primeros Records de Altura, Velocidad y Distancia de la Aviación Civil

Records de Distancia y Velocidad:

Al compás de la emulación deportiva y las ansias de superación, y mientras las máquinas se perfeccionaban, se fueron registrando marcas de las que mencionaremos las más notables de la primera época.

1921. Adriana Bolland atravesó la cordillera de los Andes, de Mendoza a Santiago de Chile.

1926. Pelletier-Doisy voló de París a Pekín en 6 días y 18 horas.

1926. Arrachart marcó el record de distancia sin escalas (París-Basora, 4.305 kilómetros) en 26 horas y 25 minutos.

1927. Pinedo voló 40.540 kilómetros en 44 etapas alrededor del Atlántico.

1930. Mariza Hilsz. Record cubriendo el circuito París-Saigón-París.

1930. Costes y Bellonte. Cruzaron por primera vez el Atlántico de París a Nueva York.

1930. Mermoz cruzó el Atlántico Sur.

1931. Balbo (al frente de una escuadrilla de aviones) atravesó el Atlántico Norte.

1931. Marisa Bastie. Batió el record para avionetas, con un vuelo de 2 889 kilómetros.

1931. Herndon y Pangborn cruzaron por primera vez el océano Pacífico de Tokio a California (7.700 kilómetros).

1932. Amelia Earhart fue la primera aviadora que atravesó sola el Atlántico.

1933. Willy Post. Gira alrededor del mundo (25.000 kilómetros) en 7 días y 18 horas.

1934. Agello señaló el record de velocidad en hidroavión con 209 kilómetros por hora.

1934. Marisa Hilsz. Vuelo París-Tokio-París.

1934. Scott y Campell Black ganaron la carrera Londres-Melbourne (18.160 kilómetros) en 2 días y 23 horas.

1934. Agello, con un avión italiano, alcanzó una velocidad de 709 kilómetros.

1935. Batten. Record sensacional, Londres Australia, en 5 días.

1938. Huguez dio la vuelta al mundo trazando un casquete boreal en menos de 80 horas, que comprendió las ciudades de Nueva York, París, Moscú, Omsk, Yakutsk, Fairbanks, Minneápolis y retorno a Nueva York.

1939. Udet (general alemán) cubrió 100 kilómetros a un promedio de 634,32 kilómetros por hora.

https://historiaybiografias.com/linea_divisoria6.jpg

PIONEROS DEL VUELO CIVIL

grandes aviadores de la historia

————-  00000 ————

lindergh, Espíritu de San Luis

Carlos Lindbergh, un muchacho norteamericano aficionado a la aviación, se propuso allá por 1927 intentar la travesía del Atlántico en su avioncito de turismo denominado Espíritu de San Luis.

Con sobrecarga de nafta que hacía peligrar el vuelo despegó del campo de Roosevelt, en Nueva York, la noche del 20 de mayo del año citado.

A propósito de su aventura se hicieron los más pesimistas comentarios. Se le tildó de loco, de inconsciente… Antes y durante su hazaña se le llamó «el tonto volador». Lo cierto fue que a la mañana siguiente, a las 22 y 24 (hora francesa), aterrizaba en el aeródromo de Le Bourget, en París.

Había cubierto la distancia entre las dos ciudades en 33 horas y 39 minutos. Asombro del mundo. Aquel aviador con cara de chiquillo pasó a ser una de las más legítimas glorias de los Estados Unidos.

————-  00000 ————

• ►RECORDS DE ALTURA:

Recordaremos también aquí las primeras marcas famosas hasta las vísperas de la guerra de 1939, pues de allí en adelante fueron vertiginosas, como veremos. Las registradas por la Federación Aeronáutica Internacional fueron:

1909. (Agosto) Latharn, 155 metros.

1909. (Octubre) Lambert, 300 metros.

1909. (Diciembre) Latharn, 453 metros.

1910. (Enero) Latharn, 1.000 metros.

1910. Paulham, 1.209 metros, en Los Angeles.

1910. Brookins, en Atlantic City, 1.900 metros.

1910. León Morand, en Francia, 2.587 metros.

Hubo cuatro records más ese año y fueron:
Henry Wijnmalen, 2.780 metros.
Drexel, 2.882 metros.
Johnston, 2.960 metros.
Legagneux, 3.100 metros.

Legagneux era francés, y Francia retuvo el record logrado ese año de las marcas de altura hasta 1913, superándolas constantemente. En efecto: Roland Garros llegó a los 5.610 metros y Edmond Perreyron a 6.000. En 1913 Legagneux batió todos los records con 6.120 metros.

Al iniciarse el año 1914, nuestro compatriota, el célebre aviador Jorge Newbery, con un aparato Morane Saulnier, logró la altura de 6.100 metros.

Desde allí hasta 1920 dejaron de registrarse las pruebas, pero la guerra obligó a los pilotos a una frenética lucha de superación, como se comprobó al reanudarse las competencias.

Veamos:

1920. Schroeder (norteamericano), 10.093 metros.

1920. MacReady (norteamericano), 10.518 metros.

1923. Sadi Lecointe (francés), 10.727 metros.

Francia retuvo el record hasta 1927, y las marcas fueron superadas como sigue:

1927. Champio (norteamericano), 11.710 metros.

1929. Souceck (norteamericano), 11.930 metros.

1929. Willi Newenhofen (alemán), 12.739 metros.

1930. Apollo Soneck (norteamericano), 13.157 metros.

1932. Cyril Uwins (inglés), 13.404 metros.

1933. Lemoine (francés), 13.661 metros.

1933. Renato Donati (italiano), 14.433 metros.

Italia retuvo el record dos años.

1936. Georges Detré (francés), 14.843 metros.

1936. Swain (inglés), 15.223 metros.

1937. Mario Pezzi (italiano), 15.655 metros.

Este record fue considerado imbatible, pero poco tardó el piloto inglés Adam en superarlo.

1937. Adam (inglés), con un Brístol 138, llegó a 16.440 metros.

Italia había perdido el record, pero lo recuperó, como se verá.

1938. Pezzi llegó a los 17.083 metros de altura.

 aviadores franceses Costes y Bellonte

Los aviadores franceses Costes y Bellonte, que el 1º de septiembre de 1930 unieron en un vuelo las ciudades de París y Nueva York.

————-  00000 ————

• ►EL VUELO POR LA ESTRATOSFERA

La resistencia del aire (y su mayor densidad en ciertos casos) conspira contra la posible velocidad de los aviones.

Por el contrario, a menor densidad es mayor la rapidez del deslizamiento.

Basado en estas observaciones, el ilustre sabio y aeronauta Augusto Piccard afirmó, en cierta ocasión, que la estratosfera, por razón de su escasa densidad, sería en el futuro la ruta del cielo donde los aviones alcanzarían velocidades fantásticas.

Claro estaba —y lo reconocía— que para ello habría que vencer primero algunos graves inconvenientes, que fueron puntualizados en «La Gazzeta dello Sport«, de Milán, por el técnico italiano S. Trevisán, «El problema del vuelo de altura —decía— es muy complicado.  Como se sabe, en el motor de explosión, la mezcla ideal requiere cierta relación entre el volumen del aire y el del carburante que la componen.

Es también sabido que no cambia en forma apreciable el aporte del carburante cuando el motor funciona a régimen normal, en tanto que se reduce notablemente el volumen del aire debido a la disminución de la densidad atmosférica. Y así, a medida que la mezcla se vuelve más rica en carburante, el motor rinde cada vez menos.

La hélice, cuyo buen desempeño ha sido calculado para funcionar en aire denso, al hacerlo casi en el vacío, en vuelos de gran altura, la acción de sus paletas resulta de muy escaso rendimiento.

La menor resistencia del aire para la marcha del avión es una ventaja que no compensa, ni con mucho, el resultado por demás deficiente del grupo motopropulsor.

También constituye la bajísima temperatura un gran inconveniente para el avión que vuela a muy elevada altura: el lubricante se torna demasiado viscoso, las barras y los cables metálicos del comando se vuelven demasido tensos, las substancias de engrasamiento se congelan, se forma hielo sobre las partes del avión expuestas al aire, etc.»

Todos estos inconvenientes fueron superados por la técnica moderna.

Los aparatos para los vuelos por la estratosfera son herméticamente cerrados y tienen dispositivos para provisión de oxígeno, además de calefacción. En cuanto al aviador, lleva un traje que constituye una coraza neumática que lo preserva del frío.

Lo cierto es que se cumplieron las predicciones de Piccard, y que los vuelos de gran distancia se efectúan por la estratosfera a velocidades vertiginosas.

hermanos piccard

Los profesores Augusto y Juan Félix Piccard, belga el primero y suizo el segundo, hermanos y compañeros de aventuras en arriesgadísimas pruebas de exploración científica.

El objetivo de sus vuelos a la estratosfera no fue otro que el de estudiar los rayos cósmicos y otros fenómenos del espacio, cuyas conclusiones fueron de enorme utilidad para la aviación.

Juan Félix insistió por largos años en esta clase de ascensiones, incluso acompañado por su esposa, en tanto que Augusto se dedicó a la exploración de las grandes profundidades del mar en una esfera de su invención.

traje para el vuelo en la estratosfera

Arriba uno de los trajes usados por los aviadores para los vuelos por las altas regiones del espacio. Adviértense en este equipo el casco protector con anteojos, la máscara inhaladora, las riendas del paracaidas y las guarniciones de la silla eyectable

turbina de un avion

 Una turbina que accionada por el gas proveniente de las cámaras de combustión proporciona una energía con infinitamente mayor regularidad  que los pistones del motor de explosión, sacudidos por un movimiento alternativo generador de molestas vibraciones.

https://historiaybiografias.com/archivos_varios5/globo-piccard1.jpg

El globo estratosférico del profesor Augusto Piccard, con el que alcanzó en 1932 una altura de más de 17.000 metros.

Temas Relacionados:

Evolucion de la Aviacion Durante La Segunda Guerra Mundial
Historia de la Aviacion Comercial Aviones Boeing 707
Los Primeros Vuelos-La Era de la Aviacion en el Siglo XX Historia
Otto Lilienthal Creador del Primer Planeador
Pedro Zanni Record de Vuelo
Historia de los Primeros Aviones de Guerra Argentinos
Lindbergh Cruzó Sin Escalas y Solo el Oceano Atlantico
MACH:Unidad Para Medir La Velocidad de los Aviones

Enlace Externo:Récord Mundial de Altitud: El «Perlan 2» hizo historia

Explotación Agricola en Europa del Siglo XIX: Economía

EL PREDOMINIO DE LA ECONOMÍA AGRÍCOLA :EN EUROPA EN EL SIGLO XIX

La Europa de principios del siglo XIX era aún una Europa campesina cuya vida económica dependía estrechamente de las fluctuaciones de sus principales producciones agrícolas.

La ausencia de excedentes mantenidos limitaba el desarrollo de las ciudades, que permanecían muy ligadas al campo.

Las frecuentes malas cosechas de cereales, patatas, legumbres, ocasionaban grandes subidas de precio.

Las crisis estacionales o anuales, engendradas por las malas cosechas o por la deficiencia de las relaciones comerciales y de los medios de transporte, se conjugaron a partir de 1817 con una larga etapa de depresión y de hundimiento de los precios, que sucedió al favorable período precedente.

LA POBLACIÓN:

A partir de 1801, la población mundial ha crecido con más rapidez que nunca.

Sólo en el siglo XIX se duplicó con creces; la anterior duplicación tardó cuatro veces más.

Desde el siglo XVII la curva de crecimiento se ha ido haciendo cada vez más empinada.

Sin embargo, las cosas no son tan sencillas como parece deducirse de esta imagen general.

Algunos países han crecido con más rapidez que otros, y lo mismo puede decirse de los continentes.

El resultado ha sido un cambio en el orden de las naciones, atendiendo a su número de habitantes.

Empecemos por Europa: en 1801, Francia reunía bajo su bandera más habitantes que ningún otro país al oeste de Rusia; en 1914 ocupaba la cuarta posición, por detrás de Alemania, Austria-Hungría y Gran Bretaña.

El crecimiento de los Estados Unidos fue aún más rápido: en 1900 sus habitantes habían ocupado ya todo el continente (que en 1801 aún seguía inexplorado en gran parte) y su número había ascendido de 6 a 76 millones, lo que representa un aumento del 1.150 por 100.

Se dispone  de   información   mucho   más completa y exacta acerca de los países de Europa y América que de los de Asia y África; no obstante, parece comprobado que la población creció en todas las partes del mundo durante el siglo XIX: en China, por ejemplo, el aumento superó el 40 por 100, llegándose a los 475 millones; Japón pasó de unos 28 millones a unos 45, y la India de 175 a 290 millones. Se trata, en todos los casos, de incrementos muy grandes.

LA AGRICULTURA CONTINUA PREDOMINANDO

Salvo algunas excepciones, los métodos de explotación agrícola permanecían anticuados, ya que la mayoría de los grandes propietarios se desinteresaron de ello y no trataron de aumentar sus rentas por medio de la comercialización de sus productos.

En cuanto a los pequeños cultivadores, sin instrucción, apartados de la escena política por los regímenes censatarios, no disponían de capital suficiente para introducir innovaciones.

agricultura en europa

Falta de abono, la tierra se convertía en  barbecho  cada   tres   años;   falta   también de maquinaria (se sembraba a mano, se trillaba con el mayal, se segaba con la hoz), una gran parte del suelo se desperdiciaba y los rendimientos obtenidos eran muy escasos.

El desconocimiento de los métodos de conservación de la carne, el estado de los animales, desnutridos y sujetos a epidemias, impedía toda explotación ganadera racional, utilizándose el ganado, sobre todo, para los trabajos agrícolas.

Las crisis de subsistencias probaba trágicamente que el destino de millones de  hombres  dependía aún de las cosechas  de   trigo;   por  eso la agricultura estaba orientada hacia los productos de más corriente consumo, y, en pri mer lugar, hacia los cereales, como el trigo el centeno, la cebada, la avena y el alforjón.

La ausencia  de  excedentes  obligaba  a  las diferentes naciones e incluso a las regione: a  vivir  replegadas  sobre  sí  mismas.

Unicamente  los   productos   exóticos   (especias café) daban lugar a un tráfico importante.

Sin embargo, este medio siglo conoció ciertos progresos agrícolas, de los que Inglaterra fue la principal beneficiaria.

Más  adelantada que sus vecinos, había experimentado, desde el siglo XVIII , nuevos métodos; 2.000 lores, propietarios del tercio de la superficie cultivable, transformaron hectáreas de tierra de labor en fértiles praderas, en las que practicaron una ganadería moderna con selección de razas (la raza Durham llegó a ser la primera de Europa).

Los decretos para la formación de «acotados» (reunión de tierras rodeadas por vallas), concluidos en 1840, los «cornlaws», leyes que prohibían la entrada de trigos extranjeros, habían enriquecido   a   estos   grandes   propietarios que llevaron a cabo una verdadera revolución sustituyendo el barbecho por el cultivo de plantas herbáceas, de trébol, de alfalfa y otras análogas, alternando con los cereales; la utilización de los abonos (cal, guano, fertilizantes industriales descubiertos por Liebig), la mejora de los arados, la desecación de los pantanos, reforzaron esta revolución agraria.

Las Corn Laws fueron aranceles a la importación para apoyar los precios del grano británico doméstico contra la competencia de importaciones, vigentes entre 1815 y 1846.

PEQUEÑAS PROPIEDADES Y GRANDES DOMINIOS:

Además  del  tipo inglés (que acabamos de ver mas arriba),  se podían  distinguir otras dos modalidades  de  agricultura en Europa.

Una de ellas predominaba en Francia, Países Bajos, Suiza y norte de Italia; la supresión de las servidumbres señoriales   había   emancipado   jurídicamente   al campesinado, pero éste, dueño en su inmensa mayoría, de pequeñas o medias propiedades, vegetaba y se mantenía gracias a la supervivencia de las prácticas comunales y a la ayuda de trabajos artesanos.

Sin embargo, en estos países fueron realizados importantes   trabajos   de  desecación   (particularmente en Holanda, donde los «polders» alcanzaron una gran extensión) que permitieron acrecentar la superficie cultivable.

El rercer tipo de agricultura, el de los grandes dominios   señoriales,  reinaba  en  la  mayor parte de Europa; en el sur de Italia y en Toscana, la aristocracia terrateniente practicaba el absentismo, dejando a los administradores el cuidado de ocuparse de sus inmensas propiedades, y éstos las hacían explotar por los jornaleros a los que apenas les quedaba para vivir.

Los grandes propietarios españoles practicaban también la aparcería; pero tenían que hacer frente a la Mesta, poderosa asociación de ganaderos que monopolizaba inmensas extensiones de tierras, oponiéndose al desarrollo de la agricultura.

En Prusia y en Europa Oriental, las reformas napoleónicas fueron abandonadas después de Waterloo y los campesinos tuvieron que devolver a los nobles el tercio de sus tierras, cayendo nuevamente en un estado de semi-servidumbre.

Sin embargo, algunos pequeños hidalgos prusianos intentaron modernizar sus posesiones siguiendo el ejemplo de los lores ingleses.

Por último, en Rusia, la tierra estaba en manos de la corona y de los nobles; una parte de sus inmensos dominios era explotada directamente, y la otra repartida en parcelas entregadas a las familias de los siervos a cambio de los servicios que prestaban trabajando las tierras de su señor.

Rusia era entonces la mayor exportadora de trigo de Europa, pero las exportaciones se hacían en detrimento de la población, que vivía en condiciones miserables.

Esta oposición entre la Europa Occidental y los países orientales, próximos todavía a las estructuras feudales, había de durar hasta nuestros días.

La Era Capitalista:Desarrollo De La Ciencia e Inventos En Europa

LA ERA CAPITALISTA EN EUROPA: EVOLUCIÓN TECNOLÓGICA Y DESARROLLO CIENTÍFICO

A partir del siglo XIX se inician un par de transformaciones que renovaran la economía, la sociedad y la política de todo Europa.

Estas dos destacadas transformaciones son la Revolución Industrial y la Revoluciones Burguesas ocurridas entre 1820 y 1848.

La primera cambió la forma de producir y de organizar la economía de ese momento, estableciendo un sistema capitalista que se extendió a nivel mundial.

Y la segunda se refiere a los movimientos revolucionarios que luchaban por una sociadad mas justa, con mas libertad y sobre todo participación en la política, que culminaron con las ideas liberales como principio rector de la vida social, de esta manera nacía el liberalismo político y económico.

El siglo XIX estuvo caracterizado por una serie de inventos y descubrimientos en todas las ramas de la ciencia que mejoraron la calidad de vida de la gente.

La década de 1830, por ejemplo, estuvo marcada por un extraordinario despegue industrial.

En el sector alimenticio se aplicaron por primera vez los descubrimientos del francés Appert sobre las conservas, lo que permitió guardar productos vegetales y cárnicos en envases protegidos del paso del tiempo y la humedad.

Otros inventos se perfeccionaron en la segunda mitad del siglo, como la fotografía, en base al trabajo de Daguerre (1939) y más tarde de Niepce.

La máquina de coser, inventada por el francés Thimonnier en 1830, revolucionó la economía doméstica al poner al alcance de las familias la confección de su propia vestimenta.

En materia de comunicaciones el progreso fue muy importante ya que en el lapso que va de 1837 a 1897 se inventaron nada menos que el telégrafo (Morse), el teléfono (Bell y Gray), el fonógrafo (Edison) y la telegrafía sin hilos (Marconi).

La expectativa de vida mejoró con los avances de la medicina.

En 1846 se empezó a utilizar por primera vez la anestesia empleando éter (Morton) en 1848 se realizó la primera operación de apéndice (Haucock); en 1861 se aplicó la profilaxis en las fiebres pauperales (Semmelweis); en 1867 el tratamiento antiséptico de las heridas (Lister); y en 1893 se descubrió el suero antidiftérico (Behring).

Los avances en otras ciencias contribuyeron, asimismo, a la calidad sanitaria, como el descubrimiento de los rayos X (Rontgen), las leyes de la herencia (Mendel) y la síntesis de la urea (Wóler), entre otros.

La Revolución Industrial dio origen a una nueva forma de organizar el trabajo: el trabajo fabril; a un nuevo tipo de trabajador: el obrero industrial; y a una nueva forma de organización económico-social: el capitalismo.

El capitalismo surgió luego de una sucesión de grandes y profundos cambios sociales y económicos que se produjeron en el campo y en las ciudades.

El trabajo asalariado se difundió en las ciudades en las que se desarrollaba la industria y también en las zonas rurales en las que la producción agropecuaria se destinaba al mercado.

Sin duda el capitalismo significó para el hombre un camino de progreso, pero al mismo tiempo llevó a la formación de una sociedad dividida en clases sociales con intereses contrapuestos.

El conflicto más profundo fue el que se planteó entre la burguesía, propietaria de los medios necesarios para la producción, como las industrias, la tierra, las herramientas, y los obreros, que no disponían de bienes ni de tierras ni de herramientas, y que lo único que podían hacer para subsistir era vender su fuerza de trabajo.

revolucion industrial en europa

Hacia la primera mitad del siglo XIX, el capitalismo se consolidó en Europa occidental y los cambios que había introducido la Revolución Industrial se extendieron por otros países del continente europeo y los Estados Unidos.

La burguesía se consolidó como clase y fue protagonista de importantes revoluciones —1830, 1848— e impuso al mundo sus ideas, valores e instituciones de corte liberal.

Pero este mundo burgués fue también un mundo de fuertes conflictos sociales. Junto a la próspera burguesía, en las ciudades industriales el número de obreros organizados crecía cada vez más: reclamaban por mejores condiciones de vida y mejores salarios.

El progreso y la miseria fueron las principales características de esta época.

La industrialización cambió de forma radical el mundo.

Las nuevas fuentes de energía condujeron a la mecanización y surgieron nuevas formas de comunicación y transporte.

Varios factores provocaron el avance de la industrialización en el siglo XIX.

En Europa, la consolidación de grandes imperios, como el británico, conllevó mayores oportunidades comerciales.

La ampliación de los mercados de exportación alentó un aumento de la productividad, como resultado de la cual comenzaron a aparecer grandes fábricas modernizadas.

En Gran Bretaña, el ritmo del desarrollo industrial se había acelerado durante el siglo xvm, cuando el imperio alcanzó su extensión máxima.

Explica John M. Roberts en su libro: «Historia Universal Ilustrada«: ¿Qué entendemos por «industrialización»?.

Por lo general, suele interpretarse como producción organizada a gran escala, con mucha gente trabajando junta.

Pero el sentido común nos dice que debemos excluir de la definición la agricultura, a pesar de que a menudo se ha practicado con gran número de operarios en una misma finca —los siervos en Europa oriental o los esclavos en las plantaciones, por ejemplo—, y también el comercio, que se ocupa del intercambio de mercancías, y no de su producción.

¿A qué nos referimos, pues, cuando hablamos de industrialización en el contexto de la historia de la humanidad?.

Una posible definición sería «el proceso que conduce a una sociedad que cada vez resulta más dependiente de la industria fabricante de artículos y menos del comercio o la agricultura».

• LA MÁQUINA A VAPOR:

En 1765, el inventor inglés James Watt construyó un modelo de máquina de vapor.

Cuatro años después, en 1769, construyó su primera máquina de vapor.

El invento halló muy pronto aplicación en las empresas de Inglaterra.

En 1780, en Birmingham funcionaban 11 máquinas de vapor, on Leeds 20, y en Manchester 32.

La invención de la máquina de vapor marcó una nueva otapa de la revolución técnica.

Juntamente con la máquina de vapor entra en escena la ciencia.

En su forma mas simple el vapor utiliza agua hirviendo para producir vapor a presión. Este vapor hace presión contra una turbina o un pistón y fuerza su movimiento, y ese movimiento acciona las ruedas del motor.

Pese a haberse inventado ya en 1698, el accionamiento por vapor experimentó diversos refinamientos hasta poder ser usado para accionar el primer barco en 1802.

Las modificaciones más importantes del motor de vapor las realizó el escocés James Watt.

Nacido en 1732, Watt consagró su vida a mejorar el motor de vapor.

De hecho, de no haber realizado los cambios que realizó, el motor de vapor no habría podido impulsar la Revolución Industrial.

Watt ideó la cámara separada en la que se condensaba el vapor y gracias a la cual el motor tenía una mayor eficacia; y también inventó el barómetro o indicador de presión, y la manivela y el volante que provocaron el movimiento rotatorio.

Fue un motor de Watt el que impulsó el barco experimental Clermont aguas arriba por el río Hudson en 1807.

————-  00000 ————

maquina newcomen a vapor

La bomba de vapor, empleada para suministrar energía a molinos y fundiciones, la inventó Newcomen en 1712, pero no resultó práctica hasta que james Watt perfeccionó en 1791.

Esta enorme máquina, basándose en el diseño de Newcomen pero eliminando la mayoría de sus inconvenientes para poderla emplear para impulsar maquinaria.

Un elemento fundamental de la máquina era el regulador, que mantiene constante la entrada de vapor, sea cual sea la carga.

————-  00000 ————

• LOS TRIUNFOS DE LA CIENCIA

Fue en el siglo XIX cuando las ciencias llegaron a ocupar un lugar preponderante en la civilización de la Europa Occidental.

Los sabios no fueron ya aficionados, sino profesores e investigadores que se especializaban, publicaron sus trabajos, confrontaron sus métodos de razonamiento y de experimentación.

Descubrimientos matemáticos importantes fueron el origen de un desarrollo general en las otras disciplinas científicas: el alemán Gauss, profesor de la Universidad de Gottinga, puso las bases del cálculo de probabilidades; en Francia, Lagrange hizo progresar el estudio de la mecánica, Monge creó la geometría descriptiva, Laplace demostró la estabilidad del sistema solar, Arago determinó la medida del meridiano.

Sus sucesores Cauchy y Evaristo Galois (que murió a la edad de 21 años, a consecuencia de un duelo) fueron los promotores de la nueva álgebra y de las matemáticas puras. Noruega tuvo en Abel su gran matemático. (Ver: Matemáticos y Físicos)

Estos descubrimientos fueron directamente aplicados a la astronomía; Arago logró medir el diámetro de los planetas; Verrier, basándose en cálculos, estableció la existencia de un nuevo planeta, Neptuno, que un astrónomo berlinés, Gall, descubrió muchos años después, con la ayuda de un telescopio.

Varios descubrimientos esenciales revolucionaron la física: refutando todas las afirmaciones anteriores, el óptico Fresnel demostró que los fenómenos luminosos eran debidos a la propagación de las ondas vibratorias.

A la sombra del viejo Berthollet, Biot y Arago hicieron las primeras medidas precisas relativas a la densidad del aire; el mismo año, Gay-Lussac descubrió las leyes de la dilatación de los gases y estudió la composición de la atmósfera.

Por su parte, Carnot definió en un largo estudio las primeras leyes de la termodinámica.

Los progresos más ricos en consecuencias fueron realizados en el campo de la electricidad: en 1800, los italianos Galvani y Volta construyeron a primera pila; el danés Oersted descubrió la acción de la corriente eléctrica sobre una aguja imantada, y el francés Ampére definió las leyes del electromagnetismo.

El inglés Faraday y el americano Henry establecieron la noción de la inducción, y el alemán Ohm expuso su teoría matemática de la corriente eléctrica.

Estos descubrimientos permitieron el empleo del telégrafo eléctrico (dispuesto por Steinheil y Morse), que funcionó en Francia y en Inglaterra hacia los años de 1840.

Los progresos de la química revistieron el mismo carácter internacional: gracias al inglés Davy y al sueco Berzelius, la pila eléctrica fue utilizada para el análisis de los cuerpos; la electrólisis permitió así aislar nuevos cuerpos simples: el potasio, el sodio, el magnesio, el cromo, aislados por el francés Vauquelin, el yodo y el aluminio por el alemán Woehler.

La química orgánica hizo importantes progresos gracias al francés Chevreul, autor de un estudio sobre los cuerpos grasos naturales, y al alemán Liebig, que creó un centro de estudios sobre los ácidos orgánicos, la fermentación y la descomposición de las materias, y realizó trabajos sobre la aplicación de la química en la agricultura.

Por último, el inglés Dalton y el italiano Avogadro concluyeron las primeras teorías del átomo.

Dos aficionados, el ofi cial Niepce y el pintor Daguerre, estudiaron la fijación de las imágenes luminosas obtenidas en la cámara oscura; en 1839, el inglés Talbot realizó las primeras fotografías en papel; seis años después, Niepce de Saint-Víctor inventó la fotografía sobre vidrio.

Los biólogos se dedicaron al estudio de la célula, elemento fundamental de los tejidos, descubierta, en 1830.

Bichat y Laennec modernizaron los métodos de la medicina, y el descubrimiento de los anestésicos permitió a la cirugía dar un gran paso adelante.

Gracias a un estudio detallado de las rocas, los geólogos reconstruyeron las principales etapas de la evolución de la corteza terrestre.

Cuvier, partiendo de la observación de los fósiles, lanzó las bases de la paleontología, ayudado por sus discípulos Dufrenoy y Elie de Beaumont.

Estos últimos se convencieron de la estabilidad de las especies después de su creación; los descubrimientos de Boucher de Perthes sobre el hombre prehistórico  pusieron  en  discusión sus conceptos sobre el origen del mundo.   Lamarck y  Geoffroy   Saint Hilaire   se instituyeron, contra Cuvier, en campeones del transformismo, es decir de la evolución de las especies bajo el efecto de los cambios de ambiente y de herencia.

Esta teoría parecía  incompatible  con la  enseñanza  de la Iglesia y dio lugar a una larga controversia entre la ciencia y la religión.

La investigación científica no descuidó la historia; atendió sobre todo, a las civilizaciones del pasado:   Champollion descubrió  el  significado de los jeroglíficos de Egipto, fundando así la egiptología; en Mesopotamia y en Grecia   fueron   emprendidas   excavaciones, fundándose  en  ésta  última  la   escuela  de Atenas.

Con la escuela de Diplomas, los investigadores franceses se dedicaron a un estudio sistemático del pasado de su país, y los sabios italianos multiplicaron las excavaciones   para   exhumar  los   innumerables vestigios de la civilización romana.

Las ciencias habían abandonado definitivamente el campo del empirismo y tomado una extensión que iba a provocar una nueva revolución industrial, prodigiosamente acelerada, hacia finales de siglo.

————-  00000 ————

La revolución industrial  vino acompañada de una explosión tecnológica que trajo grandes avances en el transporte (el automóvil y el aeroplano), las comunicaciones (el teléfono y las señales inalámbricas) e incluso el ámbito doméstico (la bombilla y el gramófono). En las ciencias, el naturalista británico Charles Darwin transformó el modo de concebir el mundo con la Teoría de la Evolución.

————-  00000 ————

LA TECNOLOGÍA APLICADA A LOS MEDIOS DE COMUNICACIÓN:

Los Caminos: Al ampliarse la producción y el mercado de venta, se necesitaban medios de comunicación más perfectos. Aún antes de comenzar la revolución industrial, los caminos no satisfacían las necesidades de la población.

Según testimonios de los contemporáneos, eran «molestos, malos, y dignos tan solo de ser destruídos» Por ellos transitaban penosamente, como mil años atrás, únicamente bestias de carga.

Los transportes eran lentos y sumamente caros.

Entre Inglaterra y Escocia, en general, no había comunicación regular.

De Londres a Oxford se tardaba no menos de dos jornadas, y las cargas requerían más de tres semanas para llegar a Liverpool.

La etapa inicial de la revolución industrial está relacionada con la intensificación de la construcción de caminos.

Sólo en el quinquenio de 1769 a 1774, el Parlamento votó más de 450 decretos sobre la construcción de nuevos caminos o mejoramiento de los viejos.

Con el mejoramiento de los caminos, la velocidad de las comunicaciones comerciales aumentó a más del doble.

A partir de 1756 aparecieron las comunicaciones postales y de viajeros regulares entre Londres y Edimburgo.

Las bestias de carga fueron sustituidas en casi todas partes por las carretas.

Sin embargo, para la conducción de cargas voluminosas y pesadas, el transporte terrestre continuaba siendo muy caro e incómodo.

Surgió la idea de sustituir los caminos por las comunicaciones fluviales.

La construcción de canales comenzó a principios de la segunda mitad del siglo XVIII.

En 1755 fue construido un canal de 11 millas de longitud entre Liverpool y Manchester.

Como consecuencia de la apertura del canal, los gastos en el transporte de mercancías se redujeron a la mitad.

En 1766 se abrió un canal de 29 millas.

A fines del siglo XVIII, el Gran Canal de Unión comunicaba a Londres con las ciudades del centro de Inglaterra.

Hacia 1825, la red de canales alcanzó 500 millas de longitud

A principios de la década del 40 del siglo XIX, Inglaterra disponía de 2.200 millas de canales y de 1.800 millas de ríos navegables.

En Unos 30 años el país se cubrió de todo un sistema de canales, abiertos preferentemente en los condados del centro y del norte del país.

Todos los canales los construyeron particulares, dueños de grandes manufacturas o magnates de la industria.

Pero la verdadera revolución en los medios de transporte está relacionada con la aplicación del vapor y la invención de la locomotora y el barco de vapor.

En el primer cuarto del siglo XIX, los veleros comenzaron a ser sustituidos por los vapores, y las torpes y pesadas diligencias por los ferrocarriles.

puentes y canales en la revolucion industrial

El primer vapor se botó en 1807 en el río Hudson, en Norteamérica.

Su inventor y constructor fue Kobert Fulton.

En Gran Bretaña, el primer vapor se construyó en 1811.

En 1816 un vapor cruzó por primera vez el Canal de la Mancha.

Tres años después, en 1819, el vapor norteamericano Savannah hizo el primer viaje entre el Nuevo y el Viejo Mundo, cruzando el Atlántico en 25 días, o sea en 6 días más que los barcos de vela.

En 1842, el vapor inglés Drover realizó el primer viaje en derredor del mundo.

Hasta entonces sólo los barcos de vela habían circundado el globo.

En los primeros tiempos, la navegación a vapor fue más letita que la de vela y resultaba más cara; muchos comerciantes y empresarios no querían utilizarla, pero los más sagaces no tardaron en darse cuenta de sus ventajas en un futuro próximo.

Todavía la mayor trascendencia fue la construcción de los ferrocarriles.

El Ferrocarril: La aparición del ferrocarril fue esencial para el éxito de la industrialización.

En Gran Bretaña funcionaba desde antes del siglo XIX una forma rudimentaria de ferrocarril: desdelas bocaminas y las canteras, unos vagones tirados por caballos transportaban el carbón por medio de unas sencillas vías fabricadas con piedra y hierro.

La invención del motor a vapor fue el catalizador del cambio.

En 1804, un minero de estaño de Cornualles, Richard Trevithick, enganchó un motor a vapor a un vagón de una mina. Inspirado por esta acción, George Stephenson creó su Rocket, la primera locomotora móvil capaz de tirar de vagones.

primera linea de ferrocarril

La primera línea de ferrocarril enlazó Liverpool con Manchester en 1830, y tras ella se desató un boom de la construcción ferroviaria.

A partir de 1850, el Estado británico tuvo que intervenir para estandarizar el ancho de vía, que hasta entonces había sido variado.

Esta intervención dotó a Gran Bretaña del primer sistema de transporte ferroviario nacional totalmente operativo.

El ferrocarril fue ampliándose por toda Europa, uniendo las regiones y comunidades más aisladas y contribuyendo a la integración económica.

Desde el descubrimiento de nuevas rutas marítimas en los siglos quince y dieciséis, los mares unieron a los continentes en lugar de separarlos.

Con el aprovechamiento de la energía del vapor en el siglo dieciocho, los barcos cubrieron con rapidez esas distancias, o por lo menos lo hicieron a un ritmo más constante y confiable.

Al ponerle ruedas a la máquina de vapor, la revolución del transporte terrestre no se hizo esperar.

Vapores en los puertos:

La máquina de vapor, que primero se empleaba para bombear agua de las minas de carbón y estaño, llegó a ser el artefacto más importante de la Revolución Industrial.

Esta fuente de energía alimentada por carbón fue adaptada con éxito a la propulsión de barcos, a comienzos del siglo diecinueve.

El norteamericano Robert Fulton construyó en 1807 un barco de vapor, el Claremont, que funcionó.

Por la misma época, el inglés Patrick Bell construía a su vez un barco similar.

Al principio, el vapor fue considerado útil en los viajes por ríos o canales, pero hacia la década del 30 los barcos de vapor realizaban ya viajes transoceánicos.

Los buques de vapor, o vapores, que no dependían de los vientos favorables, podían ajustarse a horarios, lo cual nunca había ocurrido antes.

En consecuencia el comercio internacional se incrementó con rapidez.

El vapor, más que la vela, intercomunicó pronto vastos imperios como el británico.

Hacia 1880, el motor de vapor propulsaba casi todo tipo de barcos: de guerra, de carga y de pasajeros.

Las armadas movidas por vapor exhibían acorazados más armados y más blindados que nunca en toda la historia.

barco movido a palas

Automóviles: La historia del automóvil comenzó en 1885, con la aparición de la primera máquina movida por un motor de combustión interna.

Nueve años después, un inventor francés llamado Panhard construyó un vehículo de cuatro ruedas, fácilmente identificable como antepasado del automóvil moderno.

Durante la siguiente década se construyeron automóviles en Francia y Alemania, que servían como juguetes para los ricos.

Este período puede considerarse como la prehistoria del automóvil.

Su verdadera historia comenzó en 1907 en los Estados Unidos, cuando Henry Ford empezó a producir en serie su Modelo T, mucho más barato que ningún otro coche construido hasta la fecha.

Ford estaba dispuesto a atraer a un mercado de masas, y sus primeros modelos costaban sólo 950 dólares.

En veinte años, gracias al enorme éxito obtenido, pudo rebajar el precio a menos de 300 dólares.

La demanda aumentó con tal rapidez que en 1915 Ford producía ya un millón de coches al año; esto significaba que lo que antes era un lujo se había convertido en un artículo corriente.

De este modo, Ford cambió el mundo; a partir de entonces, incluso las personas con ingresos modestos podían disfrutar de una movilidad impensable incluso para los millonarios de cincuenta años antes.

auto antiguo de 1894

Una revista francesa patrocinó en 1894 una carrera para vehículos automáticos de Varis a Ruán.

Los vencedores fueron dos vehículos de gasolina de las firmas Panhard.

A consecuencia de esta carrera, la industria accedió a respaldar financieramente a los inventores.

————-  00000 ————

El tendido de cables:

Samuel Finley Bréese Morse, artista e inventor norteamericano, produjo la primera aplicación práctica masiva de los impulsos electromagnéticos, al inventar el código Morse en 1837.

Siete años más tarde envió un mensaje instantáneo que rezaba: «¡Lo que hubiera fraguado Dios!», por una linea telegráfica que iba de Baltimore a Washington D.C. ¿Qué quería decir con ello? Se trataba de una expresión de admiración respetuosa.

Para la época, el telégrafo era una novedad inimaginable, tan importante y sorprendente como es hoy Internet.

Los cables no tardarían en extenderse en todas direcciones por los países industrializados de Europa occidental y Norteamérica, para llegar luego a las más remotas regiones del globo.

Hablar por teléfono:

Alexander Graham Bell, un terapeuta de la fonoaudiología, se interesó en el sonido y la comunicación junto con la tecnología telegráfica (consultar la sección anterior sobre el telégrafo), y construyó un teléfono experimental en 1876.

Bell, inmigrante escocés a Estados Unidos, produjo y comercializó los aparatos y fundó además Bell Telephone Company.

A comienzos del siglo veinte el teléfono no era ya una novedad y se había tornado en una comodidad diaria.

El envió de ondas radiofónicas:

A finales del siglo diecinueve, Guglielmo Marconi, inventor italiano, demostró que las ondas de radio podían servir para enviar señales sin necesidad de cables.

Los escépticos pensaban que las ondas de radio no podían recorrer distancias lo suficientemente grandes para ser de utilidad.

Marconi, que vivía y trabajaba en Inglaterra, probó que estaban equivocados enviando una señal en código Morse a 14,5 kilómetros de distancia, a través del canal de Bristol.

En 1901 envió una señal a mucho mayor distancia: a través del océano Atlántico, desde Cornualles (situada en la punta suroccidental de la principal isla de Inglaterra), hasta Newfoundland, en Canadá. Marconi ganó el premio Nobel de física en 1909.

Los Zepellin:

Durante mucho tiempo —quizá miles de años— los hombres han soñado con poder volar.

En el siglo XVIII empezaron a hacerlo: los hermanos Montgolfier realizaron su primera ascensión en globo en 1783.

Durante muchos años, los únicos agentes capaces de elevar el artefacto eran el aire y el gas calientes producidos al quemar materiales directamente debajo del globo, de ahí que se los llamara «globos de aire caliente».

En el siglo XIX, las «máquinas más ligeras que el aire» (una denominación curiosa, puesto que en realidad eran más pesadas, y lo único más ligero era el agente elevador) empezaron a utilizar gases como el hidrógeno, que no necesitaban calentarse.

El tamaño y la forma de los aparatos fue cambiando, ya que se pretendía que sirvieran para algo más que el mero flotar a capricho del viento.

Los primeros «dirigibles» verdaderos —es decir, aparatos que se podían guiar— aparecieron cuando surgió el motor de combustión interna y pudieron abandonarse los extravagantes experimentos realizados hasta entonces con grandes remos e incluso velas. (Ver: Historia de los Zepellin)

Primeros Vuelos en Aviones:

(Ver: Los Hermanos Wright)

globo zepellin

El dirigible Zeppelin Sachsen aterrizando en el aeropuerto de Mockaa en 1913.  Estas aeronaves funcionaban con hidrógeno, un gas muy inflamable, con constante riesgo de incendio.

Fuente Consultadas:
Todo Sobre Nuestro Mundo Christopher LLoyd
HISTORAMA La Gran Aventura del Hombre Tomo X La Revolución Industrial
Historia Universal Ilustrada Tomo II John M. Roberts
Historia del Mundo Para Dummies Peter Haugen
La Revolución Industrial M.J. Mijailov

Temas Relacionados

Historia del Inodoro o Retrete
Grandes Inventos Uso Diario o Domestico
La Era Capitalista El Desarrollo De La Ciencia e Inventos En Europa
Inventos Argentinos Inventores Descubrimientos en Argentina
Los Inventos Chinos Mas Destacados: Porcelana, la Seda y Arado
El Acero Inoxidable Importantes Inventos en la Siderurgia
Lista Cronologica de Grandes Inventos de la Historia
Inventos Accidentales Serendipia La Casualidad en los Inventos
Historia del Cierre o Cremallera

Enlace Externo:• La era del capitalismo

Historia de la Industria Aeronáutica Argentina Pucará, Pampa

Historia de la Industria Aeronáutica Argentina Pucará, Pampa,Pulqui

Luego de que la industria aeronáutica sufriera varias derrotas en lo económico, estratégico y político, resulta difícil imaginar que la Argentina haya ocupado el sexto puesto a nivel mundial en la construcción de aviones de reacción con tecnología propia.

Sin embargo, la industria aeronáutica supo ser una pujante industria motorizada por una política que consideró a las actividades técnico-científicas como recurso estratégico para el país.

En 1912, juntamente con la creación de la aviación militar, algunos civiles enamorados de estas máquinas, movidos por el fervor y la pasión de sus sueños.

Comenzaron tímidamente y con escasos recursos el montaje de talleres aeronáuticos de donde surgieron atrevidas construcciones de aeroplanos.

Durante ese período se elaboraron montantes, costillas, alas y fuselajes completos, que se tradujo en la fabricación de aeronaves completas para la exportación al Uruguay.

Su nombre significa flecha en lengua mapuche y hace alusión al original diseño de sus alas.

Su fin militar era el de un caza interceptor.

La construcción del Pulqui fue de gran importancia como medio de estudio para el diseño de otros aviones a turbina que culminó en la producción del “Pampa” en 1980.

Cuando se construyó el prototipo la fábrica tenía alrededor de 15.000 empleados.

Pero la base de la industria aeronáutica argentina se consolida con la creación de la Fábrica Militar de Aviones en 1927 de la mano del talentoso Ing. Aer. My. Francisco de Arteaga en la ciudad de Córdoba.

Allí se construyeron, años después, una gran cantidad de aviones como los emblemáticos Calquín, Huanquero, Guaraní-GII, Pucará, Pampa, como así también los motores a partir de los lingotes de metal provistos por nuestras fábricas metalúrgicas.

Para ello, el Ejército y la Marina de Guerra enviaron, además de civiles, a numerosos oficiales a Europa y EE.UU. para capacitarse en afamados institutos aerotécnicos.

De este modo, se fue forjando un nutrido grupo de especialistas que dieron sus frutos de acuerdo a una acertada política de incorporación a las actividades técnico-científicas.

La pujante industria aeronáutica de entonces y la colaboración (vislumbrada estratégicamente) universitaria.

Naturalmente, esta política no convenía a los intereses extranjeros, que desencadenaron una campaña sistemática contra la industria nacional, aprovechando cualquier incidente aeronáutico para crear un estado de incomprensión.

Esta fábrica se vio en la necesidad de reforzar aún más la fabricación de aeronaves enteramente nacionales, a tal punto que las aeronaves militares eran proporcionadas a pilotos civiles para su instrucción demostrando así la valía del producto argentino.

Todas las aeronaves fueron diseñadas y construidas con materiales propios y personal argentino especializado, prescindiendo entonces de regalías y licencias, que sin embargo todavía eran necesarias para la fabricación de los modelos extranjeros.

Habida cuenta de todos esos progresos alcanzados, la industria aeronáutica nacional llegó a un estado de madurez avanzado que permitió a dicha fábrica transformarse en un centro experimental aerodinámico y de construcciones, a la par de los institutos de Italia, EE.UU., Inglaterra, Francia y Alemania.

Precisamente, se apuntaba a lograr la independencia tecnológica.

Con este impulso, se funda en 1943 el Instituto Aerotécnico, que abre una nueva página en la historia de la aviación argentina con la creación en 1947 del Pulqui I y el Pulqui II, el primer avión de reacción, de diseño propio producido fuera del grupo de las grandes potencias.

Del Pulqui II se llegaron a fabricar 5 unidades prototipo que se convirtieron en los primeros aviones de reacción para combate en el continente, anticipándose incluso a los F-86 de EE.UU. de iguales características.

La “fábrica”, como se la llegó a denominar con el correr de los años, adquirió reconocimiento internacional.

Colocá a la Argentina en el 6to. puesto a nivel mundial en materia de aviones de reacción con tecnología propia después de Alemania, Inglaterra, Estados Unidos, Rusia y Francia.

Dichos avances tuvieron como telón de fondo al primer y segundo gobierno peronista que con el apoyo de destacados profesionales argentinos (ingenieros, proyectistas, dibujantes, técnicos, operarios, y otras especialidades), contrata a técnicos y científicos alemanes, italianos y franceses para desarrollar la industria aeronáutica y también la investigación nuclear.

Movido por sus aspiraciones de crear un automóvil nacional, Perón funda en 1951 la Fábrica de Motores y Automotores (FMA).

Al año siguiente el Instituto Aerotécnico es reemplazado por las Industrias Aeronáuticas y Mecánicas del Estado (IAME) y quedan unidas ambas especialidades, aeronáutica y automotores, aprovechando de este modo la enorme experiencia de la primera para aplicarla a la industria de vehículos.

Así, de la mano de la aeronáutica, surge una industria automotriz enteramente nacional a cargo de la división mecánica con sede en dos Plantas de Córdoba, donde también se radicaron la IKA (Industrias Kaiser Argentina) y FIAT (Fábrica Italiana de Automotores de Turín).

Luego, el gobierno de la Revolución Libertadora desmiembra la IAME reemplazándola por la DINFIA de aeronáutica por un lado, y a la FMA dedicada exclusivamente a la fabricación de motores para vehículos terrestres por las Industrias Mecánicas del Estado (IME), clausurada en 1979 por el entonces ministro de economía Martínez de Hoz.

La DINFIA, rebautizada con el correr de los años como Fábrica Militar de Aviones (FMA) es privatizada en julio de 1995 por el entonces presidente Menem, quien otorgó la concesión y explotación de dicha fábrica a la empresa estadounidense Lockheed Martin Aircraft.

Estos últimos hechos conformaron el golpe de gracia definitivo a la Industria Aeronáutica Nacional y Automotriz.

Una dirigencia de muy bajo vuelo

La industria aeronáutica argentina sufrió hasta hace algunos años varias derrotas desde lo económico, estratégico y político, muchas de ellas intencionales a primera vista:

-El Estado Argentino eligió “incomprensiblemente” como socio a la empresa estadounidense LTV para la provisión de aeronaves IA-63 Pampa equipadas con turbinas Garret TFE731, asiento eyectable y sistema de emergencia RAT para ese país.

Resultó que dicha empresa estaba bajo la Enmienda Americana de quiebra.

Las ilusiones de los ingenieros argentinos, el Proyecto Nacional y los U$ 400 millones del programa fueron a parar a la basura.

-La Real Fuerza Aérea Neozelandesa y la Fuerza Aérea Australiana, convencidos de las bondades del Iae-63 Pampa deciden su compra, pero debido al poco crédito otorgado por nuestro país optaron por comprarle a Italia.

No eran mejores, pero ofrecían ventajas firmes de pago.

-En 1982 surge el proyecto “Cóndor”, basado en su antecesor “Castor”, para construir un cohete que permitiría evaluar los recursos naturales propios.

El gobierno de Alfonsín finalmente decretó su desmantelamiento y desarme por “falta de recursos financieros, y la necesidad de recibir algún crédito puente del FMI o del tesoro de los EE.UU.”

-El CBA-123 fue el proyecto conjunto firmado entre Argentina y Brasil en 1987 para producir una aeronave turbohélice de 19 pasajeros y velocidad superior a 600km/h.

Su costo de inversión se calculó en U$ 300 millones de los cuales la empresa brasileña Embraer aportaría U$200 millones y U$100 millones la Fábrica Argentina de Material Aeronáutico (FAMA).

Cada avión costaría U$ 4,5 millones, y hubo 127 pedidos formales tras su presentación en una exposición en Francia.

En 1989 la FMA le comunica a Embraer la imposibilidad de la entrega de los materiales en tiempo y forma, Brasil reduce la participación argentina al 20% pero aún así la Argentina no terminó de entregar los volúmenes de producción previstos.

Debido a la falta de interés nacional de parte del gobierno argentino, Embraer decidió ofrecer el proyecto a bancos extranjeros en busca de apoyo financiero porque estaba convencida del amplio mercado internacional que tendría el CBA-123.

Así la Argentina quedó fuera del programa de fabricación conjunta.

-En julio de 1995 la Lockheed Martin Aircraft SA (Lmaasa), el mayor contratista de armas del Pentágono con un volumen de negocios de U$20.000 millones anuales, adquiere las instalaciones de la FMA de la mano de la firma del ex presidente Carlos Menem.

Esta privatización incluyó también el compromiso de comprar a través de Lmaasa 36 aviones modelo A-4M a la marina de EE.UU.

Se prometió la formación de “un excepcional centro de mantenimiento” que “captaría el 30% del mercado con una proyección de creación de hasta 10.000 puestos de trabajo”.

Dos años después, el entonces presidente Menem afirmaba que Lmaasa construiría allí un centro espacial internacional para llegar al Japón en minutos.

Sin embargo, el plantel de trabajadores se redujo de 2000 a 900 a poco de concretarse el traspaso y con la amenaza de reducción del plantel a la mitad si el Estado no le firmaba a Lmaasa un nuevo convenio por U$ 230 millones a 5 años y una supuesta deuda de U$ 47 millones.

Dicha empresa llegó a darse el lujo de cerrar sus instalaciones por 5 días hasta tanto el gobierno no le firmara un contrato hasta 2007.

Los apologistas de turno dijeron maravillas:

“…que se redujo la asignación estatal de U$230 millones en 5 años a sólo …U$210 millones”, y que el Estado “antes se hacía cargo del costo total por 12 aviones Pampa, y en cambio ahora los gastos serían 50 y 50…”.

Finalmente la Lmaasa no fabricó nada, sólo reparó aviones con subsidios del Estado Argentino en forma de contratos, y redujeron al 55% el personal. Actualmente se dedica sólo a la re-ingeniería de los AT-63 Pampa.

¿Qué dirían hombres de la talla de De Arteaga, Juan Ignacio San Martín, Taravella, Ruíz, Weiss y tantos otros anónimos que contribuyeron con su esfuerzo a consolidar a la F.M.A.?.

Hoy día, toda denuncia de esta increíble estafa no es más que un grito en el desierto, convirtiendo aquella pujante FMA en un recuerdo del pasado.

Fuente Consultada:
Sitio WEB SABER COMO… del Instituto Nacional de Tecnología Industrial (conocer el sitio)

Adaptación de “Industria Aeronáutica Argentina” por Horacio A. Benítez

Temas Relacionados:
Historia de los Primeros Aviones de Guerra Argentinos:El Pulqui
Vuelo Transpolar Argentina Nueva Zelandia-Vuelo Comercial
Hazaña del Plus Ultra: Historia del Vuelo España- Buenos Aires
Historia de los Aviones de Pasajeros BAC VC 10 Avión Americano
El avion mas grande del siglo contruido en la Segunda Guerra
Historia y Futuro del Concorde Accidente aereo del Concorde
Tupolev 134:Historia de la Fabricacion Avion Ruso y Caracteristicas

Enlace Externo:• Industria Aeronaútica Argentina

La Revolución Islámica – Ayatolá Jomeini,Derroca al Sha Palhevi

RESUMEN CAUSAS DESTITUCIÓN GOBIERNO DE REZA PALHEVI EN IRÁN

El 16 de enero de 1976, el pueblo toma las calles de Teherán, capital de Irán. Las tropas del sha, el monarca, no pueden contener el alzamiento inspirado por un religioso islámico desde el exilio.

Poco después, el soberano huye del país y se proclama la República Islámica de Irán.

El ayatollah Ruholá Musawi, llamado Jomeini, fue quien, al provocar la caída del sha iraní en 1976, sentó las bases de la República Islámica de Irán.

Ruholá Jomeini nació en Jomeini, el 24 de septiembre de 1902, y, siguiendo la tradición familiar, estudió teología musulmana en la ciudad santa de Qom.

La Revolución Islámica Ayatolá Jomeini Derroca al Sha Palhevi

El ayatollah rebelde: Acabada la Segunda Guerra Mundial, Jomeini inició sus críticas al régimen del sha por su programa de modernización del país y sus vínculos con Occidente.

Ya en la década de 1960 era uno de los más radicales jefes del clero chuta, una de las ramas de la religión islámica o musulmana.

Por esta razón, en 1963 debió refugiarse en Iraq, de donde fue expulsado a Francia en 1978.

Desde su exilio en París, el ayatollah Jomeini siguió atacando al sha y logró movilizar a miles de jóvenes islámicos radicales.

Cuando el régimen corrupto y dictatorial del sha intentó en 1979 un
nuevo programa occidentalizador, Jomeini instó a los jóvenes a la revolución con un masivo apoyo popular.

La revolución jomeinista causó la caída del sha, abandonado por las potencias occidentales, y Jomeini regresó al país y estableció la República Islámica de Irán.

Diez años después, el 3 de junio de 1989, el ayatollah Jomeini murió en la ciudad de Teherán llorado por millones de iraníes.

————- 00000 ————

• HISTORIA:

Se conoce como Revolución Islámica de Irán al proceso dirigido por el líder relgioso, el ayatolá Ruhollah Jomeini por el cual fue derrocado definitivamente el sha (rey) Reza Pahlevi, quien respondía a intereses norteamericanos y además había generado la famosa Revolución Blanca, poniendo en práctica una serie de reformas políticas, sociales y económicas que se oponían a las costumbres y doctrinas religiosas del pueblo iraní , cuestionando a la vez el poder y autoridad de los los dirigentes religiosos.

La oposición a este régimen autocrático, abarcaba todos los sectores de la sociedad, que no aceptaban la corrupción y el insaciable enriquecimiento de la familia real, quienes reclamaban un gobierno mas democrático, justo y con una repartición de la riqueza mas equitativa.

Las grandes ganancias de la explotación petrolera, obtenidas del suelo iraní iban a las arcas de las grandes compañías y de la familia Palhevi, poco volvía al pueblo.

En febrero de 1979, estalló la revolución, apoyada sobre las enseñanzas islámicas chiitas acabó con la monarquía laica del sha, se proclamó la República Islámica de Irán, y se rechazó toda influencia occidental.

Ayatholá Jomeini

En 1979, el Ayatollah Jomeini lideró una revolución islámica y derrocó al Sha.

Jomeini en la década de 1970, era un hombre desconocido, pero contaba con ciertas aptitudes de las que carecían otros dirigentes.

En primer lugar, parecía no tener miedo alguno: había sido el único religioso que se atrevió a criticar abiertamente la ‘Revolución Blanca’ del Sha ya en 1963.

Fue el profundo sentimiento antioccidental y antiimperialista que reinaba en las naciones árabes desde los tiempos de la descolonización (fines de la Segunda Guerra Mundial, y comienzos de la década de los 50), y el sistema fuertemente represivo del Sha, el que posibilitó el triunfo de Jomeini y facilitó el establecimiento de una república fundada en el estricto cumplimiento de las doctrinas religiosas islámicas.

A partir del triunfo de la revolución islámica, Irán quedó convertido en el referente de la protesta antioccidental y antinorteamericana en el Medio Oriente.

————- 00000 ————

La revolución islámica de Irán fue un hito en la historia del siglo XX. Para el historiador británico Eric Hobsbawn la peculiaridad de esta revuelta reside en su ideología, traspasada por un discurso religioso y antimoderno, que contradecía las características laicas e «izquierdistas» de las revoluciones que, desde 1789, se habían dado en la edad contemporánea.

La revolución, liderada por el carismático ayatolá Jomeini, liquidó el régimen déspota, pro occidental y corrupto del sha Mohamed Reza Pahlevi e instauró un sistema basado en los preceptos de la ley islámica (sharia) y articulado políticamente en una Constitución que sancionaba el concepto de vélayat-é faqih (soberanía del doctor de la ley o jurisconsulto islámico sobre el Parlamento).

ANTECEDENTES DE LA REVOLUCIÓN IRANÍ:

En 1951, el popular primer ministro iraní Mohamad Mossadeg planeó la nacionalización de la Compañía Petrolera Anglo-Iraní.

EE UU instó al sah de Irán a destituir a Mossadeg, lo cual dio lugar a que la población retirase su apoyo al sah, a quien se tenía por un títere de los americanos.

La revuelta popular obligó al sah a exiliarse para evitar una posible revolución.

Finalmente, EE. UU. logró restaurar al sah en el poder, pero, a los ojos de su pueblo, este había quedado contaminado por su asociación con los norteamericanos.

————-  00000 ————

Sha Reza Palhevi Irán

Los enfrentamientos contra el régimen del Sha fueron muchos y durante varios años, pero uno de los mas cruentos fue en 1978 cuando los soldados abren fuego contra la población que se manifestaba en las calles de Teherán.

Había mas de 20.000 personas y miles de ellas resultaron heridas o muertas.

Al poco tiempo y como reacción a esta dura represión , los manifestantes comenzaron a quemar negocios, bancos, kioskos de bebidas alcohólicas y todo lo que tuvieran un símbolo occidental, provocando una tensión social que iría en aumento hasta la revolución de 1979.

————-  00000 ————

En respuesta a esta insatisfacción popular, el sah empleó la represión para evitar otra insurrección.

En los dos decenios siguientes, Irán se embarcó en un periodo fructífero de industrialización y militarización; en la década de 1970, el excesivo gasto en defensa había dado lugar a un déficit presupuestario y una crisis económica.

Entre tanto, la sociedad iraní se había transformado: había surgido una reducida élite occidentalizada.

La rápida industrialización dio lugar a un elevado aumento de la inmigración hacia las ciudades y generó pobreza y desempleo.

Las leyes de censura del sah impedían expresar a través de los medios de comunicación o concentraciones públicas el descontento social, y las mezquitas se convirtieron en el único reducto donde era posible hablar con libertad.

En ellas, los detractores del sah entraron en contacto con las ideas de los clérigos chutas y, en particular, con las del ayatolá Jomeini, quien propugnaba la revolución para crear una república islámica y poner fin al laicismo y la occidentalización de su país.

En las postrimerías de 1978, la prensa oficial publicó un artículo criticando a Jomeini que desencadenó protestas civiles generalizadas.

El ejército se negó a abrir fuego contra los manifestantes y cambió de bando.

Desde el exilio, Jomeini defendió una república islámica, y el sah, al carecer del respaldo del ejército, huyó.

El martes 16 de enero de 1979, el sha, enfermo, abandonó el país. Jomeini ponía fin al reinado de los Pahlavi, pero la monarquía no estaba abolida.

Apoyándose en el ejército, el quinto del mundo, el primer ministro iraní Shapur Bajtiar se opuso al retorno del imán.

Ante el aumento de los peligros, el primer ministro cedió en su momento.

El 1º de febrero de 1979, Jomeini hizo una entrada triunfal en Teherán, donde lo recibieron más de cuatro millones de personas.

Sobrevinieron violentos incidentes entre el 9 y el 12 de febrero, declarando el fin de la monarquía y el derrumbamiento de las últimas fuerzas que la sostenían.

La monarquía fue oficialmente abolida por el referéndum del 30 de marzo que proclamó la instauración de la República islámica.

Pronto surgió en el seno de los elementos religiosos una división entre moderados y conservadores, y fueron estos últimos los que, con el apoyo de los «guardianes de la revolución», controláron los comités islamicos e instauraron un orden moral que rige a toda la sociedad iraní.

El 1º de febrero de 1979, Jomeini hizo una entrada triunfal en Teherán, donde lo recibieron más de cuatro millones de personas

Inmediatamente después, el nuevo régimen se dispuso a disociarse de Occidente; los partidarios de Jomeini irrumpieron en la embajada de EE UU en Teherán en noviembre de 1979 y precipitaron la crisis de los rehenes que le costó al presidente Cárter las elecciones presidenciales de 1980 y que no concluyó hasta enero de 1981.

Para entonces, el sah había fallecido (en el Cairo) y el nuevo presidente de EE UU, Reagan, había prometido descongelar los activos iraníes.

La revolución aún estaba consolidándose cuando Iraq instigó una guerra contra Irán en 1980.

La Revolución Islámica que en 1979 desplazó del poder de Irán al Sha Rezah Pahlevi, modificó el panorama político de la región. El Ayatollah Jomeini instaló un régimen fundamentalista e intolerante que fusiló en pocos meses a decenas de miles de opositores.

LOS DOCE DÍAS QUE ESTREMECIERON A IRÁN

Jueves 1° de febrero de 1979, el avión de Jomeini aterriza en el aeropuerto de Teherán.

Comenzaba entonces el primero de los doce días que verían la caída de la monarquía.

El 5 de febrero, Jomeini nombró a Bazargan primer ministro islámico, en oposición al primer ministro imperial Shapur Bajtiar.

Demócrata y reformista, Bazargan tranquilizó a Occidente, pero inquietaba a los radicales iraníes.

El 8 de febrero, el pueblo salió a la calle respondiendo al llamado del imán al grito de «¡Muera Bajtiar!».

Los manifestantes vestían una cinta blanca en la cabeza para significar que estaban prontos a morir como mártires.

En la víspera del 10 de febrero, hallados culpables de mirar por televisión la película sobre el regreso de Jomeini, los homafars (técnicos de la fuerza aérea) fueron «corregidos» por los guardias imperiales que dieron así, involuntariamente, la señal de la sublevación.

Al día siguiente se concentraron 100.000 personas en Teherán para una marcha política.

El ejército abrió entonces fuego sobre la multitud.

La muchedumbre se dispersó por las calles de Teherán y la insurrección se expandió. La capital se erizó de barricadas y se decretó el toque de queda.

En dos días cayeron cuarteles, edificios administrativos, palacios imperiales, uno tras otros.

El 12 de febrero se ponía fin a la monarquía de 2.500 años de antigüedad.

INTERESANTE TESTIMONIO DE JOMEINI SOBRE SU VISIÓN DEL GOBIERNO AMERICANO

En Irán no hay un sentimiento antinorteamericano, sino contra el gobierno estadounidense.

En los eslóganes y denuncias, cuando hablamos de Norteamérica nos referimos al gobierno de Estados Unidos, no al pueblo estadounidense.

He recibido informes sobre la propaganda antiiraní orquestada por la Administración de Estados Unidos.

Los sionistas en especial están haciendo todo lo posible por envenenar a la opinión pública contra Irán.

Tal como se ha informado, como resultado de ello en Estados Unidos puede haber sentimientos negativos contra Irán.

Pero si los hechos van más allá de la pantalla sionista-imperialista, si a través de los medios de comunicación logramos exponer a la ciudadanía norteamericana la verdad, entonces es muy probable que los norteamericanos cambien de criterio sobre nosotros y respondan amigablemente a nuestra actitud amistosa.

Pero no abrigamos ilusiones de que el gobierno de Estados Unidos vaya a cambiar su actitud hostil.

El gobierno estadounidense ha perdido gran parte de sus intereses en Irán. Y, lo que todavía es peor, su administración también ha perdido su prestigio político en otros países.

Hemos pedido a gritos justicia, hemos pedido que se resuelvan nuestros motivos de queja.

El gobierno de Estados Unidos puso al sah en el trono; es decir, lo pusieron los aliados [en 1941] tras destituir a su padre, Reza Jan, que era un títere de los británicos.

En consecuencia el gobierno de Estados Unidos lo ayudó a mantenerse en el poder frente a la oposición de nuestro pueblo.

El sah despilfarró nuestros recursos, nuestra dignidad nacional, nuestros activos naturales, el talento de nuestra juventud y todo lo que teníamos. Evidentemente, los iraníes no pueden tener buena opinión del gobierno de Estados Unidos.

Y nuestro pueblo ha descubierto recientemente que la Administración norteamericana ha convertido lo que llama su embajada en una base de espionaje y conspiración contra Irán.

Los espías actuaban aquí con la excusa de ser personal diplomático.

Y ahora que nuestro pueblo es consciente de este hecho, considera que la Administración estadounidense es su enemigo número uno.

Desde nuestro punto de vista no puede culparse al pueblo norteamericano del comportamiento de su gobierno en Irán.

Los norteamericanos tendrán que reconocer el hecho de que su Administración ha sido injusta no sólo con nosotros, sino también con ellos mismos.

A través de su lacayo, el sah, nos ha privado de todo, lo cual ha puesto en peligro el honor de la ciudadanía estadounidense.

Debido al comportamiento del gobierno de Estados Unidos, actualmente los pueblos de Oriente están desarrollando un punto de vista negativo sobre la nación norteamericana.

Los norteamericanos han de tener este hecho en consideración.

Que Jimmy Cárter siga siendo presidente es un peligro para Norteamérica.

Plantea una amenaza al honor nacional de Estados Unidos.

Si el gobierno estadounidense -por medio de la intervención militar, del bloqueo económico, de tácticas bravuconas y recursos similares- logra privarnos de justicia, la crisis nunca podrá resolverse, seguirá siempre presente en la mente de nuestro pueblo.

El pueblo norteamericano no debe permitir a Cárter que siga este comportamiento, porque de ser así los iraníes irán sospechando que el pueblo norteamericano comparte la voluntad negativa de Cárter contra Irán.

Y entonces entre ambos pueblos se establecerá la enemistad.

Otra opción es que el gobierno de Estados Unidos reconozca las fechorías que ha cometido en Irán. Que no son pocas.

Una de ellas es haber permitido la entrada de un asesino en Estados Unidos.

Y, lo que aún es peor, que el gobierno norteamericano imponga a un asesino como gobernante de Irán.

Cuando Cárter llegó a la presidencia prosiguió la política de sus predecesores; es decir, intentó perpetuar el gobierno criminal del sah y el saqueo de Irán.

Cuando nuestra nación se levantó contra la tiranía de los Pahlevi, Cárter hizo todo lo posible por mantenerla. No lo consiguió.

El odio al sah de nuestro pueblo era demasiado evidente para que Cárter no lo notara.

Con todo, en flagrante desacuerdo con los sentimientos de la nación iraní, Cárter ofreció al sah derrocado refugio en Estados Unidos.

Creo que ni siquiera el pueblo norteamericano se creyó la afirmación de Cárter de que permitía la entrada del sah por motivos humanitarios.

Las consideraciones humanitarias no entran para nada en el pensamiento del gobierno norteamericano.

Washington está dispuesto alo que sea, incluso amatar a 200.000 personas en un ataque nuclear, para obtener algún provecho.

Es impensable que esos funcionarios dieran una visa de entrada al sah por motivos humanitarios.

En cierto modo han secuestrado al tirano derrocado para asegurarse de que no divulgue sus secretos.

Si se lo permitimos, todos los hechos que el gobierno de Estados Unidos quiere ocultar saldrán a la luz.

Y entonces el mundo entero sabrá quién ha ayudado al sah a cometer sus crímenes.

Y desde luego, el pueblo norteamericano dejará de votar a su presidente una vez que descubra qué ha hecho.

Desde nuestro punto de vista, todo lo que interesa a Cárter es secundario para la Gasa Blanca, y con tal de alcanzar su objetivo está dispuesto a hacer lo que sea, incluso a sacrificar el honor de su país.

No podemos creer que los reclamos del gobierno estadounidense obedezcan a motivos humanitarios.

¿Acaso sólo el sah es un ser humano? ¿No son seres humanos los 35 millones de iraníes? ¿No eran seres humanos los vietnamitas?.

¿No vemos claramente los crímenes que con la aprobación de Cárter están cometiéndose actualmente en el sur de Líbano?.

Para nosotros [la resolución de la crisis] supone la extradición a Irán del sah derrocado y la adopción de medidas para compensar a Irán por los daños causados por su tiranía.

Desde luego, hay daños que son irreparables.

Por ejemplo, en la lucha contra el sah hemos tenido unas cien mil bajas.

Y aunque el trabajo y el talento humano derrochados para la obtención de sus dañinos objetivos no pueden compensarse, esperamos la repatriación de los bienes saqueados a Irán.

El punto principal que cabe tener en cuenta es que nos hallamos en una nueva era. Irán ya no es hoy lo que era bajo el sah. Ha ocurrido un milagro.

Bajo el régimen anterior un solo policía podía obligar a todos los comerciantes de un gran bazar a enarbolar banderas para celebrar el cumpleaños del sah.

Ese mismo pueblo se levanta con las manos desnudas contra los tanques y la artillería. Incluso ahora se envuelven en sudarios y acuden aquí [a Qom] para manifestarse dispuestos al martirio.

No se puede zarandear a un país que ha experimentado tal transformación.

Transformación que el señor Cárter aún no ha comprendido. Cree que puede volver a imponer un dictador a un país.

Pero ha de entender que los iraníes nunca permitirán tales actos. Cárter se tiene que despertar.

Y los norteamericanos han de desalojar a Cárter con su voto.

Deben elegir a un presidente adecuado.

Si se convence a los iraníes de que el gobierno de Estados Unidos no pretende engañarlos, habrá unas relaciones normales con Estados Unidos; el tipo de relaciones que mantenemos con otros países.

Fuente Consultadas:
Revista TIME Historia del Siglo XX El Mundo Islámico – La Revolución Islámica en Irán

Temas Relacionados:

El Islamismo Características Generales de la Religión Musulmana
QUE ES LA MECA?:Ciudad Sagrada del Islam Ubicación e Historia
La Vida Diaria de un Buen Musulman:Practicas Religiosas
La Sharia:Ley Sagrada de la Religion Islamica
El Yihad o Guerra Santa en la Religion Islamica
El Shah Abbas de Persia El Grande Historia de su Reinado

Enlace Externo:• Irán, el triunfo de la revolución islámica en 1979

Los Satélites Artificiales Argentinos-Historia y Fines del Plan Espacial

Los Satélites Artificiales Argentinos – Historia y Fines del Plan Espacial

Los vehículos espaciales, como por ejemplos los satélites artificiales,  resultan instrumentos impresindibles para el avance científico y tecnológico de la imanidad.

Son numerosos los fines con que se utilizan; ellos, cabe destacar los fines científicos, medioambienles, de comunicaciones, de navegación y militares.

Mientras ue los satélites giran en órbita alrededor de nuestro planeta, las sondas se han liberado de la atracción gravitatoria de la Tierra y se desplazan en trayectorias variadas.

Los satélites recorren distintos tipos de órbitas, a diferentes alturas con respecto a la superficie terrestre.

Tienen tamaños muy variables; algunos pueden llevar tripulantes a bordo.

Los de mayor envergadura se ubican en órbitas bajas entre 250 y 450 km, como por ejemplo, el transbordador espacial norteamericano y la estaciónespacial Mir, que permiten transportar astronautas, satélites y equipos de mantenimiento y reparación.

También se encuentra el telescopio espacial Hubble, que estudia la luz procedente de los objetos más alejados del Universo.

————-  00000 ————

La creación de la Comisión Nacional de Actividades Espaciales (CONAE) en 1991 le dio nuevo impulso a la presencia argentina en el espacio.

Desde 1961, durante tres décadas, un organismo similar, que dependía de la Fuerza Aérea, realizó más de 150 lanzamientos.

En su mayoría, cohetes y globos destinados al estudio de la atmósfera, aunque también hubo estudios con animales, como ratas y monos. La CONAE, en colaboración con la NASA y agencias europeas, puso en órbita los satélites SAC C (2000) y SAC D (2011).

El mono Juan: El 23 de diciembre de 1969, la Argentina se convirtió en el cuarto país del mundo, después d’ la URSS, Estados Unidos y Francia, en poner un mono en el espacio.

El tripulante, de la especie caí, había nacido en Misiones y fue bautizado como Juan. Realizó un vuelo suborbital (a 82 km de altura) a bordo del cohete Canopus II, lanzado desde El Chamical, La Rioja.

Fue todo un desafío. Diseñaron una butaca de modo que los efectos de la  aceleración ingresen a su cuerpo de manera transversal.

En la cápsula, la temperatura debía ser de no más de 25° C, cuando en la punta de la ojiva hacía 800°C. Al mono lo sedaron y lo constiparon. El vuelo duró cinco minutos. El mono Juan ascendió a 82 kilómetros. Murió en un zoológico de Córdoba.

ANTES DE SEGUIR HABLAREMOS SOBRE HISTORIA Y CONCEPTOS BÁSICOS

INTRODUCCIÓN:
CIENCIA Y SOCIEDAD

A lo largo del siglo XX la Humanidad ha conocido un impresionante desarrollo de la investigación científica que, a diferencia del pasado, ha encontrado muy rápidamente aplicaciones tecnológicas.

En la base del gran crecimiento económico de los países industriales está esa revolución científico-técnica que ha inundado de nuevos inventos las industrias, los hogares y la vida cotidiana de los seres humanos.

Los avances  relacionados con la electrónica tuvieron su influencia en varios ámbitos.

Los electrodomésticos establecieron un cambio fundamental en el hogar al aportar una notable mejora en la calidad de la vida cotidiana.

Con la invención del telégrafo en 1838, cuyos primeros clientes fueron las compañías ferroviadas, empezó el desarrollo de las comunicaciones.

La transmisión de la voz, la imagen y el pensamiento influyó de manera determinante sobre la vida individual y colectiva.

La radio, el cine, el teléfono, la televisión y la computadora simbolizan este siglo XX de la denominada aldea global, donde las sociedades industrializadas cayeron en la red de los medios de comunicación de masas.

El sector de los bienes y servicios culturales, conocido también como las industrias culturales, comunicacionales, creativas o de contenido, pasó a ser objeto de consumo masivo.

A la vez, dicho sector mostró claramente su doble faceta de recurso económico y fuente de identidad y cohesión social.

El reto era llegar a armonizar los flujos de comunicaciones e informaciones y sus dispositivos técnicos con la calidad de vida de cada uno de los consumidores.

El consumo de información y la emergencia del hogar electrónico se vieron convertidos en dos cuestiones de capital importancia, que guardaban una estrecha relación con las nuevas tecnologías de la información.

La implantación de tecnologías integradas en los hogares no tardaría en causar efecto en los hábitos y costumbres del ámbito doméstico.

Todo el planeta es hoy en día un sistema interconectado por redes televisivas, informáticas, telefónicas, y cualquier información es emitida y recibida en segundos. Nos sentimos copartícipes de todo lo que sucede en el mundo.

Como consecuencia de todos estos cambios, la sociedad presenta características diferentes de la de nuestros abuelos.

La de hoy es una sociedad esencialmente urbana, con un nuevo papel de la mujer y con un tipo de familia más reducida y más móvil.

CONCEPTO DE LOS SATELITES ARTIFICIALES:

La comunicación vía satélite ha revolucionado por completo la manera de conocer los hechos y los acontecimientos ocurren en la Tierra. Su utilización permite escuchar y ver todo lo que sucede «en tiempo real», es decir, en el momento en que se está produciendo el acontecimiento.

Las características que distinguen un satélite de telecomunicaciones y lo hacen interesante para muchas aplicaciones prácticas son:

1) la visibilidad, desde el satélite, de todos los puntos de la región que cubre la antena de a bordo; esto permite servir con la misma facilidad regiones o ciudades de alto desarrollo y zonas dispersas o de difícil acceso;

2) la posibilidad de unir simultáneamente mediante el satélite muchas estaciones en tierra;

3)  la flexibilidad de crecimiento del sistema, ya que, si se desea conectar con una nueva localidad, basta construir en ella una estación terrestre;

4) la flexibilidad de distribución de la capacidad total de comunicación del satélite entre las diversas estaciones de tierra, lo que permite atender demandas no permanentes, como las que surgen de las concentraciones de personas en zonas de veraneo durante las vacaciones o de situaciones de emergencia debidas a desastres naturales o averías de la red terrestre;

5) la posibilidad de efectuar conexiones con medios móviles (embarcaciones, aviones, automóviles) o con estaciones transportables.

El primer satélite de telecomunicaciones fue lanzado por Estados Unidos en 1958: era el SCORE, que difundió un mensaje de felicitación del presidente Eisenhower.

El SCORE se precipitó a la atmósfera casi un mes después de su partida.

En 1960 se lanzó primero el Currier, un satélite también estadounidense, capaz de captar señales y retransmitirlas; luego fue el Eco-1, que no era más que una esfera cubierta de aluminio de 166 kg de peso.

Desde su órbita reflejaba las señales de radio y televisión y las dirigía a la superficie terrestre.

Una segunda esfera de este tipo fue lanzada en 1964 con resultados decepcionantes, por lo que esta vía se abandonó.

En cambio, se obtuvieron buenos resultados con el lanzamiento del Telstar-1 el 10 de julio de 1962, a una órbita inclinada 44,8° respecto al ecuador.

Podía gestionar 600 conversaciones telefónicas o un canal de televisión.

Para colocar un satélite en órbita es importante realizar una serie de precisos test de desprendimientos entre el cohete y el satélite.

Por otro lado durante el despegue aparecen una secuencia de sacudidasd y vibraciones bruscas que podrían perjudicar el equipamiento.

Hay algunos componentes escenciales y muy delicados como los paneles solares y las antes de de cominicación que también sufren estas vibraciones, por lo que hay que ser muy cuidadoso con los controles, pues un error de este tipo pondría en juego el éxito de la misión, luego de años de trabajo y de gasto de dinero.

Una vez que el satélite ya entró en la atmosfera, cohete debe soltar el o los dos satélites que transporta.

En el caso de Argentina uno de ellos, es el ARSAT-1, para lo que necesita un perfecto desempeño comunicacional (envío de la orden y recepción por el lanzador) y mecánico, es decir, que nada se trabe e impida así la separación del satélite del cohete.

El satélite acompañante es el ISDLA-1, de Loral (Estados Unidos-Canadá).

ORBITA GEOESTACIONARIA

Los satélites geoestacionarios se mantienen a una distancia de 38.500 km girando a la misma velocidad que la Tierra, por ello siempre se observan en el mismo punto sobre el ecuador terrestre. Se utilizan para establecer comunicaciones telefónicas y televisivas.

LOS SATÉLITES ARTIFICIALES EN ARGENTINA:

Antes de hablar sobre los tipos y características de nuestros satélites, vamos a hacer una breve introducción histórica sobre los institutos públicos y empresas nacionales que se dedican a la investigación y a este tipo de tecnología.

Desde hace mas de una década en la Argentina, el Estado ha decidido invertir una importante cantidad de recursos en el sector a través de instituciones existentes, como la Comisión Nacional de Actividades Espaciales (CONAE) e INVAP, la empresa rionegrina de alta tecnología, y creando nuevas, como ARSAT, el Centro de Ensayos de Alta Tecnología (CEATSA) y la construcción de lanzadores a través de VENG (Vehículo Espacial de Nueva Generación).

En relación a las instituciones referentes, dos de ellas definen las misiones espaciales del país: ARSAT, como responsable del Sistema Satelital Geoestacionario Argentino de Telecomunicaciones y CONAE como responsable del Plan Espacial Nacional.

Este último es el organismo del Estado argentino que diseña, ejecuta, controla, gestiona y administra las actividades y emprendimientos espaciales dedicados a la observación de la Tierra desde el espacio.

Por su parte, INVAP, que es una empresa dedicada al diseño y construcción de sistemas tecnológicos complejos, es el integrador principal de los proyectos satelitales de CONAE y ARSAT.

INVAP empresa de alta tecnología

INVAP es una empresa creada por convenio entre la Comisión Nacional de Energía Atómica de Argentina y el Gobierno de la Provincia de Río Negro.

Su sede principal se encuentra en San Carlos de Bariloche y ocupa a 360 empleados de manera directa y a más de 700 si sumamos a los de las empresas asociadas, contratistas y proveedores.

Un Poco de Historia Argentina….

Despúes de la Segunda Guerra Mundial, durante el gobierno de Juan Perón, se contrata un grupo de destacados profesionales en el ramo de la aeronaútica, que habína participado en Alemania en diversos proyectos aeroespaciales para la aplicación bélica.

Se destacan Kurt Tank, creador del Pulqui II, y Ricardo Dyrgalla, el ingeniero polaco que desarrolló el primer motor cohete argentino, que fue probado con éxito en el misil Tábano en campo de pruebas del noroeste cordobés. (ver: Científicos Alemanes en Argentina)

En 1947 se construye el  primer motor de cohete de combustible líquido, en 
1947 y mas tarde se crea la Sociedad Argentina Interplanetaria, la primera en América latina, en 1949.

Argentina también fue el cuarto país en colocar un ser vivo en vuelo suborbital y regresarlo a Tierra.

A través de la Comisión Nacional de Investigaciones Espaciales (Cnie), creada en 1960, cuyo primer presidente fue Teófilo Tabanera  (de ahí el nombre del Centro Espacial en Córdoba) se lanza el primer el cohete Alfa Centauro, y de ahí en mas se continua con el desarrollo y lanzamientos de distintos cohete hasta el cierre del famoso Plan Condor II.

Como veremos mas abajo, también se cierra la Cnie y se reemplaza por la Conae.

Vamos ahora a transcribir lo que publica Diego Hurtado en su libro «La Ciencia Argentina», explicando con claridad los acontecimientos históricos.

Además del desarrollo nuclear, otro de los temas conflictivos que colisionó con la política exterior de Menen fue el proyecto Cóndor II.

Excede el marco del presente libro repasar en detalle la compleja trama de presiones desplegadas por Estados Unidos, que desencadenó el proceso por el cual se canceló este desarrollo con un desenlace más bien humillante.

Alcanza con señalar la perspectiva diplomática argentina que se propuso reducir a cero cualquier posible confrontación con Estados Unidos, complementada por la absoluta ausencia de la problemática del desarrollo científico y tecnológico como variable de la política exterior y por la falta de unidad política de aquellos sectores que favorecían el desarrollo de tecnología espacial.

En mayo de 1991, el entonces ministro de Defensa Erman González anunció en un discurso televisado por el canal ATC el desmantelamiento del misil Cóndor II, el cierre de la CNIE y la creación de la Comisión Nacional de Actividades Espaciales (CONAE).

El nuevo organismo quedaría a cargo de todos los emprendimientos en materia espacial con fines pacíficos y estaría bajo control presidencial y parlamentario.

La intención era crear una agencia espacial con las características de una agencia civil. Al frente de la CONAE fue puesto el astrónomo Jorge Sahade.

A través de la CONAE, el empleo de la tecnología espacial con fines pacíficos pasó a ser considerado política de Estado. A cambio del desmantelamiento del proyecto Cóndor II, Estados Unidos se comprometió a transferir tecnología para el desarrollo de satélites.

El proyecto Cóndor II, era un plan para desarrollar misiles balísticos, pero también lanzadores satelitales que hubiesen colocado al país en la autopista del desarrollo espacial.

En agosto de 1991, la CONAE firmó un acuerdo de colaboración con la NASA. Al mes siguiente, la empresa INVAP anunció que colaboraría con la NASA en la construcción del satélite SAC-B.

Especializada en su origen en el desarrollo de tecnología nuclear, INVAP se integraría al desarrollo de satélites y desarrollaría el sistema de guía, incluidos los instrumentos de precisión. Por su parte, la NASA se encargaría de la puesta en órbita.

En febrero 1994, el New York Times se refería a la empresa argentina como «una pequeña versión argentina de una compañía de Silicon Valley» y comentaba su exitosa incursión en el desarrollo de tecnología espacial.

En 1994 se redactó el Plan Espacial «Argentina en el Espacio 1995-2006». Varotto cuenta que este programa «fue aprobado luego de pasar un examen bastante riguroso que terminó con una reunión de gabinete completo».

Y agrega: «Se decidió concentrar los recursos en ir arriba para mirar para abajo». El plan se centraba en la recolección de información del territorio argentino, tanto continental como marítimo.

La idea era que esta información, combinada con la que se obtuviera por otros medios, «contribuya a la optimización de actividades de determinadas áreas socio-económicas».

Finalmente, en 1997 se decidió que en la próxima revisión del plan espacial, la CONAE debería comenzar a trabajar en el problema del acceso al espacio, esto es, ¡en el desarrollo de un cohete lanzador!

Con el LUSAT I, lanzado en 1990 comienza la historia de los satélites artificiales  de la Argentina, fue el primer satélite argentino, que fue un proyecto de radioaficionados. Después de 20 años en órbita, con la batería ya agotada, continuó funcionando.

► SATÉLITES SAC-A Y SAC-B

La CONAE realizó dos misiones en los años noventa. El cohete PegasusXL llevó al primer satélite argentino, el SAC-B, hacia el espacio en noviembre de 1996. Tenía instrumentos de la CONAE, la NASA y la ASI (agencia espacial de Italia).

Su objetivo era realizar estudios sobre las fulguraciones solares y los rayos gamma. Sin embargo, aunque alcanzó los 550 km de altura, fallaron los mecanismos del PegasusXL y no pudo entrar en órbita.

Mejor suerte tuvo la misión SAC-A, que se concretó en 1998.

El transbordador Endeavour puso en órbita a este satélite, que alcanzó los 389 km de altura. Diseñado para poner a prueba diversos instrumentos creados en el país volvió a la Tierra en agosto de 1999.

satelite argentino sac a

El satélite SAC-C

Argentina en su Plan Espacial Nacional – «Argentina en el Espacio 1995-2006» , establece los objetivos que deben orientar el trabajo de la Comisión Nacional de Actividades Espaciales (Conae).

Como componente fundamental de ese plan, se deben realizar proyectos satelitales que cumplan el objetivo de «proveer a través de misiones satelitales propias, las plataformas, cargas útiles y servicios para satisfacer requerimientos específicos de nuestro país en las áreas de teleobservación, comunicaciones y ciencias básicas, que no se ven satisfechos por la oferta de sistemas existentes».

satelite argentino sac c

SATÉLITE SAC-C
En noviembre de 2000, el cohete Delta despegó de la base Vanderburg, de la Fuerza Aérea de Estados Unidos, y puso en órbita el satélite SAC-C. Integra la Constelación Matutina junto a los satélites EO-1 y Landsat 7.

Órbita a 705 km de altura, desde donde toma imágenes de todo el mundo para enviarlas al Centro Espacial Teófilo Tabanera, ubicado en Falda del Carmen (Córdoba). Estas imágenes tienen varios propósitos, como el estudio de la atmósfera o la prevención de catástrofes naturales.

Posee cámaras de teleobservación e instrumentos científicos de la CONAE, la NASA y las agencias espaciales de Francia y Dinamarca.

A partir de este objetivo, la CONAE llevó adelante el diseño, construcción y puesta en órbita del SAC-C, el primer satélite argentino de observación de la Tierra, cuyo lanzamiento se produjo el 21 de noviembre de 2000, con un lanzador Delta 7320, desde la Base Aérea de Vandenberg, en California, Estados Unidos.

Este satélite cumple funciones muy importantes: produce imágenes del territorio que pueden ser utilizadas para la agricultura y para el estudio del medio ambiente terrestre y marino.

Además, permite estimar con precisión los alcances de catástrofes naturales o provocadas por el hombre y aporta materiales para realizar estudios científicos y tecnológicos que, entre otras cosas, contribuirán a mejorar el diseño y la fabricación de nuevos satélites.

El satélite se controla desde el Centro Espacial Teófilo Tabanera, ubicado en Córdoba. Allí se reciben los datos que envía el satélite y se los distribuye entre los usuarios.

Desde el punto de vista productivo, el aspecto interesante de este proyecto es la articulación entre una decisión de un agencia del Estado nacional -la CONAE- y varias empresas del país, que son las que construyeron el satélite.

El principal contratista es el Invap, una empresa de alta tecnología, encargada de la construcción del satélite propiamente dicho y de algunos de los instrumentos que contiene y que permiten realizar las observaciones y la transmisión de datos.

conrado varoto

El físico, doctorado en el Instituto Balseiro (1968), Conrado Franco Varotto es el actual ditector de la CONAE. Nació en Brugine  (Italia), el 13 de agosto de 1941, pero desde pequeño vivió en Argentina.

SATELITES ARGENTINOS EN ÓRBITA

satelite sac d

SAC-D también conocido como Aquarius, lanzado el 10 de junio de 2011. Es un satélite argentino de observación climática y oceanográfica, construido por INVAP.

Pertenece a una serie de satélites grande y complejos, y solo hay planes para poner dos o tres mas en órbita. La idea mundial es comenzar a colocar satélites mas perqueños de no mas ed 200 Kg. y que trabajen en red.

 

PADE: Proyecto PADE entró en órbita terrestre el día 6 de Diciembre del año 2001, utilizámdose el transbordador Endeavour.Despúes de cumplir una corta pero exitosa misión con experimentos del medioambiente espacial, regresó a la Tierra 15 días mas tarde.

SAC-C: Desde la base norteamericana Vandenberg en California, el día 21 de noviembre de 2000, fue puesto en órbita el SAC-C, satélite argentino de teleobservación.Tiene una cámara MMRS con una resolución de 175 metros, la HRTC 35 metros, y la HSTC 300 metros. Hoy se encuentra en operación.

SAC-A: Desarrollado por la CONAE y construído por la empresa de Río Negro INVAP, fue puesto en órbita el 14 de Diciembre de 1998, con el Endeavour. Se utilizó para el seguimiento de las ballenas Franca Austral y mediante el analisis fotográfico se estudian los ciclos de inundaciones y sequías. Fuera de uso e incinerado por la atmósfera terertre.

NAHUEL 1-A: Fue construído totalemnete en el exterior y puesto en órbita en Enero de 1997, por medio del cohete Ariane.Su objetivo principal es de las telecomunicaciones. Actualmente se encuentra en operaciones.-

SAC-B: Pensado como satélite cientifico, para realizar mediciones de radiaciones electromágneticas en el espacio y de partículas.

El 4 de Noviembre de 1996 fue puesto en órbita por medio del cohete Pegasus XL, que a su vez partió desde el fuselaje de un avión L-1011 en vuelo. Cayó a Tierra en el año 2002 y fue un fracaso por que una etapa del cohete lanzador no se desprendió del satélite. Diseñado por la CONAE Y construído por INVAP.

MU-SAT: Fue puesto en órbita el 29 de Agosto de 1996; mediante el cohete de origen ruso. Fue un proyecto desarrollado por la Asociación de Investigaciones Tecnológicas de Córdoba y el Instituto Universitario Aeronáutico, con científicos que trabajaron en el antiguo programa Condor II, importante programa que fue desechado por la «sugerencia» de EE.UU.

Fotografió diversas zonas del país con imágenes de baja resolución, para seguimientos meteorológicos y de masas hídricas.Durante el primer año se lograron gran cantidad de fotos e información y aún continúa en órbita. Pesa 30 kilos y era un cuboide de 34x34x43 centímetros.

LUSAT 1: Es el Primer Objeto Argentino puesto en órbita. Fue un proyecto casi amateur, desarrollado por un grupo de radioficionados argentinos. Se puso en órbita utiliando un cohete Ariane, en Enero de 1990.

Construído en parte en Argentina y el resto en AMSAT NA en Boulder, Colorado.  Su misión es la de proveer comunicaciones en packet a todos los radioaficionados del país y del mundo.A pesar de que sus baterías operan a una fracción del poder inicial, el Lusat aún funciona.

Respecto a su fabricación, es igual al ARSAT 1, desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

Arsat-1, el primer satélite argentino

Satélite Argentino AR-SAT1

Imagen en Órbita del Satélite Argentino AR-SAT1

El primer satélite geoestacionarioargentino. Con una potencia de 3.400 watts, y pensado para una vida útil de 15 años, fue desarrollado a lo largo de siete años y fabricado en la ciudad de San Carlos de Bariloche por las estatales Invap y la empresa Argentina de Soluciones Satelitales (ArSat).

Con su lanzamiento en octubre de 2014, el ARSAT-1 tiene por objetivo brindar servicios de TV, Internet, telefonía y datos.

Los servicios del ARSAT-1 incluyen Internet en lugares remotos, transporte de señales para canales de TV, redes de datos para organismos públicos y privados, conectividad en radiobases para operadores celulares y telefonía corporativa, entre otros.

Una vez en órbita, se despliegan los paneles solares, con los que alcanza los 16,42 metros de largo y una antena de comunicaciones de 2 metros de diámetro. Se utilizó como material base la fibra de carbono reforzada con plástico (CFRP), titanio y aluminio.

El CFRP es un material ampliamente usado que se consigue a partir de fibras de carbono y resina epoxy.

CARACTERÍSTICAS:

caracteristicas del satelite argentino arsat

INVAP: La empresa de tecnología INVAP es la única del país certificada por la NASA para participar de sus proyectos espaciales.

Fabricó el «bus», o satélite propiamente dicho, y varios instrumentos utilizados en las misiones de la CONAE.

Su origen es un acuerdo firmado en los años setenta entre la Comisión Nacional de Energía Atómica (CNEA) y el gobierno de Río Negro.

Sus productos se utilizan, además, en la producción de energía nuclear y eólica, y en medicina.

A esta empresa se sumaron la experiencia de los ingenieros satelitales de ARSAT en operar satélites geoestacionarios de telecomunicaciones quienes, además de especificar los satélites, también siguieron técnicamente todo el proyecto, controlando tanto el diseño como los procesos utilizados y los ensayos medioambientales. 

Para los ensayos mediambientales se creó CEATSA, operativo desde fines de 2012 y con sede en Bariloche.

De este modo se logró evitar los costos de ensayar el ARSAT-1 en Europa. Este modernos y novedoso laboratorio se  convirtió en el segundo laboratorio para realizar ensayos medioambientales en satélites de esta magnitud en Latinoamérica.

Se hicieron los ensayos de vibración, acústicos y termovacío, todo superados exitosamente. También se hicieron pruebas de propiedades de masa, compatibilidad electromagnética y medición de antenas, todos ensayos estándares exigidos por la industria aeroespacial.

El lanzamiento se hizo desde el centro espacial Guayana, el día 16 de octubre de 2014, convirtiendosé Argentina en el primer país latinoamericano en tener en órbita un satélite geoestacional de construcción propia.

La puesta en órbita estuvo a cargo de la compañia Arianespace, conformada por el Centro Nacional de Estudios Espacial francés y todas las empresas espaciales europeas.

Arsat-2 , otro satélite argentino

arsat 2

La características generales son similares a su predecesor. Fue desarrollado para brindar servicios de telecomunicaciones sobre el continente americano en tres coberturas: sudamericana, norteamericana y hemisférica, pero con explotación comercial por su posición privilegiada, su cobertura transcontinental, sus tres antenas y su emisión en dos bandas (Ku y C).  Seguramente que a corto plazo favorecerá la industria argentina de generación de contenidos audiovisuales.

El tamaño del cuerpo es una especie de cubo de 2.0 m. de lado y cuando extiende sus paneles solares se tranforma en un aparato de 16,42 m.La computadora de vuelo principal fue desarrollada y fabricada en el país.

Idem al anterior, ARTSAT 2, fue desarrollado por la CONAE y fabricado por INVAP. Es importante destacar que el mundo solo 8 países construyen satélites geoestacionarios. Ellos son China Rusia,EE.UU.,Alemania, Francia, Japón, India , Israel y Argentina.

El lanzamiento está previsto para septiembre de 2015, desde el Centro Espacial en la Guayanas francesas, por la empresa Arianespace, la misma que puso el ARSAT 1 en órbita en 2104.


Fuente Consultada:
Sitio WEb de SATÉLITES ARSAT
«La Ciencia Argentina» de Diego Hurtado
Revista TIME El Siglo de la Ciencia de Clarín
Sitio Web del Diario «La Nación»

Otros Temas Curiosos y Relacionados:

Que es un satelite artificial? Uso y Funciones de los Satelites
Primer Satelite Enviado al Espacio:Comienzo de la Era Espacial
Grandes Hazañas del Hombre y Sus Logros Tecnicos
El Vuelo de Gordon Cooper
Mision Espacial Soyuz-Apolo La Era Espacial Misiones al Espacio
Primera Caminata Espacial Americana
Hitos de la Carrera Espacial-Cronologia de las Principales Hazañas

Enlace Externo:Espacial – INVAP – Investigación Aplicada

Beneficios de la Era Espacial y las Mejoras Para La Sociedad

Beneficios de la Era Espacial y Las Mejoras Para La Sociedad

Cuando en 1969  descendió sobre la superficie de la Luna,  el famoso módulo Lunar del Apolo XI, dirigido por Armostrong y Collin.

Su país había  invertido unos 30.000 millones de dólares en programas espaciales; y el esfuerzo soviético seria ,sin dudas, equivalente.

¿Cuáles son las ventajas concretas de tan tremendo esfuerzo?.

Haremos abstracción de las inmensas posibilidades científicas, para exponer lo que ya se ha conseguido en el campo de la práctica.

Primeros Logros Científicos Aplicados a la Sociedad

Primeros Logros Científicos Aplicados a la Sociedad

Los Satélites Técnicos.

Antes del Telstar, América y Europa estaban unidas por 343 líneas telefónicas.

Este satélite podía retransmitir 300 comunicaciones simultáneas, y los que se proyectan podrán transmitir en dos segundos todo el contenido de un diario.

Los satélites meteorológicos, como el Tiros, permitieron ganar, mediante sus. microondas de rayos infrarrojos, 48 horas en la previsión de los tornados;   además,   economizan   muchos   traslados   inútiles de rompehielos al indicar la ubicación de los campos helados, y, accesoriamente, informan sobre los incendios de bosques.

Los satélites de tipo Transit, por su parte, permiten a barcos y submarinos establecer su posición muy rápidamente con un error de menos de 500 metros.

Ver: Los Satélites Artificiales

La miniaturización.

La necesidad de obtener productcs eficaces y livianos y los inmensos créditos disponibles, han sido un latigazo para la industria que produjo ya 3.200 sustancias nuevas con este objeto.

Después del perfeccionamiento de los transistores se llega a los circuitos integrados, que permiten acumular una increíble cantidad de sistemas electrónicos en el volumen de una caja de cerillas.

Una de las técnicas consiste en depositar en el vacío una película metálica de extrema delgadez, a fin de obtener redes interconectadas; otra, ejecuta el circuito complete sobre el minúsculo grano que constituye la cabeza del semiconductor.

Gracias a estos circuitos integrados se pudo transformar toda la técnica de las calculadoras electrónicas: existen ahora (1970) computadoras que sólo pesan 8 kilos para una memoria de 16.000 signos, y se calcula que su costo futuro se reducirá a la quinta parte del actual. (Las computadoras invaden la industria y el comercio, y los soviéticos calculan que dentro de 20 años necesitarán un millón de operadores adiestrados para calculadoras.)

(ver: microprocesador electronico)

Entre las aplicaciones a la vida cotidiana citemos el radar en miniatura para ciegos, que les permite «oír» los obstáculos, fijos o móviles, por resonancia, un poco a la manera  de   los  murciélagos que emiten chillidos  ultrasónicos.

Ver: La Evolución de las Microcomputadoras

Nuevos materiales.

Aquí no hay nada absolutamente original, pero las exigencias son mucho más severas. Se trata, en efecto, de obtener materiales extremadamente livianos pero de gran resistencia mecánica y térmica.

Los nuevos aceros a base de cromo, molibdeno y vanadio, como el Vascojet 1.000, son casi tres veces más resistentes que los aceros clásicos.

El berilio ha entrado en la industria porque, siendo apenas más pesado que el magnesio, es tan rígido como el molibdeno, tan refractario como el titanio, tan resistente a la oxidación como el aluminio y soporte admirablemente la corrosión; sus inconvenientes más graves son su toxicidad y su extrema fragilidad.

El berilio es indispensable en la industria nuclear porque casi no atrae los neutrones, y en la astronáutica, para las ojivas que protegen la nave cuando vuelve a penetrar en la atmósfera; además se lo utiliza para construir giróscopos de gran estabilidad dimensional y considerable rigidez, y como ventana transparente en los aparatos de rayos X.

Este año, un coche construido con berilio participó en la célebre carrera de automóviles de Indianápolis.

También se ha perfeccionado el titanio para su uso en la cápsula Mercury y se lo emplea ya en el tren de aterrizaje del Boeing 727, así como para la fabricación de recipientes de hidrógeno líquido.

Para soldar los materiales refractarios que emplea la astronáutica hubo que perfeccionar un soplete que emite electrones de alto poder y permite soldar uniones que resisten temperaturas de 1.700°C.

Por su parte, los hornos utilizan el pirografito perfeccionado, que se empleó por primera vez en astronáutica.

Energía.

La astronáutica permitió perfeccionar la pila de gases, que transforma directamente la energía química en eléctrica.

El rendimiento de las baterías solares se ha multiplicado por 300 y su uso en la superficie terrestre ya puede ser redituable.

El hidruro de litio, como reserva de hidrógeno, tendrá, con seguridad, muchas aplicaciones en la industria.

Y por último, se encara ya seriamente la realización del famoso motor a eyección de iones de cesio, cuyo poder y posibilidades son inmensas.

Medicina.

Para mejor control de los cosmonautas se construyeron aparatos que permiten mediciones fisiológicas continuas.

También se fabrican ahora simuladores cardíacos, munidos de baterías especiales, que han salvado ya muchas vidas humanas, y que, al ser portátiles, podrán permitir al paciente una existencia casi normal.

Para los viajes espaciales largos se estudia y perfecciona la hibernación, consistente en disminuir la temperatura y dejar al paciente en estado de vida latente: cada adelanto que se logra es inmediatamente utilizado en cirugía.

Por último, se han creado sustancias químicas que procuran proteger el organismo del cosmonauta de las radiaciones peligrosas y, de esta manera, amplían el campo de los medicamentos antirradiactivos.

Ver: Lo últimos avances en medicina

Fuente Consultada:
TECNIRAMA N°11 Enciclopedia de la Ciencia y la Tecnología – La Astronaútica –

Temas Relacionados:

Causa de La Basura Espacial-Peligro de los Desechos
Historia de la Estacion Espacial Internacional
Teledetección Espacial Fundamentos y Usos en los Recursos
Carrera Armamentista y Espacial en la Guerra Fría
Usos del Transbordador Espacial-Mision y Características
Primera Caminata Espacial Americana

Enlace Externo: La Vida en la Tierra Gracias a los Viajes Espaciales

Uso de Computadoras en la Segunda Guerra Mundial:Aplicaciones

Uso de Computadoras en la Segunda Guerra Mundial

El cerebro humano es la más eficaz de las máquinas de computar, pero es también la más lenta.

La sucesión de imágenes que llamamos vista, atraviesa velozmente el cerebro a razón de sólo ocho a trece veces por segundo.

La velocidad más efectiva de un mecanógrafo profesional  es sólo, de  cuatro letras o cifras por segundo.

Compárese el alcance de la velocida humana con la de una máquina electrónica cue puede engullir 60.000 datos por segundo.

Era inevitable que el cerebro mecánico tuviese que reemplazar en las oficinas al cerebro humano.

Ciertos servicios nuevos como cálculo y análisis de impuestos a los réditos, seguro médico, fondos para jubilaciones, seguridad social, censos de la población de la nación entera, y cómputo de votos, exigían máquinas matemáticas, y así nacieron las primeras máquinas que procesaban información usando tarjetas perforadas.

En realidad el  paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ( con el concepto de software almacenado en una memoria)  se dió a partir del conflicto bélico mundial, en donde era necesario realizar miles y miles de cálculos exactos en el menor tiempo posible, por ejemplo para determinar el ángulo de inclinación de un arma para dar en el blanco del enemigo.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos.

En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC.

Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial.

En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II.

Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

Estas primeras máquinas computadoras robot, que nacieron en la segunda Guerra Mundial, costaban cada una cinco o más millones de dólares, se han modificado y mejorado cada cinco años.

Cada nueva máquina lucía habilidades nuevas y nueva velocidad. Cada una es una creación especial y se les ha dado nombres especiales: ENIAC, MARK I, II, III, BIZMAC, NORC, UNIVAC, ERMA, ZEPHIR.

Se las construía en todo el mundo y siempre el último modelo era más imponente que el anterior.

La primera de las computadoras  electrónicas fue la ENIAC de Goldstein, creada en 1944 para calcular tablas de bombardeos y fuego. Resolvió el problema de la trayectoria de una granada en menos tiempo del que la granada necesitaba para llegar al blanco.

Esta máquina aconsejó a los ingenieros estadounidenses que no perdieran el tiempo en un cañón eléctrico al cual los alemanes habían dedicado valiosos años y enorme cantidad de dinero. ENIAC demostró que no podía realizarse.

ENIAC, Computadora Electrónica

Las limitaciones de ENIAC, sin embargo, fueron graves.

Podía recordar solamente veinte números por vez.

El hecho de emplear tarjetas perforadas retardaba el funcionamiento. Podía dar cabida únicamente a 24.000 tarjetas por hora. Había mucho que mejorar y los mejoramientos llegaron.

El siguiente cerebro gigante, MARK I, pudo almacenar 400.000 dígitos, comparado con los 3000 dígitos de capacidad de la ENIAC. MARK I realizaba las sumas en sólo 20.000 microsegundos, comparado con los 300.000 microsegundos de tiempo de la ENIAC. MARK I, en realidad, tenía más de todo: 700.000  piezas y más  engranajes que  10.000 relojes.

MARK I, Computadora Electrónica

El paso decisivo para la construcción de un ordenador electrónico, en el sentido moderno, lo dio Von Neumann ya entrado el siglo XX, al permitir que los programas fuera internos a la máquina.

Para ello se valió de los grandes adelantos de la electrónica en esos momentos. En 1944 se construyó el primer ordenador utilizado con fines prácticos: el ENIAC.

Como en tantas otras ciencias, este avance vino provocado por las necesidades militares que surgieron con la segunda güera mundial.

En 1952 aparecen, sólo a título experimental, los ordenadores MANIAC-I y MANIAC-II. Sin lugar a dudas, podemos afirmar que ese fue el nacimiento de unas máquinas que aún no sabemos, y ni tan siquiera prevemos, hasta dónde pueden llegar.

En 1952, la capacidad de almacenamiento saltó a 3 millones de datos individuales.

El tiempo de suma se redujo a 60 microsegundos.

En 1954, la capacidad de almacenamiento aumentó a 50 millones de dígitos, y el tiempo de suma se redujo a 14 microsegundos. Y las máquinas siguieron siendo siempre nás veloces.

MARK II fue diez veces más rápida rué la ENIAC; MARK III fue veinticinco veces mas ligera que MARK II.

El modelo más reciente puede acumular datos equivalentes a 465.000 tarjetas perforadas y manejar 3.600.000 cómputos distintos por minuto.

La UNIVAC,  capaz  de   realizar  100.000   multiplicaciones por segundo,   podía hacer en  dos minutos mismo que un   hombre en toda su vida   usando una buena   calculadora de pupitre.  

Su primer   trabajo fue analizar 12 millones de detalles individuales reunidos por 132.000 recopiladores sobre las formas y condiciones de vida de 150 millones de norteamericanos.

Hace un promedio de 60.000. reservas de aviones por día e imprime por minuto 600 renglones de respuestas en un papel.

ZEPHIR es un genio mecánico del idioma, del tamaño de un ropero, que automáticamente traducía del inglés a tres idiomas extranjeros.

Al IBM 704 se le reconoce ahora un vocabulario de 60.000 palabras, comparado con el de 5000 palabras del común de las personas.

Tiene 1.179.648 células memorizadoras, lo cual implica haber dejado muy atrás los 200 caracteres por segundo de la primera máquina perforadora electrónica.

En la construcción del «empleado bancario» ERMA, de 25 toneladas, se tardó cinco años, pero ha transformado el trabajo bancario en los Estados Unidos.

En lugar de voluminosos archivos de notas y fichas del Mayor, el cajero pagador de un banco tiene solamente un sencillo teclado en su mostrador.

Oprimiendo el número de la cuenta del cliente, el pagador acciona el equipo central (dos tambores rotativos de cilindros de aluminio rociados con óxido de hierro archivan magnéticamente toda clase de informes) poniendo a la vista en el acto el saldo del cliente.

A mediados de 1958 ya 1700 empresas usaban cerebros electrónicos, y había pedidos pendientes por 3000 más, a precios que oscilaban entre medio millón y cuatro millones de dólares cada una.

• Nace el minúsculo gigante

Los cerebros gigantes continuaron engrandeciéndose hasta que su mismo tamaño se convirtió en un grave problema.

Una llamada telefónica transcontinental, por ejemplo, requería 12.300 tubos de vacío además de 112.000 resistencias y 97.000 condensadores.

Los grandes lechos de tubos de vacío exigían costosos  acondicionadores  de aire  para  mantenerlos fríos.

El mismo tubo de vacío, que fue el iniciador fe la era electrónica, se convirtió en el freno del progreso.

Abocados a este problema, los Laboratorios Telefónicos Bell volvieron a los cristales.

Los investigadores supusieron que podría haber uno o dos recursos que quedaron inadvertidos en la galena, u otro material descartado que se utilizase antes de inventarse el tubo al vacío.

Su corazonada resultó ser acertada. En 1948 anunciaron la invención del transistor.

Tan pequeño como la uña de un dedo, este trozo de germanio con dos «bigotes» de alambre realizaba todas las funciones de un tubo electrónico.

Ya no se necesitaba hacer que los electrones saliesen de los electrodos ni usar ningún costoso sistema de enfriamiento para los tubos calientes.

Con 70.000 horas de vida, el triple de los tubos de vacío, el transistor era duradero, seguro y reducido de tamaño.

El tipo de transistor de conexión estaba hecho de simples cristales de germanio metálico.

Tenía tres zonas de cristales, que diferían en cuanto a la resistencia al paso de la corriente eléctrica, con las diferencias debidas a cantidades de impurezas insignificantes, pero medidas muy cuidadosamente.

primer transistor

Funcionaba de acuerdo con el mismo principio que un tubo de vacío, que tiene un emisor y un recector (un ánodo y un cátodo).

Cualquier variación en la corriente del emisor provocaba una variación mucho mayor en la corriente del colector 7 en consecuencia, hay amplificación.

De igual manera las impurezas de un transistor provocan la variación en la corriente y de este modo controlan y amplifican el flujo de electrones.

Para amplificar una señal común, un transistor requiere «clámente un millonésimo de la energía utilizada per un tubo de vacío similar.

Con la aparición del transistor los cerebros gigantes redujeron su tamaño desde el de una casa al de una valija.

Los datos guardados en 1.600 gavetas de archivo pudieron entonces condensarse en un espacio de 0,5 metros cúbicos.

Con toda su capacidad para computar y su reducción de tamaño, los cerebros electrónicos han conseguido hacer el trabajo corriente de oficina con una velocidad diez mil veces mayor en los últimos diez años.

Los cerebros electrónicos, comenzaron a realizar todas las operaciones comunes. Podían entregar paquetes, escoger y envolver comestibles, cobrar monedas, seleccionar libros de las librerías, y actuar como secretarios de directores y gerentes muy ocupados.

Hoy todo esta evolución es historia y parece anecdótico, pero en aquel momento el mundo estaba asombrado, pues en el tiempo que tardaba un ser humano en apuntar un simple número, ese pequeño adminículo podía multiplicar dieciséis cantidades grandes, elevar al cuadrado el resultado, consultar una tabla de cifras en una pulgada cuadrada de puntos, elegir la cifra exacta e incluirla en el cálculo final….era una maravilla de la ciencia, que había nacido lamentablemente por las exigencias de una onminosa guerra que se llevó mas de 50.000.000 millones de personas, gran parte de ellas civiles inocentes.

LAS COMPUTADORAS COMO DECIFRADORAS DE CÓDIGOS

Durante la S.G.M. Alemania había logrador inventar un sistema de enciptamiento de la información enviada que resultaba sumamente díficil para los aliados poder resolverlo, pues las posibilidades de encriptación de esa información era del orden de billones de posibilidades.

A ese sistema se lo utilizaba mediante una máquina creada para tal fin, llamada  Máquina Enigma.

En cierto momento de la guerra una de esas máquinas fue capturada y se le pidió al matemático Alan Turing que se encargase junto a un equipo de cientificos estudiar y descubrir el sistema de codificación de Enigma, para aventajar a los alemanes en sus movimientos estratégicos.

Para ello creó una máquina mecánica como la que se observa en la figura de abajo.

La Máquina de Turing

Solía decirse que la Primera Guerra Mundial fue la guerra de los químicos y la Segunda Guerra Mundial la de los físicos.

De hecho, de acuerdo con la información revelada en las últimas décadas, quizás sea verdad que la Segunda Guerra Mundial fue también la guerra de los matemáticos, y que en el caso de una tercera guerra su contribución sería aún más importante.

Debido a la naturaleza secreta del trabajo llevado a cabo en Bletchley por Turing y su equipo, su contribución inmensa al esfuerzo de la guerra no pudo ser reconocida públicamente, ni siquiera muchos años después de la guerra.

A lo largo de toda su carrera como descifrador, Turing nunca perdió de vista sus objetivos matemáticos.

Las máquinas hipotéticas habían sido reemplazadas por máquinas reales, pero las preguntas esotéricas seguían vigentes.

Cerca del final de la guerra Turing ayudó a construir el Colossus, una máquina totalmente electrónica compuesta de 1.500 válvulas que eran mucho más rápidas que los relés electromecánicos empleados en las bombas.

Colossus era un computador en el sentido moderno de la palabra, y su velocidad adicional y sofisticación hicieron que Turing lo considerara un cerebro primitivo: tenía memoria, podía procesar información y los estados dentro del computador se asemejaban a estados mentales.

Turing había transformado su máquina imaginaria en el primer computador real.

Máquina Colossus

CRONOLOGÍA DEL ORDENADOR ELECTRÓNICO

1642 Pascal diseñó la primera máquina de calcular basada en ruedas dentadas que sólo podía sumar y restar.

1694 El matemático Leibniz diseña una máquina ampliando los estudios de Pascal. Esta calculadora, además de sumar y restar, también multiplicaba, dividía e incluso extraía raíces cuadradas. Debido a la falta de tecnología en esa época la difusión de esta máquina fue escasa.

1822 Babbage establece los principios de funcionamiento de los ordenadores electrónicos en un proyecto de máquina denominada «máquina diferencial», que podía resolver polinomios de hasta 8 términos.

1833 Un nuevo trabajo de Babbage, la «máquina analítica», puede considerarse como un prototipo de los actuales ordenadores electrónicos.

1944  John Von Neuman propone la idea de «programa interno» y desarrolla un fundamento teórico para la construcción de un ordenador electrónico.

1945   Entra en funcionamiento el ENIAC (Electronic Numerical Integrator and Calculator), su primera utilización fue para la construcción de tablas para el cálculo de trayectoria de proyectiles.

1952 Se construyen los ordenadores MANIAC-I y MANIAC-II, con lo que se termina la prehistoria de la informática.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker
Gran Enciclopedia de la Informática Tomo I Historia de las Computadoras

Temas Relacionados

• Historia y Funcionamiento de Internet
• Breve Historia de la Comunicación Humana
• El Mouse: Historia del Invento Para Computadora
• Uso de Computadoras en la Segunda Guerra Mundial
• Historia de la Computacion Generaciones y sus Caracteristicas
• Evolucion de las Microcomputadoras Historia y Evolucion Tecnologica
• Historia de la Tabla de Codigos ASCII:Lista de Codigos de Caracteres
• Que es un Microprocesador? Fabricacion Chip de Silicio Definicion
• Clasificacion de Virus Informaticos -Tipos de Virus y Antivirus
• Conceptos Basicos de Internet:Resumen Para Principiantes

Enlace Externo:Así es el superordenador más grande del mundo que funciona como un cerebro humano

Historia de la Automatizacion – Causas y Evolución

Historia de la Automatización Industrial

Bajo la presión de la segunda Guerra Mundial se introdujo en las fábricas toda clase de elevadores de horquilla y transportadores para acelerar la marcha de los materiales.

Estos se convirtieron en parte integral de la línea de montaje, llevando artículos de una máquina a otra. Inevitablemente, el paso siguiente fue la mano de hierro que comprimiese todas las operaciones mecánicas en una corriente continua.

Una mano humana ejecuta siete movimientos básicos que se combinan cuando toma un objeto, lo hace girar, lo mueve o lo levanta.

Treinta juntas son mantenidas bajo el control de las tensiones equilibradas de cincuenta músculos mediante pulsaciones indicadoras que recorren las líneas de sus nervios.

Ford fue el primero que trató de construir, dentro de una fabrica, una máquina cuya constitución interna imitase un organismo viviente.

El brazo móvil mecánico, con su mano, fue el primer mecanismo de un robot que actuaba exactamente como los órganos sensoriales.

Era un brazo flexible, articulado.

En el extremo tenía una grapa compleja parecida a una mano de acero.

La grapa asía la pieza en que se trabajaba  y la  colocaba en la herramienta.

Este elemento estaba regido a la distancia por un rollo de papel horadado, como el rollo de música de una pianola. Los agujeros permitían que los contactos eléctricos se hicieran únicamente en los puntos prefijados.

Estos determinaban todos los movimientos separados: a qué velocidad tenía que moverse, cuándo los dedos tenían que cerrarse, a qué distancia debía llegar el brazo móvil, dónde y cómo tendría que colocar el material de trabajo.

El brazo móvil fue un acontecimiento espectacular. Economizó tiempo, dinero y trabajo humano.

El cerebro mecánico que apuntó hacia objetivos militares durante la guerra ahora aceleraba la producción de un automóvil Ford.

Los ingenieros comenzaron a preguntarse por qué los mecanismos serviles no podían dar órdenes a todas las otras máquinas de la planta y regir la fábrica entera.

automatizar fabrica siglo xix

► FÁBRICA AUTOMÁTICA

Para el nuevo salto hacia el futuro se disponía de todos los inventos electrónicos. La automatización de toda una   fábrica   fue una   aventura   en que debería  jugarse un billón  de dólares.

  Ford   decidió correr el riesgo.

La automatización significaba más que la interconexión de las máquinas existentes.

Fue necesario volver a diseñar y volver a construir todas las máquinas y hacer que la fábrica entera estuviese gobernada por dispositivos eléctricos preestablecidos.

El monstruo de múltiples brazos tenía una cuadra de largo y ejecutaba 540 operaciones mecánicas. Había 265 taladros automáticos, 6 fresadoras, 21 barrenadoras, 56 escariadoras, 101 avellanadores, 106 terrajas de contratuercas y 133 inspecciones.

Las mediciones empezaron a realizarse por medio de pulsaciones eléctricas, en lugar de dientes metálicos.

La manipulación se hizo con condensadores eléctricos en lugar de levas. Los movimientos fueron comandados por alambres de conexión y no por palancas.

El capataz fue una cinta magnética que daba una serie de órdenes en forma de sí y de no a los tubos electrónicos, que a su vez la retransmitían cual soldados de centinela a los lugares de trabajo.

A   los   músculos   mecánicos   se   acoplaron   cerebros electrónicos.

La automatización hizo anticuados todos los conceptos normales de la producción en masa.

El trabajo se realiza en una fábrica con rapidez mil veces superior a lo que lo pueden hacer las manos humanas. Lo que empezó siendo una barra de metal se taladró, horadó, fresó, acepilló, troqueló, aserró, cizalló, trituró y afiló; y mientras tanto daba saltos mortales el tiempo bajo los transportadores aéreos y salía finalmente   convertido   en   150   motores  terminados por hora.

El éxito de la operación Ford contribuyó a que la automatización se extendiera velozmente por todo el territorio de los Estados Unidos.

El sistema telefónico es automatizado casi en un 90 por ciento.

En cintas perforadas se registran los números llamados y la ciudad, la hora en que comenzó la llamada y la hora en que terminó.

Las computadoras reúnen, traducen, clasifican y resumen toda la información facturable.

Un sencillo cable coaxil simultáneamente cientos de conversaciones telefónicas individuales, programas radiales y de televisión.

Estaciones amplificadoras que no requieren personal para su atención envian a todo el país todo tipo de comunicaciones.

En la industria petrolera, las unidades de destilación comenzaron tratando 5,5 millones de galones de petróleo no refinado por día mediante el control automático que cuida la circulación del petróleo, su temperatura, su presión y el envase.

En las fábricas de lámparas eléctricas, un río de vidrio corre durante las 24 horas del día, saliendo 1200 lamparitas por minuto.

Cada industria sintió el impacto de la automatización.

Con mediciones electromagnéticas se determinó tensión, dureza e imperfecciones de las chapas de hierro.

Las células fotoeléctricas estudiaron el pulido, la incandescencia y la transparencia de papeles y tejidos.

La automatización no sólo moldeaba un producto, sino que medía su peso, su presión y su espesor, imprimiendo los datos al momento en un rollo de papel.

Determinaba por anticipado la clase de operación requerida y hacía sus propias correcciones.

Los métodos de fabricación fueron transformados completamente por el potencial de esta nueva técnica automática.

En las radios, por ejemplo, se eliminaron todos los pequeños trozos de cable y soldadura.

Las piezas componentes se rediseñaron por completo.

En lugar de cables, se grabaron circuitos extendiendo el metal fundido en moldes plásticos acanalados.

Se dispusieron seis distintos circuitos en obleas de cerámica de una pulgada, formando una estructura rígida de aparato radiotelefónico.

La máquina insertadora cortaba, modelaba, insertaba, agruaba y soldaba mecánicamente. Los que habían sido gabinetes en secciones se convirtieron en cajas moldeadas en una sola pieza.

Con esta simplificación se pudo realizar 10.000 montajes por día.

Con los viejos métodos, un obrero tardaba un día entero en hacer un solo montaje.  Pronto comenzó a tomar posesión de los depósitos.

Las máquinas entregaban mercaderías a los autómatas de depósito que se deslizaban por pasillos, cumpliendo y rotulando pedidos, almacenando mercaderías del stock y entregando planillas con todos los datos.

Todas las operaciones se dirigían por radio desde una oficina central.

Los cerebros electrónicos llevaban cuenta exacta de la venta, llenaban listas de pagos de sueldos y jornales, calculaban y enviaban facturas y ordenaban la producción.

Importancia de la Automatización

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

Historia del Uso de la Corriente Alterna:Disputa Edison Vs. Tesla

Historia del Uso de la Corriente Alterna
Disputa de Edison Vs. Tesla

Hacia 1880, la ciudad de Nueva York tenía por la noche un aspecto muy diferente al de hoy.

Calles y casas estaban, en general, iluminadas con lámparas de gas o de aceite.

Pocos años antes, Edison había presentado su práctica lámpara incandescente.

Sin embargo, no había un sistema público de energía eléctrica, aunque las calles del bajo Manhattan estaban festoneadas con gran número de alambres eléctricos para circuitos telefónicos y telegráficos.

El primer sistema comercial de energía eléctrica, desarrollado por Thomas Edison, era estrictamente un sistema de corriente continua.

La mayoría de los científicos estaban convencidos que la corriente alterna no era segura ni práctica para uso comercial y que no tenía ninguna ventaja compensadora.

Cuando se considera que la distribución práctica de la energía eléctrica se inició con la corriente continua y que sus sistemas predominaron muchos años, es sorprendente que alguna vez llegara a nosotros la corriente alterna.

Ahora, sin embargo, los sistemas de energía eléctrica están basados casi exclusivamente en corrientes alternas.

Es evidente que hay algunas propiedades de la corriente alterna que la hacen particularmente valiosa en situaciones comerciales modernas.

• ►MlCHAEL FARADAY

PRIMEROS PASOS….

Conocido como el «príncipe de los experimentadores».

Faraday había sido el creador de un sorprendente número de cosas nuevas, incluyendo la iluminación a gas; pero se lo recuerda únicamente como el inventor de la dínamo.

Ya en 1821, demostró que un alambre   cargado podía   girar continuamente   en torno de un imán y que podía hacerse que girase alrededor de un alambre que transportaba corriente.

De estos primeros experimentos resultó una idea que siguió dándole vueltas en el cerebro curante los diez años siguientes.

¿Sería posible que un imán produjera electricidad?

Faraday Cientifico

Lo que indujo a Faraday a concentrarse en este problema fue su convencimiento de que en el espacio que rodeaba a un imán o a un alambre cargado vibraban líneas invisibles de fuerza que se movían hacia fuera en círculos.

Sabía que consiguiendo que lesas líneas invisibles de fuerza hicieran girar una rueda, habría dominado esos poderes invisibles.

Era una idea audaz y original la de conseguir que un campo magnético saltara por el espacio desde luna bobina primaria a una bobina secundaria.

Fracasaron los ensayos que, con intermitencias, hizo durante diez años.

No logró inducir una corriente continua en una bobina secundaria, hasta que de pronto comprendió la verdad en la tarde del 17 de octubre de 1831: para conseguir una corriente continua era necesario tener en movimiento continuo las bobinas  o   imanes   que   cortasen   las líneas   de fuerza.

En pocos días construyó la primera dínamo.

Montó un disco de cobre de 30 centímetros, que podía hacerse girar mediante una manivela.

Los bordes exteriores pasaban entre los polos de un gran imán mientras giraba.

Unas escobillas iban desde el disco le cobre a la segunda bobina, que tenía un galvanómetro.

Mientras hacía girar la manivela, la aguja del galvanómetro anunciaba triunfalmente el hecho de que la corriente pasaba sin cesar.

Faraday consiguió convertir la fuerza mecánica en corriente.

La primera dínamo (o generrador de energía eléctrica) había nacido.

Dinamo, generador de energía electrica

Faraday ignoraba que el año anterior, Joseph Henry, desde Estados Unidos, había escrito a un amigo:

«Últimamente he logrado producir movimiento en una pequeña máquina mediante una fuerza que, a mi juicio, hasta ahora no ha sido aplicada en mecánica: mediante atracción y repulsión magnética«. Henry no dio este hecho a la publicidad y con ello hizo perder a Estados Unidos en honor de haber descubierto la dínamo.

En las décadas   que siguieron,   la dínamo   experimental   de Faraday se   transformó,   poco a poco, en el tipo   de   motor-generador   conocido   actualmente.

En lugar   del disco   de cobre, se hizo   girar bobinas entre los polos.

Un simple anillo   se transformó   en una serie de bobinas como  un inducido.

Un electroimán reemplazó  al imán permanente.  

Los   núcleos de hierro   de los inducidos   se cortaron   en láminas aisladas, para   conseguir un campo   mayor de intensidad.

En 1873,   Z. T. Gramme, de Viena, hizo que un motor   eléctrico girase   accionado   por una   máquina   de vapor y   generó corriente   eléctrica.

• ►El Inventor del Siglo XX: Edison

Fue entonces   cuando   Thomas Edison   pensó   en valerse   de una máquina   de vapor   para   hacer   rotar una   dínamo enorme y con   ello conseguir   una corriente   directa que pasara en forma constante a través de los cables tendidos   por   debajo   de   tierra,   hasta   las   bombitas eléctricas de los edificios.

Estaba dispuesto entonces a iniciar los experimentos conducentes a mejorar la lámpara eléctrica, objetivo que logró luego de ensayar 1200 variantes de materiales para el filamento.

Mas tarde Edison se abocó al estudio de generación de corriente eléctrica o generadores y para ello, añadió bastantes espiras de alambre en las bobinas de los primitivos generadores que rodeaban al inducido, hizo los imanes suficientemente grandes y aceleró la rotación del inducido lo necesario para conseguir una fuente barata de energía eléctrica.

EdisonLuego Edison analizó en que si se distribuía la energía por una ciudad era necesario colocar un medidor de consumo.

Pensó en el problema práctico de colocar un medidor en cada edificio, a fin de conocer el consumo de corriente eléctrica.

Basándose en que la velocidad de rotación de una dínamo es directamente proporcional a la corriente, construyó un medidor consistente en un pequeño motor desmultiplicado de tal manera que una fracción de una vuelta de la aguja indicadora representase un número enorme de revoluciones.

Hubo que resolver otros problemas, tales como la fabricación de fusibles seguros y artefactos livianos.

Toda la provisión de lamparitas, artefactos y electricidad fue gratuita durante un período de cinco meses en todos los edificios que accediesen a cambiar el gas por electricidad.

Finalmente, todo estuvo listo y se dio paso a la corriente.

Los periodistas que vieron toda una manzana de la ciudad iluminada con 2.300 lamparitas eléctrica: comprendieron que la era de la iluminación de ga tocaba a su término.

Escribieron que no había ninguna llama vacilante ni olor nauseabundo a gas expresando su atónita sorpresa ante las «resplande cientes herraduras que brillaban dentro de los globo en forma de peras».

La lámpara eléctrica de Edison abrió el camine a la nueva era eléctrica.

De los inducidos de la central eléctrica entregaban una corriente de 60 ciclos y de 120 voltios que fue la común en todos los hogares de Estados Unidos.

Cada libra de carbón producía al consumirse un kilovatio hora de electricidad.

Una habitación se iluminaba con sólo hacer girar un interruptor, todo porque una bobina de alambre hacía cosas de magia en un imán.

La lámpara de filamento carbónico se convirtic en lámpara de tungsteno cuando William Coolidge, de la General Electric, descubrió que un pedazo de tungsteno tratado especialmente podía estirarse en forma de metal flexible.

Irving Langmuir añadió un gas que retardaba la evaporación del tunsgteno y consiguió que ardiese a mayor temperatura, a fin de que de una simple lamparita se obtuviese más luz.

Ahora el Hombre Mecánico abriría sus ojos brillantes   dondequiera   una  habitación necesitara luz.

Historia del Uso de la Corriente Alterna:Disputa Edison Vs. Tesla

PROYECTOR ELÉCTRICO DE 1,50 METROS, QUE ILUMINA LOS OBTETOS SITUADOS A 16 KILÓMETROS DE DISTANCIA

LA ERA DE LA ENERGÍA ELÉCTRICA:

La central eléctrica de Edison dio el impulso inicial a una nueva era de la energía.Resultó evidente que no se aprovechaba toda la energía de que era capaz la primera central eléctrica.

La iluminación eléctrica sólo por períodos exigía el total de la energía.

Hubo una enorme reserva, que se podía destinar a otros propósitos.

¿Por   qué   no aplicarla   para   hacer   caminar   las ruedas de los tranvías, en vez de emplear caballos?

Esto apuntaba hacia un motor eléctrico.

La corriente que pasa por las bobinas de un inducido lo hace girar en virtud de la forma en que lo atraen y repelen los polos norte y sur de un imán permanente.

Con un inducido conectado a las ruedas de los tranvías, era posible hacer girar éstas.

Todo lo que se necesitaba era agregar un tercer cable a los que pasaban por debajo de tierra, para que sirviese de nueva línea de transmisión y suministrase la energía que necesitaba el motor eléctrico.

Los cincuenta mil caballos cuyos cascos repiqueteaban en los empedrados de Broadway conocieron pronto un sonido nuevo: el ruido metálico del primer tranvía eléctrico.

El tercer cable tardó poco en suministrar energía a los hogares y a los nuevos trenes elevados.

El nuevo sistema de transporte permitió la expansión de la ciudad.

Los trabajadores no necesitaron ya vivir a distancias que pudieran recorrer a pie para ir a sus oficinas y fábricas.

Mientras tanto, los barrios céntricos de las ciudades comenzaron a crecer en sentido vertical, a medida que los motores nuevos accionaban los ascensores de edificios altos.

Los motores eléctricos lograron contener más energía con tamaños menores.

Se tornaron tan potentes como para ser unidos directamente a las máquinas de las fábricas.

Entraron en los hogares en aspiradoras de alfombra.

El proceso sigue continuando ante nuestra vista, mediante el agregado de motores a lavadoras, mezcladoras, batidoras, refrigeradoras y acondicionadoras de aire.

Faraday Cientifico

Con su sala de turbinas de vapor construida a orillas del rio, completo aislamiento de todo el equipo eléctrico, disposiciones hidráulicas para eliminar las cenizas, instalación de calderas con recalentadores de vapor formados de seis tubos colocados sobre la cámara de combustión, extenso empleo de motores para llevar a efecto las operaciones precisas con las válvulas y perfecta maquinaria para facilitar el transporte del carbón, esta estación central de «Hell Gate», Nueva York, de la Compañía United Electric Light y Power, no tiene rival.

• ►La Corriente Alternada

Aunque la electricidad, en su avance arrollador por el mundo hacía adeptos continuamente, la central  eléctrica  de  Edison  reveló  un notorio  defecto.

Las luces eléctricas, que eran brillantes y constantes cerca de la usina, se debilitaban y oscilaban a tres kilómetros de distancia.

Los generadores de corriente eléctrica no proporcionaban más   de 500 voltios   y esta   energía   no se podía  «impulsar» a  mucha   distancia de la   central eléctrica.

Si se sobrepasaba los 500 voltios, la energía se derrochaba en lluvias de crujientes chispas azules que partían de las piezas   sobrecargadas del generador.

• ►Nikola Tesla

Se vio con   claridad que hacía   falta un   generador de nuevo tipo, que fuese capaz de suministrar energía a distancias largas.

Tesla NikolaUn inventor servio, Nikola Tesla, que trabajó a las órdenes de Edison desde que llegó a este país, se convenció de que la solución estaba en la corriente alternada, que podía generarse en voltajes muy altos.

Edison creyó que esta corriente era demasiado peligrosa. Tesla argüyó que podría reducirse el voltaje, hasta llegar a 120 voltios para uso doméstico, mediante transformadores escalonados.

A todo esto, el transformador, inventado en 1886, resultó ser mucho más flexible de lo que todos imaginaban.

Fue posible pasar   energía de alto voltaje de un circuito a otro circuito con voltaje más bajo, pero con la misma frecuencia (número de revoluciones de una armadura), sin que se moviese ninguna pieza.

El aumento y disminución de los voltajes fue fácil y seguro.

Todo lo que se necesitaba era aumentar o disminuir en el secundario el número de espiras de alambre   con relación   al primario, una   ley sencilla que databa de los días de Faraday.

Tesla llevó su patente a George Westinghouse, quien prosperaba mucho con su nuevo freno de aire, que dio seguridad a los ferrocarriles.

Westinghouse adivinó en el acto la importancia del generador de corriente alterna.

Calculó que el costo de transmisión de esa energía sería sólo el diez por ciento de lo que costaba la corriente continua de Edison.

Los voltajes altos exigían cables más delgados, lo cual permitía muy grandes economías por razón de costosnormal de 120 voltios a distancias que llegaban a 400 kilómetros.

Pronto resultó evidente que mediante centrales hidroeléctricas podían distribuirse 80.000 voltios a ciudades y granjas del campo desde 500 a 1.000 kilómetros.

Si fallaba la caída natural del agua, siempre había turbinas de vapor como reserva, para prestar el servicio.

Valida de estos medios, la energía eléctrica se abarató tanto que pudo competir con la energía del vapor, y pronto las fábricas empezaron a usarlas como fuente de potencia. Se instalaron en fábricas nuevos motores de eficacia mayor, en lugar de los ejes, correas y poleas exigidos por la máquina de vapor.

La fábrica no sólo adquirió un aspecto más limpio y ordenado, sino que también dispuso de una mayor velocidad.

Se acoplaron motores a máquinas que ahora podían aumentar su velocidad de. rotación hasta 400 revoluciones por minuto.

Conectando motores de diferentes tamaños, sólo se necesitaba una energía mínima.

Las fábricas economizaron el costo del anterior movimiento constante de las correas, los ejes y las cadenas que se empleaban con la energía de vapor.

Más o menos en 1920, el Hombre Mecánico unió casi todas las aldeas y ciudades de Estados Unidos a su red de conductores.

Los nuevos mapas del mundo se llenaron pronto de puntos, a medida que se desprendían poblaciones nuevas de los centros congestionados y se poblaban los lugares intermedios entre ciudades, y las regiones antes agrestes y rurales.

Haciendo el trabajo de cien millones de caballos, la electricidad ayudó a transformar Estados Unidos de una nación minúscula en una nación gigantesca.

Tal como la máquina de vapor revolucionó la navegación, y el motor de nafta debía pronto transformar el transporte por carreteras, la energía eléctrica infundió vida nueva a los ferrocarriles, las fábricas y las granjas de Estados Unidos.

Fuente Consultada:
Grandes Inventos de la Humanidad Beril Becker

https://historiaybiografias.com/linea_divisoria3.jpg

LECTURA COMPLEMENTARIA:

La importancia de la electricidad como medio de transportar energía:

Es difícil encontrar aplicación de la electricidad que demuestre más claramente su completa sumisión al hombre como la que se relaciona con el transporte de la energía o fuerza motriz.

Desde tiempo inmemorial el hombre ha utilizado recursos que reemplazasen al esfuerzo que puede producir su brazo; el empleo de la fuerza de los animales es muy antiguo, y hay muestras evidentes de que también aprovechó la energía producida al caer el agua.

de todas maneras, en cada caso, siempre coincidían el lugar de producción y el de aplicación de la energía.

La rueda hidráulica y el molino de nuestros antepasados estaban instalados al lado mismo del salto de agua.

De este modo, muy pocos de nuestros grandes recursos hidráulicos podían ser aprovechados, pues la mayoría de los grandes saltos de agua están situados en lugares inaccesibles de las regiones montañosas, a los cuales sería imposible, o por lo menos muy costoso, transportar las primeras materias.

La fuerza motriz, invisible, va desde la escarpada montaña a la populosa ciudad.

Los progresos y desarrollo de la máquina de vapor y su creciente importancia han hecho se piense en buscar un medio de transmitir la energía al lugar del consumo desde el punto donde pueda producirse económicamente, ya por estar próximo el combustible o ser más fácil el acarreo desde la mina.

generador de energia electrica

UN GRAN GENERADOR ELÉCTRICO DE TURBINA: Uno de los generadores, de 55.000 caballos de fuerza, en la instalación hidroeléctrica de Queenston-Chippawa. Las turbinas de esta clase reposan sobre una especie de cojinetes o almohadillado de agua, tan delicadamente dispuesto, que si no se frena, tarda doce horas en pararse por completo, a contar desde el momento en que se corta la marcha.

Cuando la instalación de una máquina de vapor puede hacerse a la orilla de un estuario o un puerto, el carbón se transporta por mar a un coste relativamente bajo; pero dentro de las ciudades la conducción es carísima.

El mismo agente que permite al hombre hablar a gran distancia con sus semejantes, puede ahora emplearse para transmitir la energía desde los saltos de agua en las montañas o las minas de carbón a la distante ciudad o centro consumidor.

Las empresas industriales pueden así establecer las fábricas en aquellos lugares donde los jornales son menos elevados y la primera materia más abundante, puesto que es factible producir la energía necesaria a cientos de kilómetros.

De esta manera también pueden elegirse locales propios y convenientes para las fábricas y las centrales eléctricas donde se genera la energía, ligándose los dos centros por una línea de transmisión que abastece de fuerza eléctrica de un extremo a otro.

Pero todavía la ingeniería moderna no es capaz de suministrar por este medio la fuerza motriz a las distancias que envía la voz humana.

La longitud a que puede transmitirse la energía económicamente en la actualidad es de 440 kilómetros en números redondos, y el alcanzar mayor distancia es uno de los grandes problemas que estudian los técnicos en nuestro siglo.

La transmisión eléctrica ha hecho posible la centralización de las grandes instalaciones productoras de fuerza motriz, y de este modo se ha conseguido convertir mucho más económicamente la energía química del carbón en eléctrica a bajo coste.

La posibilidad de transportar la energía a grandes distancias permitió la instalación de enormes centrales conteniendo máquinas generatrices y convertidores de tal tamaño, que el coste de la producción por unidad de energía es tan bajo que permite sea consumido por las personas de recursos más modestos.

Debido precisamente a la con solidación y seguridad de estas grandes centrales, transmitiendo la energía a cualquier punto de la zona que las rodea por medios económicos y eficaces, ha sido posible la utilización de la electricidad en las fábricas, talleres y las viviendas.

En las instalaciones industriales más modernas se han suprimido los antiguos ejes, poleas y correas, acoplando motores eléctricos a los diversos mecanismos.

La gran cantidad de energía economizada por esta disposición, sin duda mucho más apropiada y flexible para transmitir el movimiento, se emplea en aumentar el número de máquinas trabajando.

El coste de los edificios es así menor, y pueden construirse agrupados o separadamente, segrtn se quiera o convenga, sin tener que ajustarse a la posición del eje transmisor, lo que permite instalar las máquinas en la mejor posición, para disminuir acarreos innecesarios con el producto manufacturado.

La eliminación de las correas deja mayor espacio libre, facilita el trabajo de los puentes-grúas o transbordadores, evita el polvo que se removía durante la marcha y, finalmente, también permite un alumbrado mejor.

La ausencia de cojinetes y aparatos para la lubricación de los mismos libra del goteo continuo de aceite, y todo esto trae consigo una mayor limpieza en las operaciones, mejorando, por consiguiente, las condiciones de salubridad durante el tiempo de estancia de los obreros en el trabajo y disminuyendo además múltiples daños al producto acabado.

La electricidad, aplicada al movimiento de la maquinaria, da mayor rendimiento, produce la fuerza con más flexibilidad que con el antiguo sistema de ejes transmisores, de tal suerte que pueden ponerse en marcha o hacer parar individualmente los aparatos sin que se note el menor cambio en la velocidad de los otros.

Pueden llevarse a efecto muchas operaciones delicadas que necesitan una velocidad igual.

La sencillez con que puede regularse ésta, así como ampliar la fuerza motriz, facilita el aumento de producción y hace disminuir el coste de la materia elaborada.

Son mucho menos frecuentes los accidentes donde se ha adoptado este sistema.

Este hecho, unido a la disminución de ruido, mejor iluminación y mayor espacio, son de gran importancia para patronos y obreros, pues éstos tienen que encontrarse así en mejor disposición para el trabajo.

Las fábricas ya no se ven obligadas a esparcir el humo que lanzan sus chimeneas o el polvillo de sus ventiladores sobre las casas que las rodean, desde que aparatos eléctricos pueden evitarlo, o recoger, como por ejemplo, el polvo, de tanto valor en las fábricas de cemento.

El ozonizador eléctrico instalado en los tubos de salida de vapores que producen mal olor los evita, y permite ejecutar estas operaciones, molestas y desagradables, en locales situados dentro de la población, sin temer a que se opongan sus habitantes.

En las fábricas donde es preciso mover hierros de varias formas, grandes y potentes electroimanes, instalados dentro o fuera de los talleres, transportan los materiales de un lado a otro en todo tiempo, ya llueva o nieve, aumentando así su capacidad productora.

Una de las aplicaciones más importantes de la fuerza eléctrica es la que se relaciona con la tracción.

Al presente hay dos medios para poder hacer marchar los trenes en nuestros ferrocarriles: la máquina de vapor y la locomotora eléctrica.

Necesariamente, la locomotora de vapor se irá abandonando poco a poco, debido a su limitado espacio para generar la fuerza precisa con la amplitud y rendimiento conveniente, mientras que en el tractor eléctrico la energía llega de una estación central capaz de producirla en la cantidad que se requiera.

Una instalación móvil de vapor está sujeta a rápida y elevada depreciación, necesitando un coste de conservación mayor que la sencilla locomotora eléctrica.

El molesto humo y el vapor desaparecen con el tractor eléctrico, y esto, que es de la mayor importancia en el caso de las líneas subterráneas de las grandes ciudades, fué frecuentemente la principal razón del cambio de la tracción de vapor por la eléctrica.

El empleo de la tracción eléctrica por todas partes en las líneas de tranvías y metropolitanos subterráneos se debe, como hemos dicho, principalmente a esta propiedad especial de no producir humo, y  también a la de poder establecer motores encada coche y así mover uno o varios, formando trenes según las necesidades del tráfico.

Las aplicaciones eléctricas han hecho incalculables beneficios mejorando las condiciones de la vida, pues por ellas, en muchas ciudades industriales, los s obreros pueden habitat en la parte más sana de los alrededores, sin perder demasiado tiempo en trasladarse desde su casa al almacén, tienda o taller donde prestan sus servicios.

Aquellos que viven en poblaciones extremadamente densas, por otro lado, pueden salir económicamente al campo para deseansar del torbellino de la ciudad.

Las relaciones sociales, el cambio comercial, el mismo paisaje, todos ellos perderían extraordinariamente sin el motor sin humo.

Las rápidas líneas de tranvías interurbanas, en regiones menos pobladas, transportan pasajeros y mercancías a las granjas situadas en su ruta.

De este modo se tienen medios económicos y convenientes para efectuar las diversas transacciones entre los productores y los que consumen en las ciudades.

El transporte de pasajeros y mercaderías por medio de las líneas eléctricas, el teléfono y el telégrafo, acortan las distancias de tal suerte, que los habitantes del campo están en íntima comunicación entre sí, pudiendo aprovecharse de estas grandes mejoras.

Fuente Consultada:
Colección Moderna de Conocimientos Universales – La Era de la Eléctricidad – Tomo II – Editores W.M. Jackson, Inc.

Temas Relacionados:

Nuevas Fuentes de Energia en el siglo XIX Petroleo y Electricidad
Energía Mareomotriz: Produccion de Electricidad Con Las Mareas
Biografia de Ampere Andre Cientifico Aportes a la Electricidad
Calor Producido Por la Corriente Electrica
Centrales Generadoras de Energía Electrica

Enlace Externo:• La guerra de las corrientes: cuando Tesla y Edison

Aliscafos: Funcionamiento y Usos de las Lanchas Flotantes

Aliscafos: Funcionamiento y Usos de Lanchas Flotantes

La velocidad de un barco, incluso cuando se trata de una nave de combate, está muy limitada por las enormes fuerzas de fricción que se desarrollan entre su casco y el agua en la que flota.

Parece, sin embargo, que el desarrollo del aliscafo (aliscafo, hidroplano o hidrofoil), basado en principios totalmente nuevos, puede proporcionar un medio de vencer las limitaciones de velocidad impuestas por el agua.

Las relaciones que existen entre los aliscafos y las embarcaciones ordinarias son similares a las que existen entre los aeroplanos y los globos dirigibles.

Tanto los globos dirigibles como los barcos ordinarios se trasladan (en el aire y en el agua, respectivamente), y casi toda la potencia suministrada por sus motores se emplea en vencer «la resistencia al avance entre su superficie externa y el agua o aire que los rodea.

aliscafo

En contraposición, tanto los aeroplanos como los aliscafos emplean sus planos inclinados, esquíes o aletas, para desviar parte del aire o del agua hacia abajo.

De esta forma, la potencia desarrollada por sus motores se emplea no sólo para impulsar la nave venciendo la resistencia al avance, sino también para sustentarla.

Esta fuerza de elevación sostiene el aeroplano (que es, por supuesto, mucho más pesado que el aire) en el vuelo, mientras que en los aliscafos se emplea para elevar el casco de la nave sobre la superficie del agua, produciendo una drástica reducción de la resistencia al avance, con el correspondiente aumento de velocidad.

Sin embargo, cuando están parados, los aliscafos flotan sobre el agua de forma análoga a una embarcación normal, y sólo cuando se impulsan a gran velocidad reducen la superficie de contacto con el agua, al elevarse.

aliscafo PT 10

El PT.10, primer aliscafo construido para el transporte de pasajeros, fue botado en 1952. Esta embarcación, equipada con pianos en «V», puede transportar a   30  personas.

En el momento en que un aliscafo alcanza la velocidad adecuada, su casco se eleva sobre la superficie del agua, creando perturbaciones aerodinámicas mucho menores que una embarcación corriente que se trasladara a la mitad de la velocidad, en condiciones comunes.

Los aliscafos son, por tanto, muy adecuados para el servicio en ríos y lagos, donde las perturbaciones excesivas pueden causar grandes perjuicios en las orillas y a otras embarcaciones.

De hecho, hasta hace poco, este tipo de embarcación se ha utilizado sólo en aguas interiores o resguardadas.

Se han empleado, por ejemplo, para viajar por los ríos soviéticos y para cruzar los lagos suizos, siendo especialmente adecuados para viajes cortos, ya que consumen, como mínimo, el doble que las embarcaciones ordinarias.

Al principio, se encontró cierta oposición al empleo de estas embarcaciones en aguas abiertas, ya que existían dudas sobre su comportamiento en condiciones climatológicas adversas, y no se sabía si serían más vulnerables a las grandes olas que las embarcaciones corrientes, en caso de ser sorprendidas por una tormenta en el mar.

Las primeras experiencias en los años 60 de un grupo de investigadores en los EE. UU. han demostrado que un aliscafo navegando por el océano es, en realidad, una realización práctica.

El viaje de 370 kilómetros entre Port Everglades, en Florida, y las Bahamas con este tipo de embarcación, se puede realizar en unas tres horas, siendo más rápido que los buques de vapor y más económico que los aviones.

Aunque los aliscafos viajan más rápidamente que las embarcaciones ordinarias de tamaño parecido, este aumento de velocidad se consigue sin pérdida de comodidad para los pasajeros, e incluso se afirma que el viaje en aliscafo es mucho más suave.

Esta ventaja adicional sobre los viajes ordinarios por agua se deriva del hecho de que el casco del aliscafo se eleva sobre la superficie.

Como sólo los planos (esquíes o aletas) reciben los golpes de agua directamente, las elevaciones y descensos, así como el balanceo experimentado por el barco, se reducen considerablemente.

También se reducen en alto grado las vibraciones debidas a los motores.

DISEÑO DEL ALISCAFO

Aunque el agua es unas 815 veces más densa que el aire, los aliscafos tienen muchos puntos en común con los aeroplanos.

Los planos inclinados no sólo crean un impulso hacia arriba, como consecuencia de desplazar el agua hacia abajo, sino que la presión hidrostática en la zona inmediatamente superior al plano se reduce, como consecuencia del movimiento.

Por lo tanto, sobre ambas superficies del plano se crean fuerzas que tienden a elevarlo, trasmitiendo su impulso al casco unido a él.

La zona de bajas presiones que se crea por encima del plano puede, en ciertas circunstancias, provocar la formación de burbujas de vapor bajo la superficie del agua (un líquido se puede vaporizar haciendo descender su presión, lo mismo que elevando su temperatura).

La formación de estas burbujas no constituye en sí un problema serio; pero, una vez que se han formado, pueden alcanzar la parte posterior del aliscafo.

Allí se deshacen, provocando pequeñas ondas de choque que pueden dañar las superficies metálicas.

Esto se evita, en gran parte, empleando perfiles especiales, muy finos, para los planos, lo cual requiere el uso de materiales muy costosos, tales como el titanio.

Para reducir el peso al mínimo, las embarcaciones se fabrican, en general, con ligeras aleaciones de aluminio.

La gran diferencia de densidad entre el aire y el agua puede provocar una falta de estabilidad si el plano, o parte de él, se eleva momentáneamente fuera del agua.

Esta dificultad no es corriente en aguas resguardadas, donde las olas no son grandes, pero es uno de los problemas a resolver antes de que los aliscafos puedan navegar con seguridad por los océanos.

Si el ángulo de los planos permanece fijo, el impulso ascendente aumenta a medida que el plano se hunde en el agua.

Por lo tanto, el barco mantiene automáticamente su elevación, pero sigue las ondulaciones de las olas.

Sin embargo, puede conseguirse un desplazamiento suave si el ángulo de los planos (o su incidencia) es alterable; en algunas embarcaciones, el ajuste de este ángulo se realiza por un dispositivo automático sensible.

De esta forma, la quilla de la nave puede mantenerse a calado constante.

Se han desarrollado varios tipos diferentes de aliscafos, con el fin de conseguir estabilidad.

Los sistemas principales emplean planos en «V», grupos de planos dispuestos en escalera y diversos sistemas con control de inclinación.

En los dispositivos que emplean planos en «V», el sistema de planos principal se monta ligeramente delante del centro de gravedad de la embarcación, disponiendo un segundo plano en «V» próximo a la popa.

Como puede observarse en el esquema, los extremos de los planos emergen del agua, incluso cuando la embarcación «vuela» sobre aguas quietas.

Esto es indispensable para estabilizar la nave cuando atraviesa aguas revueltas o cuando gira.

En el sistema en escalera, una serie de planos se disponen, uno sobre otro, como los peldaños de una escalera, sobre un soporte.

A medida que el casco de la nave se eleva de forma gradual sobre la superficie del agua, a causa de la velocidad creciente, algunos de los planos emergen.

Esto significa que se dispone dé un área extensa para producir la elevación cuando la velocidad es baja; pero, a medida que la velocidad aumenta, la fuerza precisa para el avance de la nave se reduce, ya que el área de los planos sumergidos es menor.

Del mismo modo que en los sistemas en «V», la estabilidad es mantenida por los planos que se sumergen y emergen del agua.

Existen muchas variaciones en los sistemas de incidencia controlada.

En general, las naves equipadas con este tipo de sistema llevan planos totalmente sumergidos a popa, y la estabilidad se consigue por una serie de dispositivos diferentes, con distintos tipos de flotadores ajustables, montados cerca de la proa.

Algunos tipos poseen alas o flotadores que se deslizan sobre la superficie, mientras que en otros la estabilidad se consigue por diversos mecanismos automáticos, que ajustan el ángulo de incidencia para compensar las variaciones en la superficie del agua.

Con el fin de que los planos trabajen con eficacia, es esencial que su superficie sea lisa.

Pero casi todas las superficies sumergidas en el mar se recubren de lapas y otros pequeños organismos marinos.

Por ello, es preciso limpiar, al menos una vez al mes, los planos y todas las partes asociadas situadas debajo del agua.

Sólo con los adelantos conseguidos hasta el presente no parece probable que puedan construirse grandes embarcaciones fundamentadas en el principio del aliscafo.

La principal dificultad con que se tropieza en el diseño de los aliscafos, incluso los de tipo más pequeño, es la acomodación de los planos para amarrar las naves.

Con embarcaciones pequeñas, el problema no es grave, ya que pueden ser retráctiles.

Sin embargo, con los grandes buques, dotados de sus correspondientes planos de gran tamaño, existe un peligro real de que éstos puedan dañar la obra del puerto al entrar el barco.

El mayor aliscafo construido hasta la fecha es un barco soviético de 107 toneladas, con capacidad para 300 pasajeros. De esta embarcación se afirma que puede alcanzar velocidades de 80 kilómetros por hora.

————-  00000 ————

Vista Inferior de los Aliscafos Con Sistemas Distintos

————-  00000 ————

APLICACIONES

Aunque la mayoría de los aliscafos que se encuentran en servicio está destinada al trasporte de pasajeros a lo largo de los ríos o a través de lagos, existen ya posibles aplicaciones para naves rápidas, basadas en el principio del aliscafo. Estas embarcaciones presentan un interés militar indudable, en especial para destruir submarinos.

Otra aplicación interesante se encuentra en el campo de los vehículos anfibios y lanchas de desembarco.

El establecer una cabeza de playa ha sido siempre una operación peligrosa, ya que las lentas lanchas de desembarco son, con frecuencia, un blanco fácil.

Estas naves, equipadas con planos retráctiles,  serían, por tanto, unos instrumentos valiosos.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°72 Los Aliscafos

Temas Relacionados:

Historia de la Navegacion :Primeros Barcos de la Antiguedad
Primeros Barcos de Acero
Barcos de Cemento y Prefabricados en la Segunda Guerra
Historia de los Barcos, Galeones, Fragatas ,Bergantin
Tragedias Marítimas: Historia de los Barcos Hundidos
Caracteristicas de los Hovercraft
Historia de los Dirigibles:Caracteristicas y Funcionamiento
Vuelos de los Dirigibles Zeppelin Incidentes y Accidentes

Enlace Externo:• EL ALISCAFO, LA NAVE NO CONVENCIONAL QUE LOGRO TRIUNFAR

Barcos de Cemento y Prefabricados en la Segunda Guerra

BARCOS DE CEMENTO CONSTRUIDOS EN SERIE EN LA SEGUNDA GUERRA MUNDIAL

Durante la segunda guerra mundial, la flota mercante aliada sufría pérdidas increíbles bajo la acción del arma submarina y aérea del Eje. La defensa era lenta e incapaz y un dilema se presentaba inexorable: si se seguía construyendo barcos mercantes con los sistemas clásicos, pronto no habría con qué reponer las pérdidas. La urgencia era dramática.

Así surgió el famoso «Liberty»: barco mercante criticado y subestimado, sobre todo por los ingleses, pero que cumplió con el cometido a que fue destinado.

Barco Carguero «Liberty»

El «Liberti» fue el primero de los cargueros fabricado en gran serie y con partes completamente prefabricadas. Infinidad de grandes piezas se estampaban con enormes balancines y se armaban en lugares alejados del astillero, siendo transportadas hasta éste por ferrocarril. Sin embargo, la soldadura autógena y la eléctrica fueron las que en mayor grado salvaron la situación.

Es cierto que los astilleros alemanes fueron los primeros en usar la soldadura y lo hacían desde mucho antes de la guerra, pero el método no estaba difundido en la industria naviera americana. Así se llegó a fabricar hasta dos «Liberty» diarios. Lo cierto es que aquellos barcos, aceptados por los técnicos de la época sólo en ese «caso de emergencia», todavía hoy están en servicio.

La industria naviera alemana llegó a fabricar sus torpederos y submarinos ya no como naves sino como simples estructuras producidas en fábricas lejos aun hasta de la costa del mar. En los Estados Unidos, Holanda y Alemania se construyeron naves de tonelaje menor con la quilla hacia arriba; luego eran «volcadas» y botadas de costado. Una rareza notable la constituyeron los llamados «barcos de cemento». Estas naves estaban construidas en su mayor parte (casco y cubierta) de cemento armado.

La construcción parecía reunir todas las ventajas; era barata, consumía mucho menos hierro, metal precioso en tiempo de guerra; se moldeaba en forma práctica, era relativamente más liviana, y de muy fácil reparación; completamente inoxidable, y prácticamente estaba a salvo de la terrible mina magnética. Pero contra todas las ventajas que le auguraban un gran porvenir «el barco de cemento», después de algunas pocas construcciones, desapareció. Sólo fue un intento más en la carrera hacia la perfección de la industria naviera.

Barco de Cemento

Muchísimos pequeños adelantos técnicos solucionan hoy, con asombrosa facilidad, lo que ayer representaba problemas de mano de obra y de lenta realización. Sabido es que terminar y recubrir los interiores de un lujoso transatlántico, decorarlo, pintarlo, equiparlo de los miles pequeños elementos que requiere esa ciudad flotante, en fin, vestirlo y acondicionarlo con el confort requerido, era trabajo caro y lento.

Pero los plásticos en todas sus formas, láminas, moldeados, tubos, etc., maderas sintéticas, metales livianos, los adhesivos, los acríbeos y las resinas sintéticas, han llegado también en ayuda de los realizadores de esta parte de la nave.

Aviones Convertibles-Historia de los Primeros Modelos y Tipos

Aviones Convertibles Primeros Modelos y Tipos

INTRODUCCIÓN: El día 2 de noviembre de 1954 constituye un hito en la historia del aeroplano.

Dicho día, en la base de pruebas de la casa Convair, el piloto J. K. Coleman realizó el primer vuelo en un avión que despegó verticalmente desde su posición de partida, basculó en el aire, voló horizontalmente a más de 800 kilómetros por ahora y aterrizó de nuevo en posición vertical hasta quedar apoyado sobre la cola.

Aviones Convertibles-Historia de los Primeros Modelos y Tipos

El Faire-Rotodyne, convertible para pasajeros, de velocidad superior a los 300 kilómetros por hora.

El avión era un monoplano de ala en delta Corvair XFY-1 equipado con un turbopropulsor Allison de 5.500 HP.

Dos hélices tripalas contrarrotativas proporcionan, junto con el empuje del chorro del reactor, la fuerza de sustentación necesaria para el despegue vertical.

Se trata de un nuevo tipo de avión, que los norteamericanos designan VTOL (Vertical Take oíi Landing: despegue y aterrizaje vertical) y que en Europa se conoce por «convertible».

En el año 1950, con ocasión de la guerra de Corea, el Gobierno de los Estados Unidos se dio cuenta de la necesidad de disponer de aviones de caza capaces de despegar en cualquier clase de terreno, sin necesitar aeródromos y pistas de aterrizaje.

En efecto, el peso cada vez mayor de los aviones de caza obligó a hacer pistas y campos de aterrizaje de mayor extensión y resistencia, y, por otra parte, el terreno montañoso no ofrecía lugares a propósito para la instalación de tales campos y pistas.

Asimismo había que pensar en aviones de caza capaces de despegar de la cubierta de los buques de guerra y de transporte y que pudiesen aterrizar de nuevo en ellos, evitando tener que acompañar las escuadras y convoyes con costosos y vulnerables portaaviones.

A partir de dicho año los proyectos se suceden, la mayoría irrealizables por fantásticos; pero algunos ofrecen posibilidades constructivas, y al cabo de cuatro años se consigue que vuele el primer «convertible».

Qué se entiende por avión convertible:

Un avión convertible es un avión capaz de despegar y aterrizar como un helicóptero, es decir, verticalmente, y una vez alcanzada la altura suficiente, volar como un avión.

Aunque el helicóptero resuelve muchos problemas, como son los del salvamento en zonas difíciles de acceso, vigilancia y enlace, así como transporte del aeropuerto al centro urbano y de ciudad a ciudad con helicopuertos centrales, las misiones de tipo militar, en campaña, quedan limitadas en estos aparatos por su reducida velocidad.

En dos décadas de desarrollo el helicóptero sólo ha alcanzado una velocidad máxima de 251 kilómetros por hora (récord mundial, septiembre de 1953, helicóptero Sikorsky XH-39, piloto Wester, de los Estados Unidos), y no es previsible ni probable que llegue a alcanzar nunca las velocidades sónicas, ya alcanzadas y hasta rebasadas por algunos tipos de aviones de caza.

El 5 de enero de 1959 el Fairey-Rotodyne, primer convertible comercial para pasajeros, ya logró alcanzar en sus vuelos de ensayo los 307 kilómetros por hora sobre un circuito de 100 kilómetros, batiendo con ello la marca de velocidad máxima alcanzada por los helicópteros.

Si motivos militares son los que han impulsado el rápido desarrollo del convertible, no debe olvidarse el problema de la seguridad, que queda ampliamente resuelto con este tipo de avión.

Por consiguiente, no deberá extrañar que, una vez puestos a punto los convertibles militares, se construyan paralelamente los convertibles civiles, tanto para el transporte de viajeros como para el turismo o el avión particular.

Tipos de aviones convertibles:

Los convertibles se clasifican en tres grandes grupos:

1.° Los que disponen de rotores, hélices o reactores distintos para la sustentación como helicópteros y para la propulsión como aviones.

2.° Los que tienen un mismo rotor, hélice o reactor para la sustentación y la propulsión, y el eje del propulsor ha de girar 90° al pasar de una a otra clase de vuelo.

3.° Los que se sustentan y avanzan sobre una columna de aire creada por sus elementos propulsores. Son las plataformas volantes.

En el primer grupo, los aparatos reúnen las características del helicóptero combinadas con las del aeroplano: alas y hélices o reactores de avión para el vuelo horizontal, y rotor de helicóptero o reactores para el vuelo vertical.

La ventaja principal de estos convertibles estriba en la seguridad de su pilotaje, ya que el paso de vuelo helicóptero al vuelo avión es continuo, conservando siempre el mando del aparato.

El grupo primero se subdivide en tres subgrupos:

a)    Los convertiplanos cuyo rotor de despegue se para en el vuelo horizontal, de manera que las palas ofrezcan una resistencia mínima al avance.

b)    Los convertiplanos en que las palas del rotor de sustentación vertical se colocan de manera que en vuelo horizontal actúan como las alas fijas de los aviones normales.

c)    Los combinados de avión y helicóptero, es decir, los helicoplanos o helicópteros combinados, con fuselaje y alas de avión provisto de rotores sustentadores.

Entre los proyectos correspondientes al grupo primero,

subgrupo a), destaca el convertiplano de Wilford, con rotor monopala contrapesado, de propulsión por reacción, a tase de chorro de gases comprimidos por el motor y eyectados e inflamados en el extremo acodado de la pala.

En el subgrupo b) merece citarse el convertiplano de Herrick, HV-1, que realizó sus primeros ensayos en 1931, prosiguiendo sus estudios en años posteriores (el HV-2 voló en 1937).

avion convertible herridyne

Modelo norteamericano «Helidyne», convertible, con dos rotores coaxiles y dos motores para vuelo horizontal. Ofrece, en su conjunto, las ventajas del helicóptero, el autogiro y del avión clásico.

Aviones Convertibles-Historia de los Primeros Modelos y Tipos

Convertiplano de Herrick. Es un biplano con una ala fija y otra giratoria, a voluntad, dotada de turborreactores en sus extremos. Para el despegue y aterrizaje el plano superior actúa como un rotor de helicóptero; este rotor se convierte en plano cuando navega en vuelo horizontal.

El subgrupo c) está formado por los helicópteros «combinados», de los cuales constituye un precursor el autogiro español La Cierva, cuyos primeros vuelos datan del año 1923.

El notable ingeniero Juan de la Cierva, con su revolución genial de la articulación de las palas del rotor y el descubrimiento del fenómeno de autogiración, hizo posible el desarrollo posterior del helicóptero y, como consecuencia, el del convertiplano.

Como se sabe, el autogiro primitivo era un avión de alas reducidas en las que una hélice tractora proporcionaba la velocidad suficiente para que el rotor entrase en autogiración, suministrando la fuerza de sustentación necesaria al vuelo. El rotor permitía una velocidad de vuelo muy reducida y el aterrizaje prácticamente vertical, y en los últimos modelos se lograba el despegue vertical acelerando el rotor mediante una transmisión desde el motor.

Soluciones parecidas, aunque no pueden clasificarse   estrictamente   como  convertibles,   son:

El «helicoplano» Hamilton, que se ensayó en los Estados Unidos en 1929, formado por un avión monoplano de ala alta Hamilton con dos hélices de eje vertical de 5,50 metros de diámetro situadas bajo el ala y a ambos lados del fuselaje.

Aviones Convertibles-Historia de los Primeros Modelos y Tipos

Tipo de avión convertible que despega sobre un trípode, proyectado por L. H. Leonard. Una vez que el aparato ha despegado, gira sobre sí mismo un ángulo de 90 grados, las aletas estabilizadores se reducen por retracción (alas delanteras) y el aparato queda convertido en un cigarro puro volante de grandes alas.

El «giróptero» del francés Chauviére, construido en 1929, provisto de rotor sustentador y hélice tractora.

El «clinógiro» de Odier Bessiére, ensayado en Francia en 1932, no es más que un monoplano Caudron 193, con motor de 95 HP, al que se le ha añadido una ala superior giratoria formada por un rotor de cuatro palas.

Un proyecto posterior de A. Flettner prevé un avión clásico con cuatro hélices verticales para asegurar despegue y aterrizaje verticales.

Entre los «combinados» modelos pueden citarse los siguientes:

El helicóptero birrotor americano de la «Gyro-dyne Co.» Helidyne 7 A, con alas fijas reducidas de avión y dos motores con hélices propulsoras que le permiten volar a 140 kilómetros por hora con una carga útil de 1.340 kilogramos.

Se trata de una adaptación del helicóptero Bendix. Sus primeros vuelos tuvieron efecto en noviembre de 1949. Un nuevo tipo, el Helidyne, destinado al transporte militar, presenta un peso en vuelo de 11.300 kilogramos.

Parecido a éste es el aparato experimental francés Farfadet SO-1310, helicóptero con un rotor de reacción a base de aire comprimido suministrado por una turbina «turbomeca» de 260 HP y alas fijas de superficie reducida, así como una hélice tractora accionada por una segunda turbina.

En vuelo horizontal el rotor entra en autogiración. Sus ensayos dieron comienzo en el año 1953.

El Fairey-Rotodyne, que ya se ha citado, corresponde a este subgrupo.

En el grupo segundo, convertiplanos de rotor sobre eje que bascula en 90° para pasar del vuelo vertical al horizontal, también se distinguen dos subgrupos:

a)    Convertiplanos en que el rotor y el fuselaje basculan simultáneamente al pasar del vuelo en helicóptero a vuelo en avión, o sea eje del rotor invariable respecto al fuselaje.

b)    Convertiplanos con rotores o reactores de eje basculante respecto al fuselaje que permanece siempre en posición horizontal.

Los aparatos correspondientes al grupo segundo se caracterizan por tratarse en general de aparatos de alas fijas cuyas hélices son de diámetro mucho mayor al que normalmente sería necesario para el vuelo horizontal.

En efecto, en este tipo de convertiplano las hélices, que trabajan con eje vertical, han de proporcionar la fuerza de sustentación necesaria para elevar vertical-mente el aparato.

Aviones Convertibles-Historia de los Primeros Modelos y Tipos

El Hillar X-18 Propelloplane, avión convertible de ala basculante que despega en vertical.

Entre los aparatos del grupo segundo, subgrupo a), figuran los primeros convertibles de realización práctica y cuyos vuelos permitirán la solución del problema para los aviones de caza. E

s el VTOL Convair XFY-1, ya citado, y otros como el Coleóptero, que más adelante describiremos con mayor detalle.

Este subgrupo a) es mecánicamente el de más fácil realización;  en cambio, presenta  otros inconvenientes que la práctica indicará la forma en que deberán solucionarse. Son éstos la difícil maniobra del paso de vuelo vertical a horizontal, y viceversa, basculando todo el aparato.

El embarco de los tripulantes y del material en el fuselaje en posición vertical tampoco será fácil. Por último, la estabilidad en el momento de aterrizaje si sopla viento algo fuerte parece precaria dada la altura del centro de gravedad con relación a la reducida base de apoyo sobre la cola.

Como primeros proyectos y realizaciones, merecen citarse los siguientes:

El de Focke-Wulf, que durante la segunda Guerra Mundial proyectó un convertible a base de substituir las alas por un gran rotor tripala situado tras la cabina de mando, accionado por estatorreactores en el extremo de las palas.

Esto obligaba a utilizar cohetes de despegue.

Los empenajes de tipo normal soportaban el tren de aterrizaje, sobre el cual se apoyaba el aparato en posición vertical para el despegue y aterrizaje.

Parecido al anterior, pero más atrevido, es el proyecto de L. H. Leonard, en el cual dos grandes rotores impulsan un fuselaje en cuya proa se halla la cabina de mando y los empenajes, y en la popa el tren de aterrizaje que, replegado en vuelo, se despliega para el aterrizaje vertical sobre la cola.

Un convertiplano correspondiente a este grupo, que fue construido por encargo de la Marina de los Estados Unidos, es el ala volante semicircular «Chance Vought» XFSU-1, de Zimmerman.

En los extremos del ala dos grandes hélices tractoras despegaban el aparato colocado en ángulo de 45° y el aterrizaje se efectuaba en un espacio muy limitado, lo que permitía su utilización sobre las cubiertas de los buques.

Fue rescindido el contrato de construcción en serie debido a la precaria estabilidad en el aterrizaje, defecto que, como indicamos, es inherente a este grupo.

Los aparatos del grupo segundo, subgrupo b), se reducen en general a aviones clásicos en los que, bien los motores, bien las alas, pueden bascular en 90° para lograr la posición vertical de las hélices.

Entre éstos pueden citarse el Bell XV-3, monoplano bimotor con dos rotores de 7 metros de diámetro en los extremos de las alas, cuyos ejes giran a la posición vertical para el despegue y a la horizontal para la propulsión.

En el Bell-VTOL, monoplano de ala alta del año 1955, son los turborreactores situados bajo el ala los que basculan.

Otro tipo interesante de convertiplano es el Hiller X-18 Propelloplane, de 18 toneladas, cuyos primeros vuelos se realizaron en 1958.

El ala, que gira solidariamente con los propulsores, colocándose en posición vertical para el despegue y horizontal para el avance, soporta dos turborreactores provistos de hélices contrarrotativas.

Una disposición análoga presenta el Vertol 76, cuyo primer vuelo completo se llevó a cabo el 15 de julio de 1958. El Kaman 16-B es un aparato anfibio construido según las mismas directrices.

Fuente Consultada:
Enciclopedia Cultural UNIVERSITAS Tomo N°17 -Los Aviones Convertibles-

Temas Relacionados:

Historia de los Primeros Aviones de Guerra Argentinos
Presurizacion en los Aviones
Historia de los Aviones de Pasajeros BAC VC 10
Grandes aviones comerciales Historia de los aviones Tupolev 144
Boeing 767:Historia de su Fabricación
MACH:Unidad Para Medir La Velocidad de los Aviones

Enlace Externo:•Aeronaves convertibles

Biografia de Cavendish Su Trabajo Cientifico-Vida y Obra

Biografía de Cavendish Trabajo Científico

Enrique Cavendish nació en Niza (Francia), en 1731. A la edad de 11 años íue enviado a la escuela en Hackney (Londres).

En 1749 pasó a Cambridge, pero salió de allí sin haber obtenido ningún título. Perteneció a la Royal Society desde 1760 y, a partir de ese año, se dedicó, por su cuenta, al estudio de las matemáticas y de la física.

Seis años después publicó trabajos sobre las propiedades del hidrógeno y del ácido carbónico.

Gran científico británico nacido el 10 de octubre de 1731. No muy famoso, pero destacado porque fue el primero en medir la densidad y composición de la atmosfera terrestre.

Analizó la densidad media del nuestro planeta, descubrió el gas argón, inventó el pendulo de torsión, y propuso la ley de atracción electrica entre cargas de distinto signo.

LLegó a poner en riego su vida al realizar experimentos con corrientes elétricas. Tenía una vida muy excentrica, y gozaba de una excelente posición social y económica.

Al mismo tiempo, investigaba las propiedades del calor, llegando independientemente a los conceptos de calor latente y calor específico, pero nunca se atrevió a publicar los resultados de sus investigaciones.

También descubrió el nitrógeno, describiendo sus propiedades más importantes.

La  mayor contribución  de Enrique  Cavendish a la ciencia fue el descubrimiento de la composición del agua.

Debe recordarse que la teoría del flogisto desorientó a los químicos durante algún tiempo, y que él, como muchos de sus contemporáneos, la apoyó.

Primero realizó experimentos sobre la composición del aire, demostrando que era constante.

Luego mezcló dos partes de aire inflamable (hidrógeno) con una de aire desflogisticado (oxígeno) en el interior de un globo de cristal, haciendo explotar la mezcla por medio de una chispa eléctrica.

Otros químicos de su tiempo no se habían fijado en el rocío o empañamiento que se produce en las paredes de cristal del globo después de esta explosión.

Cavendish comprobó que el peso del globo no había variado. Comprendió que los gases se habían combinado, dando agua. Como no publicó sus investigaciones, se suscitó una controversia, puesto que algunos atribuían el descubrimiento a Jacobo Watt, el inventor de la máquina de vapor.

En conexión con este experimento, descubrió la composición del ácido nítrico.

A veces, las gotas de condensación que quedaban en las paredes del recipiente eran ligeramente acidas, y, al analizarlas, comprobó que tenían ácido nítrico.

Explicó este hecho mediante la hipótesis de que el ácido se formaba por combinación del nitrógeno con los otros dos gases.

El nitrógeno se encontraba allí como impureza.

Esto pudo demostrarlo añadiendo más nitrógeno, con lo cual se formaba más ácido nítrico.

En sus años postreros viajó por toda Inglaterra, tomando nota de las formaciones rocosas y del paisaje.

Su último gran experimento fue el descubrimiento de la atracción gravitatoria entre los cuerpos, lo que equivale a pesar la Tierra, como es denominado en algunas oportunidades.

obra cientifica de cavendish

El globo de explosión (reacción) que Cavendish usó se llenaba con los gases y se pesaba de la manera mostrada. Entonces se hacía explotar la mezcla por medio de una chispa eléctrica. Averiguó que el peso no cambiaba y que los gases desaparecían, quedando unas gotas de agua condensada en  las  paredes del  globo.  Se  basó en este experimento   para    explicar   ta    composición    del    agua.

Ampliar Sobre El Peso de la Tierra de Cavendish

Procesos Para Obtener Metales desde Minerales:Etapas de Elaboracion

Procesos Para Obtener Metales desde Minerales

Es muy raro encontrar metales puros en la corteza terrestre. Casi siempre están combinados con otros elementos como compuestos metálicos.

El hierro, por ejemplo, puede combinarse con el oxígeno o con el azufre, para formar óxidos o sulfuros.

La cantidad de metales que existen en la corteza terrestre es relativamente pequeña.

Si estuvieran esparcidos al azar, no se encontraría nunca una concentración suficiente de ninguno de ellos para emprender una explotación rentable. Sería necesario tratar enormes cantidades de roca para obtener una cantidad muy pequeña de metal.

Procesos Para Obtener Metales desde Minerales:Etapas de Elaboracion

Por fortuna, una serie de procesos geológicos, a lo largo de la historia de la Tierra, ha concentrado los compuestos metálicos.

Cuando una roca contiene tal cantidad de metal que valga la pena extraerlo, se le da el nombre de mineral.

Existen tres tipos de roca: ígnea (que procede de materiales fundidos), sedimentaria (formada con fragmentos desmenuzados de una roca anterior) y metamórfica (roca alterada por la temperatura y la presión).

Los tres tipos pueden contener minerales, aunque el metal se haya concentrado en ellos por diversas causas.

La concentración de metal necesaria para que una roca se considere como mena o mineral explotable depende del metal de que se trate.

Por ejemplo, una roca que contenga cobre constituye una mena si un 0,7 % de su volumen está compuesto de cobre; en cambio, un porcentaje tan bajo en el caso del aluminio no permite una extracción rentable, pues la concentración de este metal debe ser, por lo menos, de un 30 %.

Tales cifras dependen, en gran parte, de la relativa rareza de los metales; pero también, en cierta medida, de la demanda comercial.

Las rocas ígneas se han formado por solidificación de magmas — rocas en estado fundido—.

Durante el proceso, ciertos materia’ les se solidifican antes que otros. En el conjunto semifluido, estos minerales pueden irse al fondo y separarse, como una capa, en la fase temprana del proceso. El mineral puede ser rico en un metal determinado.

Por ejemplo, el mineral cromita contiene cromo, como indica su nombre.

Al formarse posteriormente los minerales que contienen metal, pueden cristalizar en los huecos que quedan entre los minerales más antiguos, formando así una separación de utilidad para el explorador y el minero.

El último magma solidificado (magma residual) puede haberse enriquecido con titanio, hierro u otros metales, que forman depósitos aprovechables.

Los más útiles, entre los depósitos magmáticos, están relacionados con grandes intrusiones de magma básico en el interior de la corteza.

El magma básico, en su estado original, tiene únicamente una pequeña cantidad de sílice y grandes proporciones de ciertos metales: hierro, titanio, cromo.

• METALURGIA:

El campo de acción que abarca la metalurgia es verdaderamente amplio.

Tanto es así que, dentro de esta actividad, existen numerosas especialidades, las cuales, aun dirigidas al mismo fin, presentan métodos y técnicas de distintas características.

En principio, la metalurgia puede dividirse en dos ramas: la metalurgia de materiales férreos (hierro y acero, fundamentalmente) y la de materiales no férreos (en la que se incluye el resto de los metales).

El hecho de que el hierro y el acero sean considerados aparte es índice de la magnitud e importancia que reviste la industria siderúrgica en el mundo entero.

El hierro es, sin duda, el metal más útil, y, después del aluminio, es también el más abundante, formando un 4 %, aproximadamente, de la corteza terrestre.

Con pocas excepciones, tales como el oro, los metales no se presentan en la naturaleza en estado metálico, sino que aparecen formando parte de un mineral, que puede ser un óxido, un sulfuro, u otra combinación química cualquiera del metal en cuestión.

————-  00000 ————

Procesos Para Obtener Metales desde Minerales

Minerales de Hierro

————-  00000 ————

El mineral ha de ser extraído de la mina y, después, será sometido a un tratamiento adecuado.

En el proceso de extracción, el técnico en metalurgia juega un importante papel, relacionado con la elección del método más apropiado para cada mineral.

Cualquiera que sea el procedimiento utilizado en la extracción de un mineral de la mina o yacimiento en donde aparezca, aquél se presenta siempre en bloques de gran tamaño; por lo general, está acompañado de ganga, material terroso de dónde el mineral ha de ser separado.

Generalmente, la primera operación que, se efectúa consiste en triturar el material de partida para reducirlo a un tamaño conveniente.

La etapa siguiente es la separación de la ganga, que algunas veces se realiza por el procedimiento de flotación, basado en el hecho de que los distintos minerales se mojan de modo diferente.

Por ello, en un baño líquido, bajo las condiciones adecuadas, puede hacerse que el mineral flote, mientras la ganga se va al fondo, o viceversa, siendo posible, de este modo, efectuar su separación.

Es tarea del químico metalúrgico, en este caso, determinar experimentalmente en el laboratorio, valiéndose de pequeñas muestras, las condiciones óptimas de separación, así como las operaciones de control que se cumplirán en el proceso a escala industrial.

La etapa siguiente consiste en la obtención del metal no refinado a partir del mineral, proceso conocido con el nombre de fundición.

Los hornos de fundición utilizados con este propósito difieren, en cuanto a su diseño, en relación con el mineral a ser tratado en particular.

Los más conocidos son los altos hornos, utilizados en la separación y obtención del hierro.

En este proceso, corresponde al técnico en metalurgia asegurar que todas las operaciones se lleven a cabo propiamente.

Para ello, ha de analizar el mineral de hierro de partida y calculará las cantidades correctas, de coque y piedra caliza, necesarias para que el proceso de reducción se efectúe normalmente.

Asimismo, ha de examinar la calidad del hierro bruto obtenido.

El metal no refinado, o bruto, conseguido en el proceso de fundición debe, entonces, ser purificado o refinado, lo cual puede realizarse de distintos modos.

En unos casos, el metal se funde de nuevo, haciendo que al mismo tiempo pase una corriente de aire, con objeto de oxidar las impurezas que lo acompañan.

Para refinar el cobre, al metal ción, así como encontrar el medio de recuperar, del barro depositado en el fondo, los productos metálicos rentables.

Al terminar el proceso de refinación, se cuenta ya con un metal de relativa pureza.

El metal así obtenido puede ser utilizado directamente o fundido de nuevo, junto con otro u otros metales, para formar una aleación.

Al producto final hay que darle, entonces, la forma que ha de tener al ser utilizado.

Para ello es necesario volver a fundir el metal, y, una vez líquido, verterlo en los moldes de la forma apropiada.

Estas tareas se llevan a cabo en una fundición, y, aquí, el técnico metalúrgico es el responsable del control de dichos procesos, así como del de aleación.

También debe ser un experto en el diseño de moldes y capaz de darse cuenta de las posibles fallas que puedan presentar las estructuras metálicas, como, asimismo, rectificarlas.

Cuando al producto final no se le da una forma especial, suele obtenerse bajo el aspecto de barras o lingotes, que han de sufrir tratamientos posteriores, tales como el laminado, forja, o cualquier otro tipo de tratamiento mecánico.

El metal o aleación puede laminarse, ahora, para darle una forma de plancha, o forjarse mediante un martillo mecánico; hilarse, para constituir un alambre, haciéndolo pasar a través de una serie de agujeros de tamaños decrecientes.

Todos estos procesos han de efectuarse del modo más rápido y económico, y las condiciones óptimas serán fijadas por un especialista en metalurgia.

Él debe, por ejemplo, calcular hasta qué punto un lingote puede ser laminado sin que sea necesario templar el metal en un horno apropiado, ya que muchos metales se vuelven duros, siendo frágiles a la vez, y se fracturarán si se los trabaja demasiado.

Por otra parte, el proceso de templado consume tiempo y dinero, por lo cual ha de decidirse si su aplicación resulta rentable.

Uno de los campos más importantes, dentro de la metalurgia, es el de la investigación, que puede ser de investigación aplicada —que se refiere a problemas directamente relacionados con la industria y con el perfeccionamiento de los productos—, o de investigación básica, que estudia los principios fundamentales del comportamiento de los metales.

Las industrias requieren, con frecuencia, la presencia de especialistas en metalurgia, para resolver cualquiera de los problemas reseñados, que pueden suscitarse en los procesos de producción.

También recurren a ellos para realizar trabajos más rutinarios, tales como los de verificación y control de la calidad del producto obtenido.

La mayor parte de los instrumentos y métodos utilizados son, sin embargo, los mismos, cualquiera que sea la naturaleza de la investigación propuesta, y sólo la interpretación de los resultados conseguidos puede, en algunos casos, ser distinta.

Un industrial, por ejemplo, puede estar únicamente interesado, en medir la resistencia del metal que produce, con objeto de comprobar si se halla dentro de los límites que le son exigidos.

Mediante la investigación básica, es posible detectar los cambios que se produzcan en dicha propiedad, los cuales pueden indicar que ha tenido lugar alguna modificación en la estructura íntima del metal, hecho imperceptible a simple vista, pero que puede resultar de extraordinaria importancia en el futuro comportamiento de aquél.

Uno de los instrumentos más importantes empleados por el técnico metalúrgico es el microscopio, especialmente el electrónico, que, debido a sus 100.000, o más, aumentos, es de gran utilidad para el estudio de las estructuras de los metales.

La investigación de la corrosión y el desarrollo de aleaciones que sean resistentes a ella es otro importante campo de estudio, que se halla dentro del dominio de la metalurgia.

La mayoría de los metales resultan atacados y corroídos bajo  ciertas  condiciones:   el  agua  del  mar ataca el metal de las calderas y tuberías, y la humedad de la tierra corroe los cables eléctricos subterráneos.

Los daños ocasionados por la corrosión cuestan muchos millones de dólares al año.

En el futuro, los trabajos de investigación en estos temas serán aún más interesantes, dado que, tanto en el campo espacial como en el nuclear, se necesitan materiales de especiales características, que resistan condiciones extraordinarias de presión, temperatura, radiación, etc.

Fuente Consultada
Revista TECNIRAMA (CODEX) Enciclopedia de la Ciencia y Tecnologia N°96

Temas Relacionados:

Enlace Externo:De dónde se extrae el hierro?

El Titanio:Características Y Propiedades -Usos Aplicaciones

El Titanio: Características, Propiedades y Usos Aplicaciones

EL TITANIO: Aunque el metal titanio ocupa el cuarto lugar entre los elementos más abundantes en la corteza terrestre, no suscitó mucho interés hasta que la industria aeronáutica comenzó a utilizarlo.

Cuando fue descubierto, hace unos 150 años, era un elemento problemático, que defraudó y confundió a los metalúrgicos, quienes se esforzaron para extraerlo económicamente y hacer algo útil con él.

De hecho, era tan difícil separar el metal de sus minerales que hasta 1949 no se encontró un método económico para hacerlo.

Existen dos principales minerales de titanio: el rutilo, una forma impura de bióxido de titanio, y la ilmenita (ferrotitanato), mezcla de óxidos de titanio y hierro.

Mientras que del rutilo se obtiene todo el titanio metálico, los compuestos se fabrican de la ilmenita.

El método para la obtención del titanio metálico expuesto por el estadounidense W. J. Kroll, en el año 1949, consiste en convertir el titanio del mineral en tetracloruro de titanio, Cl4 Ti.

A continuación, se reduce éste a metal, haciéndolo reaccionar con magnesio. El metal así producido tiene el aspecto de coque esponjoso.

titanio

El procedimiento Kroll todavía se usa mucho en América y Japón, pero un método químico distinto, que exige el empleo de grandes cantidades de sodio, se practica actualmente en Inglaterra.

Mediante él se obtiene el titanio en forma de gránulos grises y pesados.

• ►Características

Tanto en su forma esponjosa como granular, el metal es poco útil; para utilizarlo en sus distintas aplicaciones es necesario consolidarlo y extraerle las burbujas de aire.

Desgraciadamente, ello no se consigue fundiéndolo e introduciéndolo en un molde.

El titanio funde alrededor de los 1.700°C, 200° por encima del punto de fusión del acero.

A tales temperaturas, el titanio reacciona con el recubrimiento del horno y absorbe gases del aire, que inutilizan su estructura.

A veces, los gránulos de titanio metálico crudo se mezclan con otros metales en polvo para hacer aleaciones y, después de homogeneizados completamente, se introducen en una prensa de 2.500 toneladas, para convertirlos en bloques, que se sueldan, y formar un electrodo de unos 4 metros de longitud y casi una tonelada de peso.

Este electrodo se suspende de la parte superior de un horno y en la base se sitúa un crisol refrigerado por agua.

Se extrae el aire y se hace saltar un arco eléctrico entre el electrodo y una pequeña cantidad de polvo de titanio, que se dispone en el crisol.

El electrodo se funde lentamente, para formar un lingote. Se repite la fusión, controlando todo el proceso a control remoto.

Las grietas se descubren con ondas sonoras de alta frecuencia (ultrasonidos). Se trata de una técnica de ecos.

Las grietas internas del metal actúan como espejos, reflejando las ondas y evitando que lo atraviesen.

Cuando la señal no llega al otro lado de la pieza significa que hay una grieta.

• ►INGENIERÍA AERONÁUTICA

La industria aeronáutica necesita aleaciones ligeras, que puedan soportar las tensiones producidas en los vuelos a grandes velocidades.

El titanio proporciona la solución. Su densidad es sólo el 60 % de la del acero, y, por otra parte, conserva su resistencia a temperaturas superiores a, las que se consideran de seguridad para las aleaciones de aluminio y otras ligeras.

Esta industria utiliza el titanio para los alabes de las turbinas, y para recubrir los escapes, las conducciones de aire caliente y los bordes de las alas, expuestos a la erosión del aire.

Debido a su alta resistencia a la corrosión por ácidos, etc., este metal se usa también en la fabricación de recipientes y tubos anticorrosivos para la industria química.

En mucha menor escala, aunque por la misma razón, el titanio está sustituyendo gradualmente al acero inoxidable en la fabricación de instrumentos quirúrgicos, tales como los implementos, pinzas, clavos y tornillos usados para fijar las partes rotas de un hueso.

• ►PROTECCIÓN DE LAS RADIACIONES

Las centrales nucleares usan titanio en muchos de sus componentes internos, porque este metal y sus aleaciones tienen la capacidad de impedir el paso de la radiación.

El metal irradiado pierde rápidamente toda la radiactividad, permitiendo que las piezas sean fácilmente manejables, lo que simplifica el mantenimiento del reactor.

uso del titanio en la aeronautica

Por su dureza, resistencia a la corrosión y ligera de peso, el Titanio se usa en la industria aeronáutica. En las paredes internas de los motores  a reacción se utiliza titanio puro. También se usa en impulsores, turbocarburadores y blisk de titanio y aluminio

• ►PIGMENTO BLANCO

Muchas pinturas y tintas blancas deben su color al pigmento bióxido de titanio, O2Ti, único compuesto de titanio de alguna importancia real.

Los pisos plásticos y los productos industrializados con cauchos blancos llevan incorporado este compuesto.

Se rocía sobre las telas, para evitar el brillo innecesario, y se utiliza también para tratar los esmaltes y las tejas vidriadas, regulando color, opacidad y brillo.

La industria del papel utiliza el óxido de titanio de dos modos distintos.

Puede incorporarse durante la fabricación —de modo que sus partículas queden completamente integradas en el cuerpo de la lámina, para reflejar la luz y que el papel aparezca blanco— o se puede extender sobre su superficie.

Es frecuente cubrir los papeles gruesos con óxido1, pero en los que se usan para expedir cartas por avión, que deben ser ligeros y no trasparentes, el óxido se mezcla con la pulpa durante la fabricación.

El «papel encerado» para envolver es blanco porque se le añade óxido de titanio.

La extracción del titanio metálico y la fabricación de su pigmento son dos procesos completamente independientes.

El pigmento no se hace con el metal, pues su punto de partida es también el mineral ilmenita, del que se obtiene triturándolo y disolviendo el titanio con ácido sulfúrico concentrado.

Cuando la solución se enfría después de hervir, el hierro, que también fue disuelto, cristaliza y puede separarse.

Concentrando aún más el líquido, nos queda el titanio en forma de cristales de sulfato de titanio hidratado.

Estos cristales se filtran y lavan antes de introducirlos en un horno rotatorio, en el que se extraen los gases sulfurosos, quedando partículas de bióxido de titanio impuro.

Después de purificadas y reducidas al tamaño apropiado, están listas para ser mezcladas con la pulpa de papel o con la pintura.

EL TITANIO COMO METAL DE TRANSICIÓN

A medida que recorremos la tabla periódica de izquierda a derecha, cada elemento aumenta en un electrón el número de los que tiene en la órbita externa, para llegar a una capa estable con ocho electrones.

Pero, a veces, se añade algún electrón a una de las órbitas internas, que pueden tener hasta 18 y 32 electrones. El titanio es un metal que pertenece al llamado «grupo de transición». Todos estos metales tienen dos electrones en la órbita externa, aunque en la interna inmediata pueden tener entre 9 y 18 electrones.

Fuente Consultada: Revista TECNIRAMA N°12 Enciclopedia de la Ciencia y la Tecnología

Significado de Gravedad Cero Ingravidez en una Nave Espacial

Significado de Gravedad Cero
Estado de Ingravidez en una Nave Espacial

La manzana Newton fue  hacia la Tierra por acción de la fuerza de la gravedad. Una fuerza análoga actúa sobre todas las cosas, tendiendo á acercarlas entre sí. Cuanto mayor sea la masa de los objetos, mayor es la fuerza gravitacional que ejercen sobre los demás. (La fuerza gravitacional ejercida por dos cuerpos entre sí, es proporcional al producto de sus masas individuales).

La Tierra es un objeto gigantesco, con una masa de alrededor de 5.883.000.000.000.000.000.000 toneladas, ejerciendo por consiguiente una fuerza gravitacional muy grande.

Esta fuerza es lo suficientemente intensa como para imprimir a la manzana, en su caída hacia la Tierra, una aceleración de 9,8 metros por segundo Pero la fuerza con que la Tierra atrae a la manzana depende, a su vez, de la distancia de ésta al centro de gravedad de aquélla. Cuando se encuentra sobre la superficie de la misma o en su proximidad la manzana está a casi 6.500 Km. del centro.

Si se dejase caer la manzana desde una altura doble de la distancia hasta dicho centro de la Tierra (13.000 Km. desde el centro, 6.500 Km. desde la superficie), la aceleración hacia la Tierra sería de 2,45 metros por segundo. De modo que, doblando la distancia al centro de gravedad terrestre, la fuerza de la gravedad se ha reducido a la cuarta parte del valor que tenía sobre la superficie de la Tierra. Expresado matemáticamente, la fuerza de la gravedad varía inversamente con el cuadrado de la distancia que separa las dos masas.

De este modo, cuánto más se aleje la manzana de la Tierra, tanto más disminuirá la fuerza gravitatoria, aunque ésta nunca podrá ser nula, porque, para ello, sería necesario que entre la manzana y la Tierra hubiera una distancia infinita. Sin embargo, en el momento en que la manzana estuviese a unas decenas de miles de kilómetros de la Tierra, el efecto de la gravedad terrestre llegaría a ser despreciable.

Si la manzana fuese colocada en este punto, no volvería a caer sobre la Tierra, porque la fuerza sería tan débil que no podría atraerla. En consecuencia, quedaría flotando en el espacio.

Esta es la condición conocida como g cero (gravedad cero) y es una de las primeras dificultades con que tropiezan los astronautas. Nos sorprende porque, inconscientemente, contamos con que la acción de la gravedad es constante. Así, cuando vertemos el té dentro de una taza, ponemos la tetera en un plano superior, casi perpendicular a la taza, y la gravedad arrastra el líquido hasta el interior de la misma.

Si el astronauta intentase hacer esto en las condiciones de gravedad cero, el té quedaría flotando a su alrededor, en forma de gotas, en el interior de la astronave. El movimiento también sería bastante diferente, puesto que no habría fuerza de gravedad que ligase al astronauta sobre el piso. Así, si él tomara impulso, empujando con los pies, continuaría desplazándose hacia arriba, hasta que tropezaría  contra el techo.

ingravidez, astronautas en sus practicas

Significado de Gravedad Cero

Por ejemplo en la cabina de un avión entrando en picada en caía libre, el mismo seguirá una curva hacia la Tierra por efecto de la gravedad terrestre. Estas condiciones sólo pueden mantenerse durante unos 20 segundo.

GRAVEDAD Y ACELERACIÓN (ver Principio de Equivalencia)
Los astronautas experimentarán los efectos de la gravedad cero cuando viajen por el espacio con un movimiento estacionario, lejos de las atracciones gravitatorias del Sol y de algunos otros planetas.

También notarán la falta de gravedad cuando se muevan con velocidad constante. Pero tan pronto como la nave espacial empiece a acelerar se sentirá una fuerza en sentido contrario al de la marcha, que podría, fácilmente, ser tomada como una fuerza gravitatoria.

La gravedad y la aceleración están estrechamente relacionadas. Del mismo modo que la fuerza de la gravedad acelera la manzana, así también la aceleración crea una «fuerza» muy similar a la gravitatoria.

Mientras la nave espacial no se mueve, acelerándose o retrasándose (o, dicho de otro modo, cuando esté detenida o se mueva con velocidad constante), su movimiento no crea una fuerza que produzca el mismo efecto que la fuerza gravitatoria. Esto se expresa en el primer principio del movimiento de Newton:   «Cuando no actúa fuerza alguna sobre un cuerpo, nada cambia en él. Si está en reposo, continúa estándolo. Si se está moviendo con una cierta velocidad, continúa moviéndose con la misma velocidad».

Lo contrario de este principio sigue rigiendo en el espacio, y, siempre que la nave esté quieta o moviéndose con velocidad constante, ninguna fuerza actuará sobre ella.

El segundo principio del movimiento de Newton se refiere al efecto de una fuerza sobre el movimiento de un cuerpo: «Las fuerzas producen siempre aceleraciones, y éstas son proporcionales a las magnitudes de las mismas». De nuevo, lo contrario de este principio sigue siendo válido para la nave espacial que está acelerándose.

Toda aceleración produce una fuerza. Si la nave espacial estuviera sometida a una aceleración de 9,8 metros por segundo2 el astronauta tendría la sensación de estar sobre la Tierra. La «fuerza» debida al movimiento sería indistinguible de la fuerza gravitatoria terrestre, porque ésta tiende a acelerar los objetos precisamente a 9,8 metros por seg.².

Por ejemplo, si la nave espacial fuera acelerada, partiendo del reposo, el astronauta que comenzara a servirse su té podría pensar que las cosas suceden con toda normalidad. Quedaría definida una dirección hacia arriba y una dirección hacia abajo (lo mismo que ocurre sobre la Tierra). El «arriba» coincidiría con la dirección de la proa de la astronave, mientras que «abajo» estaría en la dirección de la cola de la misma.

El piso de la nave debe situarse, por tanto, en el extremo más próximo a la cola, y, si el astronauta se pusiera de pie para servirse su taza de té, éste caería en el interior de la taza con toda normalidad. No obstante, aunque al astronauta pudiera parecerle que las cosas suceden del mismo modo que en la Tierra, un observador imparcial, situado fuera de la astronave, observaría lo contrario.

Supóngase que se hubiese dejado atrás, en el espacio, a un astronauta mientras que la nave se moviese uniformemente, y que aquél pudiera ver lo que sucede cuando la nave se acelerase, alejándose de él. Entonces, tan pronto como se vierte, el té no sigue el movimiento de la astronave; no se; acelera hacía delante, como las restantes cosas fijas (incluyendo la tetera), porque no está unido a nada. De modo que ninguna fuerza actúa sobre él y se queda exactamente donde está cuando la astronave se mueve uniformemente.

De hecho, acelerando la nave espacial hacia adelante se recogería el té en la taza. Aquélla se movería hacia el té, pero un astronauta, en ella, por estar sometido a la misma aceleración, no encontraría diferencia entre el movimiento de la nave hacia el té y el de éste hacia abajo, como ocurriría sobre la Tierra.

Y no es porque exista algún error en la percepción, puesto que no existe, absolutamente, ningún procedimiento para encontrar la diferencia. Pero, ¿cómo se podría conseguir que la manzana no volviese a la Tierra, después de haberla lanzado, sin necesidad de alejarla infinitamente de la misma? Este problema está teóricamente resuelto desde que Newton formuló sus importantes principios.

Si hacemos girar una piedra, atada al extremo de una cuerda cuyo otro extremo sujetamos con la mano, notamos que la piedra hace una fuerza, tirando de nuestra mano en la dirección del radio determinado por la misma. Una fuerza de este tipo es la que tiende a hacer volcar a los automóviles al tomar una curva y, para contrarrestarla, las curvas de las carreteras tienen cierto declive o ángulo, llamado peralte.

En general, podemos decir que es necesario aplicar una fuerza de este tipo, siempre que se intenta desviar del camino rectilíneo a un móvil cualquiera. En algún otro lugar, ya dijimos cómo los cuerpos tienden, siempre, a conservar los estados de reposo o de movimiento rectilíneo con velocidad constante.

Para modificar esta tendencia natural de todos los objetos del universo, es necesario aplicarles una fuerza, tanto para sacarlos del reposo, como para variar su velocidad o separarlos de su trayectoria, puesto que, como decimos, tiende a ser rectilínea.

Pues bien, esta fuerza que es necesario aplicar para que la trayectoria descrita por un cuerpo sea curva, y que esté dirigida, siempre, hacia el centro de curvatura de la misma, se llama fuerza centrípeta. Por otra parte, el tercer principio de Newton, el llamado de la acción y la reacción, nos dice: «Siempre que un objeto ejerce una fuerza sobre otro, éste también ejerce una fuerza sobre el primero, llamada reacción (igual y de tido contrario), que tiende a opo-r. al efecto de la misma».

Pues bien, contra la fuerza centrípeta (hacia adentro) que tenemos que hacer sobre la piedra para  que ésta  describa  un circulo la piedra ejerce una fuerza sobre la mano que, por estar dirigida en sentido contrario al centro, se llama centrífuga (hacia afuera).

¿Por qué razón un satélite que está rando en su órbita no se precipita contra la Tierra, como lo haría cualquier objeto que se dejara libremente, a cierta distancia de la superficie terrestre? respuesta  es   sumamente  sencilla.

Un objeto cualquiera, en el espacio, a cierta ta distancia de nuestro planeta, sufre la acción de la fuerza gravitatoria. Ahora bien, si este objeto se encuentra movimiento,   describiendo   una   órbita más o menos circular, también actua sobre él la fuerza centrífuga debido este movimiento.

Sólo nos queda disponer las cosas de modo que ambas fuerzas se contrarresten y, así, todo ocurríría como si sobre él no actuase fuerza alguna. Esto es lo que se hace al colocar en órbita un satélite artificial. Se calcula   su   trayectoria   de   modo  que conjunto de las fuerzas ejercidas sobre él sea nulo en todo instante.

Como, en principio, la fuerza centrífu dependerá no sólo del radio de giro si también de su velocidad, los científicos han de establecer un compromiso en las  magnitudes   que  entran   en  jueígo que son:  velocidad y radio de la ti yectoria. La masa del satélite sólo interviene durante el lanzamiento, des que sale de la Tierra, hasta que se coloca en órbita. Si suponemos una órbita circular, la relación que debe existir entre las maginitudes anteriores será:

formula velocidad de satelite en una órbita

Significado de Gravedad Cero

Fuente Consultada:
Revista TECNIRAMA N°84 Gravedad Cero
Enciclopedia de la Ciencia y la Tecnología

Ver: La Presurización en Aviones

Mapa de la Luna Superficie de La Luna Crateres Mares y Montañas

Mapa de la Luna:Superficie de La Luna: Crateres, Mares y Montañas

¿Por qué vemos más de la mitad de la superficie lunar?.

Hoy, esta y otras preguntas relativas al movimiento de nuestro satélite ya tienen respuesta.

Sin embargo, a pesar de que la Luna es el objeto celeste más  próximo a nosotros, calcular su órbita todavía es difícil: se han descubierto más de 37.000 factores que influyen en sus movimientos.

Hace millones de años la Luna estuvo bombardeada por distintos cuerpos celestes, como asteroides y  cometas, dejando una superficie característica , totalmente «rugosa y ondulada», formada por miles de cráteres que pueden observarse a simple vista.

Inicialmente fueron grandes cuerpos, mientras que en una segunda etapa,  los cuerpos que impactaban fueron mas pequeños, provocando cráteres mas chicos, y todo esto ocurrió hace unos 3800 millones de años aproximadamente.

————-  00000 ————

Alunizajes y Crateres Mas Importantes

Lugares de Alunizajes: Mapa de los Sitios del Descenso del Modulo Lunar -  BIOGRAFÍAS e HISTORIA UNIVERSAL,ARGENTINA y de la CIENCIA

Acceder a un gran mapa de la Luna con los nombres de sus cráteres

————-  00000 ————

El análisis de impactos responde al nuevo catálogo de alta resolución de los cráteres lunares de 20 metros de diámetro o superior -que son 5.185 en total- que se ha hecho gracias a los datos tomados por el altímetro de la sonda espacial de la NASA Lunar Reconnaissance Orbiter (LRO).

China también está desde hace pocos años en un proyecto para fotografiar, estudiar y armar un meticuloso y fiel plano de la superficie lunar, por lo que ha enviado una nave que orbita la Luna consiguiendo imágenes en 3D.

También estaría previsto enviar una nave no tripulada que alunizara.

Cráter Lunar

Cráter Lunar

INFORMACIÓN BÁSICA DE LA LUNA:

Durante e una órbita de la Luna alrededor de la Tierra, la distancia que separa ambos cuerpos celestes puede variar muchísimo: hasta 1/8 del valor medio.

A la distancia máxima de la Tierra, el diámetro aparente de la Luna es aproximadamente 9/10 del que nos muestra cuando se encuentra a la distancia mínima.

Tampoco el perigeo y el apogeo son fijos.

A pesar de que se trata del objeto celeste más cercano a la Tierra, calcular el movimiento de la Luna es una tarea difícil.

Este tipo de medidas se refiere  siempre a los centros de los dos cuerpos celestes y no a sus superficies.

Deben considerarse también las perturbaciones debidas a la atracción gravitatoria del Sol, al abultamiento ecuatorial de la Tierra y a la influencia de los planetas.

Además, la magnitud de las perturbaciones provocadas por todos estos cuerpos varía continuamente, ya que también varían las posiciones de cada uno de ellos en el sistema solar.

Las técnicas más modernas para medir la distancia Tierra-Luna se basan en el empleo del láser.

Se envía un rayo láser a la Luna, el cual, por reflexión, vuelve a la Tierra.

Sabiendo la velocidad del rayo enviado y calculando el tiempo que emplea en cubrir el recorrido de ida y vuelta, es posible obtener, con una diferencia muy pequeña (pocos centímetros), el valor que se busca.

La teoría que predice el comportamiento de la órbita lunar tiene en cuenta muchos factores periódicos, algunos de los cuales apenas modifican el valor en 2 cm.

Sin embargo, la precisión que se obtiene con el láser obliga a los astrónomos a tener presentes incluso las variables más pequeñas.

IMPORTANCIA DE LA DISTANCIA TIERRA-LUNA

Esta medida no sólo permite verificar nuestras teorías sobre el movimiento lunar, sino también conocer exactamente la distancia Tierra-Luna.

Esta información es importante porque influye sobre otros fenómenos.

Las mismas teorías sobre el material que forma el interior de la Luna dependen en parte de tales valores.

Gracias a esta medida, es posible obtener en un tiempo muy breve indicaciones exactas sobre la disminución de velocidad (no regular) de la rotación terrestre.

La distancia de la Luna a la Tierra interviene también en la medición de la deriva de los continentes, cuyos desplazamientos pueden ser de algunos centímetros por año.

LA ÓRBITA LUNAR

El tiempo que emplea la Luna en efectuar una órbita completa merece un discurso especial: a pesar de que gira alrededor de la Tierra, ésta no está inmóvil en el espacio, sino que, a su vez, gira alrededor del Sol.

Respecto a las estrellas que son fijas, un mes lunar dura 27,32 días (mes sideral), pero el tiempo que tarda la Luna en volver a la misma fase respecto a la Tierra es diferente, ya que interviene el movimiento de ambos cuerpos. Este intervalo, llamado mes sinódico, equivale a 29,5 días.

El plano de la órbita lunar no coincide con el terrestre (eclíptica), sino que está inclinado unos 5° 19′.

Esto es importante porque gracias a la existencia de un ángulo entre los dos planos no se producen cada mes eclipses en la superficie terrestre.

Con el tiempo, los nodos -puntos de intersección de los dos planos- se mueven con un desplazamiento de 19° por año.

También la línea de los ápsides –la que une el perigeo con el apogeo- se mueve, aunque en dirección opuesta.

El período de este último movimiento es de 8,85 años.

ROTACIÓN Y TRASLACIÓN

Como ya se ha indicado en otras ocasiones, el movimiento de rotación y el de traslación están sincronizados, es decir, la Luna tarda el mismo tiempo en efectuar una rotación completa alrededor de su propio eje que en girar alrededor de la Tierra.

Esto se debe a la fuerza gravitatoria terrestre, que, a lo largo del tiempo, ha hecho disminuir la velocidad inicial de la rotación lunar.

Una consecuencia interesante de ello es que los movimientos del Sol en el firmamento de la Luna son muy lentos: basta decir que el Sol permanece sobre el horizonte durantes 354 horas consecutivas y que el disco solar tarda mas de una hora en emerger completamente.

En una semana, el Sol asciende desde el horizonte hasta el punto mas alto del firmamento, y en otra llega a la puesta.

El eje de rotación de la Luna está poco inclinado respecto al plano de la órbita y, por lo tanto las variaciones estacionales son mínimas.

• ALGO MAS SOBRE LA SUPERFICIE LUNAR…

Un paisaje totalmente desolado, más severo y más áspero que cualquier escenario terrestre, daría la bienvenida a un visitante de la Luna.

Elevadas cadenas de montañas., imponentes picos dentados de más de 10.000 metros de altura se alzan sobre una superficie marcada con profundas hendiduras e innumerables cráteres, cubierta por una delgada capa de polvo de ceniza.

Uno de los caracteres más distintivos de la superficie lunar son los cráteres. Éstos varían de tamaño, desde pequeños hoyos hasta enormes depresiones de más de ICO Km. de ancho.

Algunos están cercados por empinadas paredes que se elevan quizá a 5.000 metros sobre el piso del cráter y algunos kilómetros sobre la superficie genera! del «terreno».

Otros son depresiones poco profundas con paredes de sólo algunos cientos de metros de altura. Muchos tienen pisos a nivel, pero en otros casos se puede ver en el centro un pico solitario.

El origen de los cráteres ha sido motivo de gran número de discusiones.

Dos hipótesis principales se formularon a este respecto: la que los atribuía a un origen volcánico, y la que los explicaba como debidos a grandes colisiones de cuerpos, tales como meteoritos, contra la superficie lunar.

La teoría volcánica adquirió bastante crédito antes de que los científicos comprobaran que era un hecho cierto la caída de meteoritos sobre la Tierra; fue necesaria une larga discusión, que se prolongó durante un siglo, antes de que todos los astrónomos aceptaran que la mayoría de los cráteres eran debidos a choques.

De hecho, como luego pudo demostrarse, se pueden también hallar sobre la superficie de la Tierra cráteres formados de un modo semejante.

Uno de los más famosos, el cráter Meteoro, en Arizona, tiene 1.200 metros de ancho y 150 metros de profundidad.

La razón de que la Tierra no esté marcada con cráteres, como la Luna, es porque el agua, el viento, y el hielo, han borrado en el trascurso del tiempo todas las huellas, excepto las de los cráteres más recientes.

Pero en la Luna no hay erosión alguna (ya que allí no existen el viento, el agua y el hielo), de modo que se guarda cuidadosamente la evidencia acumulativa de muchos millones de años de castigo meteorice.

Esta falta de erosión explica también la aspereza del paisaje.

Actualmente se reconoce que existen también pequeños cráteres que no pueden ser debidos a choques y, por lo tanto, deben ser de origen volcánico, aun cuando su forma no es la de los volcanes terrestres.

En este sentido, se plantea la cuestión de si la Luna se encontró en algún momento en forma de una masa fundida, a alta temperatura, o bien se formó a más baja temperatura a partir de materiales sólidos.

Todos los indicios, resultantes de consideraciones de distintos tipos, parecen indicar que la Luna ha debido formarse a baja temperatura, si bien, desde luego, es posible que presente actualmente un interior parcialmente fundido.

La fuente de calor quizá no es su origen residual primitivo; al igual que actualmente se acepta para el origen de los volcanes terrestres, se puede derivar de acumulaciones de materiales radiactivos.

Otra interesante característica del paisaje luna-está constituida por la presencia de grandes áreas oscuras, que los primeros astrónomos creyeron que eran mares.

Aunque actualmente se sabe que no son mares (no hay agua líquida en la Luna), continúan utilizándose los nombres antiguos.

Un «mar» lunar es una especie de planicie seca situada a cierta distancia por debajo del nivel medio de la superficie.

Así, por ejemplo, el océano de las Tormentas, que se sitúa totalmente a la izquierda en la fotografía de la superficie lunar.

Un poco más al centro, en la parte superior, se halla el mar de las Lluvias («Mare imbricum«), con la bahía o golfo de los Iris, de forma semicircular, en su parte superior.

En la parte de abajo, el mar de los Nublados.

El astrónomo Gilbert, estadounidense, fue el primero que estudió con gran detalle las características de la imponente colisión que dio lugar a la formación de uno de estos mares, la que se ha denominado «colisión imbria», por haber originado el mar de las Lluvias.

Según todos los indicios, un enorme bólido, con un diámetro de más de 150 Km., incidió sobre la región del golfo de los Iris, procedente del noroeste, elevando una inmensa ola en todas las direcciones de la superficie lunar, pero especialmente en la dirección de su movimiento, esto es hacia el centro del disco visible de la Luna.

La energía liberada por la colisión debió ser fabulosa.

Se estima que sería del orden de unos cien millones de veces superior a la de los mayores terremotos conocidos en la Tierra o, si se prefiere una medida más «actual», ¡del orden de cerca de un billón de bombas atómicas!

Un choque de esta magnitud debió producir efectos muy notables.

La región afectada se pulverizaría hasta el grado de arena fina, una parte de la cual pudo extenderse sobre un área considerable.

Grandes trozos de materia de la superficie lunar y del mismo meteorito fueron probablemente lanzados en alto para caer después en grandes bloques, formando varias masas montañosas.

Trozos más pequeños, animados de grandes velocidades, produjeron surcos y estrías en la superficie, que se extienden a grandes distancias del área del choque.

En otras ocasiones la energía desarrollada por la colisión pudo originar la fusión de una parte del material, dando lugar a la formación de las corrientes de lava que parece ser la sustancia principal de algunos de los mares.

Este tipo de fenómenos se especula que pudieron ocurrir durante un período del orden de un millón de años, hace unos 4.500 millones de años.

Posteriormente, los cuerpos que cayeron sobre la Luna fueron más pequeños, produciendo cráteres menores.

Acceder a un gran mapa de la Luna con los nombres de sus cráteres

Fuente Consultada: El Universo Enciclopedia de la Astronomía y del Espacio Tomo 3 – Movimientos y Fases de la Luna

Temas Relacionados

Escala del Sistema Solar
Distancia a las Estrellas
La Vía Láctea
Más Allá de la Vía Láctea
Características del Módulo Lunar
La Fases De La Luna
El Hombre Llegó a la Luna
Lugares de Alunizajes
Efecto de la Luna Sobre La Tierra
Todos Los Astronautas Que Pisaron La Luna
Porque la luna muestra siempre la misma cara

Enlace Externo:El mapa más exacto de la luna