Los Vuelos de la Carrera

Los Sucesos mas importantes del Siglo XX:Guerras Mundiales,Descolonizacion

Los avances científicos y técnicos han cambiado radicalmente la vida cotidiana de las personas.  De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX. Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso. A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables. (picar en la foto para mas información)

Entre 1914 y 1918 se desarrolló en Europa la mayor conflagración hasta entonces conocida. Motivada por conflictos imperialistas entre las potencias europeas, la “gran guerra”, como se denominó originalmente a la primera guerra mundial, implicó a toda la población de los estados contendientes, así como a la de sus colonias respectivas. La segunda guerra mundial fue un conflicto armado que se extendió prácticamente por todo el mundo entre los años 1939 y 1945. Los principales beligerantes fueron, de un lado, Alemania, Italia y Japón, llamadas las potencias del Eje, y del otro, las potencias aliadas, Francia, el Reino Unido, los Estados Unidos, la Unión Soviética y, en menor medida, la China. La guerra fue en muchos aspectos una consecuencia, tras un difícil paréntesis de veinte años, de las graves disputas que la primera guerra mundial había dejado sin resolver.(picar en la foto para mas información)

El comunismo defiende la conquista del poder por el proletariado (clase trabajadora), la extinción por sí misma de la propiedad privada de los medios de producción, y por lo tanto la desaparición de las clases como categorías económicas, lo cual, finalmente, conllevaría a la extinción del Estado como herramienta de dominación de una clase sobre otra.

Adoptó la bandera roja con una hoz y un martillo cruzados (símbolo de la unión de la clase obrera y el campesinado), y desde su origen tuvo carácter internacionalista, aunque el Stalinismo recuperó el discurso nacionalista de la “madre Rusia” durante la Segunda Guerra Mundial, a la que la propaganda soviética siempre llamó “gran Guerra Patriótica”. (picar en la foto para mas información)

 

El proceso de descolonización constituye uno de los más decisivos factores de la configuración de una nueva realidad histórica en el panorama global de la época actual, y ha dado origen no solo a un nuevo Tercer Mundo, con una dinámica interna propia, sino también a una serie de cuestiones y problemas que se proyectan directamente en el plano de la historia universal.

Es por ello una tarea no solo posible, sino necesaria, emprender descripciones históricas de la primera fase de este naciente Tercer Mundo, que constituye el campo problemático más reciente del siglo XX, y a la vez quizá el mas importante para el futuro de la historia actual. (picar en la foto para mas información)

 

En la actualidad, se teme que la humanidad haya alcanzado, e incluso sobrepasado, la capacidad de carga que tiene a nivel planetario. El ser humano consume el 35% del total de recursos utilizados por la totalidad de las especies vivientes, y a medida que la población crece, esta proporción también aumenta. Hacia el año 1835, la humanidad alcanzó por primera vez en su historia los 1.000 millones de habitantes, pero la población se duplicó en tan solo un siglo. En la actualidad, la población humana mundial se incrementa a razón de 1.000 millones cada década, y la proporción de tiempo amenaza con ser incluso más reducida. Esto se debe a que la población aumenta de manera exponencial (por ejemplo, en caso de duplicarse la población cada generación con una población inicial de 10 millones, en una generación habría 10 millones, a la siguiente 20, a la próxima 40, después 80, y así sucesivamente). (picar en la foto para mas información)

 

Avances Cientificos Despues de la Guerra Television Color TV Color

La televisión en colores es uno de, los astros domésticos más jóvenes de la era electrónica. Y, a pesar de haberse vendido inicialmente a precios astronómicos, ese nuevo juguete va, poco a poco, penetrando en las casas de los estratos medios. No obstante, la calidad técnica de esas transmisiones aún no ha alcanzado un punto “óptimo” de realización tecnológica, y los costos de producción continúan siendo bastante elevados, lo que impide que ella ocupe definitivamente el lugar conquistado por su rival en blanco y negro. Al respecto, investigaciones recientes estudian la posibilidad de substituir f/ tubo de la TV en colores —que representa cerca del 50 al 60 % del costo del aparato— por un sistema menos costoso, como pantallas “planas” o el cristal líquido, usado ya en calculadoras de bolsillo y relojes electrónicos.

Los Primeros Pasos….La Televisión
La idea de utilizar ondas de radio para transportar información visual se remonta a los primeros tiempos de la radio, pero no llegó a ser factible hasta 1926. El principio básico es fragmentar la imagen en una serie de puntos que entonces se transmiten y muestran en una pantalla tan rápidamente que el ojo humano los percibe como una imagen completa.

En 1926 el inventor escocés John Logie Baird (1888-1946) mostró una televisión basada en el método mecánico de repasar una imagen en líneas de puntos de luz. De todas formas, el sistema de Baird tenía poco futuro y fue rápidamente sustituido por un sistema totalmente electrónico. Este último fue desarrollado por Vladimir Zworykin (1889-1982), ingeniero de origen ruso pero que trabajaba en EUA. Su primera cámara útil, hecha en 1931, enfocó la imagen sobre un mosaico de células fotoeléctricas (ver p. 36-37). El voltaje inducido en cada célula fue una medida de la intensidad de luz en este punto, y podía transmitirse como una señal. Una cámara de televisión moderna opera esencialmente de la misma manera, midiendo la intensidad de luz en cada punto de la imagen. Esta información se codifica y transmite entonces en la onda de radio.

En el extremo receptor, la señal tiene que ser decodificada. Un televisor es básicamente un tubo de rayos catódicos, en el cual un “cañón” dispara un haz de electrones hacia una pantalla luminescente. Cuando chocan con ella, la pantalla se ilumina. Para reconstruir la imagen en su totalidad, el haz se mueve de lado a lado en una serie de líneas (625) en los televisores, cubriendo toda la pantalla en 1/25 segundos.

Historia Evolución Tecnológica Post Guerra Mundial
LA TELEVISIÓN COLOR: Los principios de la moderna televisión electrónica estaban bien establecidos hacia mediados de los años 30, época en que tanto en EE.UU. como en Gran Bretaña se realizaban transmisiones regulares, aunque para una audiencia relativamente reducida. La definición era mala, la imagen era titilante y las técnicas de realización eran primitivas, pero aun así se ofrecía un servicio aceptable. Los adelantos en este campo quedaron bruscamente detenidos por el estallido de la guerra en Europa.

Una vez finalizado el conflicto, las investigaciones continuaron más o menos desde el punto donde habían quedado en 1939. La calidad mejoró considerablemente gracias a la aplicación de algunos adelantos en electrónica logrados durante la guerra, pero uno de los rasgos básicos seguía inalterado: la imagen era en blanco y negro.

No había en realidad dificultades técnicas, ya que los problemas de la televisión en color son básicamente los mismos que los de la fotografía en color, que se habían superado mucho tiempo antes. En esencia, la imagen transmitida debía separarse en tres imágenes, una roja, otra verde y una tercera azul, que luego se reproducirían, superpuestas, en la pantalla del receptor.

De manera bastante sorprendente, teniendo en cuenta la determinación con que se abandonaron los sistemas fotomecánicos de televisión en los años 30, el primer sistema adoptado (diseñado por Peter Goldmark en 1951, en Estados Unidos) consistía en un disco giratorio con filtros de color, colocado delante del objetivo de la cámara. Sin embargo, en 1953, la compañía RCA perfeccionó un sistema completamente electrónico por el cual, el rayo de luz transmitido a través del objetivo de la cámara se divide en sus componentes rojo, verde y azul mediante espejos selectores del color. Las tres imágenes se transforman entonces en una señal que se transmite en dos modalidades. La primera, denominada luminancia, depende del brillo de la imagen.

La segunda, llamada crominancia, está relacionada con el color. En el receptor, la señal de crominanciaes recibida por tres cañones de electrones cuyos rayos barren la pantalla, activando un gran número de puntos fosforogénicos que producen una luminosidad roja, verde o azul. Como los sistemas de luminancia y crominancia están separados, las transmisiones de televisión en color pueden ser recibidas también por receptores de blanco y negro.

En 1960, la televisión ya no era una novedad en el mundo occidental y el televisor se había convertido en un elemento corriente entre los aparatos domésticos. El número de receptores ascendía para entonces a unos 100 millones, el 85 % de los cuales se encontraban en Estados Unidos.

En 1970, la cifra había aumentado a más del doble, con unos 230 millones de aparatos. A principios de los años 80, los televisores en color habían desplazado a los aparatos de blanco y negro. Para entonces, había en casi todos los hogares de Estados Unidos (98 %) por lo menos un televisor, que era en color en el 80 % de los casos.

Estas cifras se refieren. naturalmente, a los receptores domésticos y no tienen en cuenta los numerosos sistemas de televisión muchos de circuito cerrado) utilizados con fines especiales: por ejemplo, dispositivos antirrobo en los comercios, demostraciones de operaciones quirúrgicas a estudiantes y observaciones de la superficie terrestre desde satélites.

PARA SABER MAS SOBRE LOS COMIENZOS DE LA TELEVISIÓN:

En 1925, el año en que el inventor escocés John Logie Baird se convirtió en la primera persona que transmitió imágenes en movimiento a un receptor lejano, solo un puñado de ingenieros y hombres de negocios de amplios horizontes habían oído hablar de la nueva tecnología que iba a transformar la cultura.

No obstante, entre estos primeros visionarios el desarrollo de la televisión todavía estaba en estado embrionario. Trabajando en el laboratorio casero de su ático londinense, Baird, desconocido y pobre, construyó una cámara que registraba los objetos con un haz concentrado de luz. Utilizó una célula fotoeléctrica para convertir la luz y la sombra del objeto registrado en electricidad y fabricó un receptor que realizaba el proceso inverso.

El 2 de octubre registró la cabeza de un muñeco y observó con alegría que su cara se reproducía temblorosa en la pantalla que había colocado en la habitación contigua. Corriendo hacia un edificio del otro lado de la calle, le pidió a un portero que se sentara frente a su cámara. El joven William Taynton fue la primera persona televisada.

El sistema de Baird consistía en un aparato mecánico rudimentario que utilizaba discos con agujeros para registrar el objeto, deshacer la luz en rayos y convertir los en una imagen proyectable del objeto original. Funcionaba, pero las temblorosas imágenes provocaban dolor de cabeza al espectador.

Mientras Baird trataba de mejorar su modelo mecánico, otros pioneros trabajaban en sistemas electrónicos. La televisión electrónica ya había sido tratada en teoría por el físico británico Campbell Swinton en 1908. Swinton escribió: «Debe descubrirse algo apropiado. Creo que la visión eléctrica a distancia entra en el reino de lo posible».

Los descubrimientos a los que aludía fueron realizados por Vladimir Kosma Zworykin y Philo T. Farnsworth. El físico norteamericano nacido en Rusia y el estudiante de Utah desarrollaron las primeras lámparas de imágenes. En 1927, Farnsworth presentó un sistema sin los discos de Nipkow en los que confiaba Baird. Con la invención de Farnsworth, el reino de lo posible ya era probable.

Historia del Transistor Primeras Aplicaciones Inventores

Los extraordinarios progresos experimentados en el campo científico repercutieron en el terreno de la tecnología con inventos que, en algunos aspectos, han ido transformando la vida del ser humano. Una diminuta lámina de cristal de germanio, con dos electrodos puntiformes, que integran un transistor, se constituyó en un verdadero corazón de múltiples aparatos, desde pequeñísimas prótesis para sordos, hasta los que rigen la vida de los satélites. Tres eminentes investigadores: John Bordeen -premio Nobel-, Walter Brattain y William Shackley, dieron nacimiento al transistor, que por su reducido tamaño, su bajo precio y su economía, ha resultado insustituible en los sistemas de telecomunicaciones, tele-mediciones, etc.

Durante los años de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental. Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos. Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación. Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado. En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Entre todos los avances e inventos de la postguerra podría mencionarse en el campo de la electrónica,  uno de los descubrimientos que revolucionó al mundo, constituido, en un principio, por una diminuta lámina de cristal de germanio, con dos electrodos metálicos puntiformes, uno de ellos polarizado en sentido directo, emisor, y otro en sentido inverso, colector. Este diminuto artefacto, si así se lo puede llamar, no es nada menos que un transistor primitivo, que ha sido reemplazado por otro perfeccionado llamado transistor, adoptado universalmente.

Hace algo más que un cuarto de siglo, el 23 de diciembre de 1947, tres eminentes investigadores crearon el transistor. John Bardeen, dos veces premio Nobel por sus contribuciones sobre física teórica; Walter Brattain, especialista en superficies sólidas, y William Shockley, que ya se había destacado por sus trabajos en electrónica, dieron nacimiento al transistor.

Bardeen, Shockley y Brattain, inventores del transistor

Y uno de los primeros empleos, que asombró a todos sin excepción, fue el de las radios, que desde ese momento pudieron funcionar en diminutos aparatos sin necesidad de la corriente eléctrica. Como amplificador de señales de amplitud variable, el transistor sustituyó bien pronto, con extraordinarias ventajas, a la válvulas electrónicas.

En muy poco tiempo, el transistor fue invadiendo todas las actividades en que, por su uso, podía sustituir a los tubos electrónicos, por su tamaño reducido, su bajo costo, su fácil manejo. Además, su fabricación en serie ha puesto a disposición del mercado mundial transistores en una’ abundancia asombrosa. Basta decir que, en un solo año; Estados Unidos logró vender a Europa y al Japón más de nueve mil millones de transistores. Desde la guitarra eléctrica hasta las pequeñísimas prótesis que los sordos introducen en sus oídos para escuchar los sonidos, hasta los marcapasos y las extraordinarias telecámaras de las cápsulas espaciales, computadores y satélites funcionan ya a transistores. Representa el verdadero corazón de todos estos artefactos, desde el más pequeño hasta el más grande.

Para poder dimensionar el valor en toda su magnitud de este descubrimiento, es necesario aclarar que es fundamental la diferencia entre la electricidad y la electrónica; Mientras la primera se vale de electrones —esas partículas infinitesimales que gravitan alrededor del núcleo del átomo de una manera masiva— la electrónica entra en el detalle. Es decir, de electrones por grupos pequeños, a veces de a uno. Antes de la guerra, para gobernar estos flujos electrónicos tan ínfimos existía un solo dispositivo, la lámpara de radio inventada por Lee De Forest, en 1906.

Los cristales de silicio y germanio, cuyas estructuras son similares a la del diamante, permitieron la creación del transistor. En estos materiales, cada electrón está como prisionero en una determinada posición, y no puede moverse. Sin embargo, una vez liberado, se halla en condiciones de atravesar el sólido y convertirse en transportador. Además, los cristales de silicio y germanio ofrecen la posibilidad de que el electrón liberado deja un “agujero” en la posición que antes ocupaba. Este vacío se comporta exactamente igual que una carga positiva, y está en condiciones de trasladarse de un átomo al otro. De esta manera, los electrones funcionan como cargas negativas y los “agujeros” como positivas.

El secreto del transistor consiste en que, una vez obtenido el materia] muy puro, se lo convierte en conductor, introduciendo la necesaria cantidad de impurezas en los lugares precisos.

Los transistores fueron reemplazando progresivamente a las válvulas, y en todos aquellos aparatos, dispositivos e instrumentos en que se empleaban éstas, se sustituyen por aquéllos. Así, con las notables ventajas que reportaron se introdujeron en todos los sistemas de telecomunicaciones, telemediciones, telecomandos y teleseñalizacíones. Las radios, la televisión, las calculadoras electrónicas, los oscilógrafos, los voltímetros, los distintos instrumentos que se utilizan en el amplio campo de medicina para controlar las intervenciones quirúrgicas, etc. No se considera que un aparato es moderno, si no ha sido transistorizado, porque representa extraordinarias ventajas en su uso, sus resultados, su manipuleo y en su economía.

El ingenio humano, que no se detiene ni siquiera ante obstáculos que a veces parecen insalvables, ha tratado siempre de ahorrar tiempo, lo que representa dinero, y simplificar las tareas, hacerlas más rápidas y accesibles Eso y mucho más representan las computadoras, una de las maravillas más detonantes del siglo XX.

Estas máquinas que realizan las operaciones matemáticas que la mente humana tardaría horas en concretar, y no siempre con exactitud, están prestando un imponderable beneficio a la humanidad, porque han permitido resolver no sólo operaciones de este tipo, lo que ya es mucho, sino también encontraron solución a numerosos problemas de trabajo; se han introducido en el campo de la medicina, en la vida diaria del hogar, y el hombre no habría podido enviar satélites, y menos haber descendido en la Luna, si no hubiera contado con esta prodigiosa conquista.

Los primeros recuerdos sobre la evolución de las máquinas computadoras indican cómo la lógica fue introducida en el cálculo. Las primigenias máquinas, como la de Pascal, no efectuaban nada más que operaciones aritméticas aisladas; el encadenamiento de las distintas operaciones que daban como resultado el cálculo completo, quedaban enteramente en manos del usuario de la máquina. El proceso se efectuaba tal como se hace en la actualidad con las máquinas de teclado.

Durante la Segunda Guerra Mundial aparecieron las calculadoras electromecánicas y, posteriormente, las electrónicas, capaces de encadenar las operaciones. De esta manera, se logró que la máquina ejecutara una serie de operaciones cuya secuencia es conocida de antemano y, además, cierta selección de operaciones, en función de los resultados parciales obtenidos en el curso

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

LOS ENLACES QUÍMICOS EN LA ELECTRÓNICA: Gracias a las propiedades que les confieren, entre otros, los enlaces que son capaces de establecer, algunos elementos químicos tienen múltiples usos en la vida cotidiana. El silicio, por ejemplo, es un metaloide brillante, gris azulado. Forma el 26% de la corteza terrestre como sílice (SiO2 ) y silicatos. No existe en estado libre en la naturaleza y se prepara por reducción del sílice de la arena a elevadas temperaturas. El silicio forma parte de las arcillas, vidrios, cementos, siliconas.

En los últimos años, la demanda de este metaloide, así como de germanio y de selenio, se incrementó debido a que se utilizan para fabricar transistores y circuitos integrados. En el caso de los transistores se aprovecha la capacidad de semiconductor del silicio.

El cristal de silicio prácticamente no conduce la corriente eléctrica, porque muy pocos electrones tienen la energía suficiente como para escapar de sus átomos. Sin embargo, el agregado cuidadoso de impurezas lo convierte en conductor. Para comprenderlo, es preciso analizar la teoría de las bandas.

Según esta teoría, en una cristal, tal como ocurre en los átomos aislados, los electrones se ubican en niveles o “bandas” respecto de los átomos, pero, a diferencia de los átomos en los cuales estos niveles están bien diferenciados unos de otros, en los sólidos las bandas son continuas unas de otras.

Cuando los electrones se encuentran en la banda más cercana al átomo, llamada banda de valencia, el cristal no conduce la electricidad; en cambio, si se encuentran alejados del á-tomo, en la banda de conducción, el cristal conduce la eletricidad. En los metales, ambas bandas están pegadas una con otra, y el pasaje de electrones es sencillo. En los no metales y en los semiconductores existe una gran diferencia de energía entre ambas.

Cuando el silicio se contamina con un elemento que tiene un electrón más en su nivel más externo, el electrón sobrante no se une a los electrones del silicio y queda libre para moverse dentro del cristal, alcanzando la banda de conducción. Se forma así un material llamado semiconductor tipo n. Por el contrario, si el contaminante que se agrega es boro (que tiene un electrón menos), la banda de conducción baja su nivel energético y “se acerca” a la banda de valencia, permitiendo la conducción a través de los “huecos” vacantes. El material formado es un semiconductor tipo p.

Con los materiales semiconductores se fabrican transistores, que son componentes electrónicos que permiten o no el paso de la corriente eléctrica. En 1960 se creó un sistema capaz de tallar, mediante técnicas fotográficas, cientos de transistores en un pequeño bloquecito plano de silicio: se inventó así el primer circuito integrado o chip. En la actualidad, se construyen chips mucho más complejos llamados microprocesadores, capaces de leer y actuar de distinto modo según las necesidades del usuario. Estos componentes electrónicos pueden manejar la información de dos maneras diferentes:

Los componentes analógicos traducen magnitudes que varían constantemente en señales amplificadas que se modifican de la misma manera. Se usan, por ejemplo, en amplificadores de audio y sintetizadores.

Los componentes digitales reciben, comparan y procesan información en forma de pulsos eléctricos. Las señales de entrada y de salida sólo pueden tomar determinados valores, que se combinan para formar códigos. Estos componentes forman el sistema binario y se emplean en todos los sistemas computerizados. (Fuente: Química I Alegría-Bosack-Dal Fávero-Franco-Jaul-Ross)

Adelantos Tecnologicos Post Guerra Mundial Avances Cientificos

Historia Evolución Tecnológica Post Guerra Mundial
Durante los anos de la posguerra, la tecnología cambió progresivamente los diferentes aspectos de la vida cotidiana pero, sin duda alguna, hubo un tema que trascendió a todos los demás: la encarnizada y costosa rivalidad militar entre Estados Unidos y la URSS, en la que acabaron inevitablemente envueltos los países del este europeo y las democracias de Europa Occidental. Fue una rivalidad cuyas batallas se libraron sobre todo en el terreno tecnológico.

Por un lado, se produjo una proliferación de armas nucleares de creciente potencia y, por otro, fueron apareciendo los medios para transportarlas hasta puntos cada vez más remotos. Excepto en los aspectos no cuantificables de seguridad nacional e impulso de la actividad industrial, el enorme gasto resultó improductivo y, a través de sus repercusiones económicas, llegó a afectar las condiciones sociales.

Desarrollos tecnológicos de la posguerra
Inevitablemente, los primeros años de la posguerra se dedicaron más a la reconstrucción que a la innovación. Muchas de las actividades anteriores a la guerra prácticamente se habían detenido y sus responsables se limitaron a retomarlas en el punto en que las habían dejado. En Estados Unidos, por ejemplo, la fabricación de transmisores y receptores de televisión había estado prohibida durante la guerra y la medida no fue revocada hasta 1946.

Las transmisiones regulares en color comenzaron en 1950
Los automóviles de la inmediata posguerra eran básicamente iguales a los de antes de la guerra. Chrysler se adentró por nuevos terrenos en 1949, al introducir los frenos de disco que, sin embargo, habían sido concebidos por Lanchester a principios de siglo. Los neumáticos radiales, con mayor capacidad de agarre a la carretera, fueron introducidos en 1953. En los propios automóviles hubo sin embargo una marcada tendencia hacia modelos más pequeños, conforme al menor poder adquisitivo de la población.

El Volkswagen («coche del pueblo») alemán se había fabricado en muy pequeño número antes de la guerra, pero después del conflicto volvió a aparecer como el popular «Escarabajo», del que se vendieron millones en un período de 40 años. En 1949, la firma automovilística francesa Citroen lanzó su famoso «dos caballos», del que se vendieron cinco millones en los 30 años siguientes y que seguía siendo popular en 1987, cuando se interrumpió su fabricación.

La mecanización en agricultura, explotación de bosques y actividades afines quedó reflejada en el Land Rover británico, presentado en 1948, con un sistema de tracción en las cuatro ruedas adoptado del jeep militar norteamericano.
También las motocicletas entraron en una nueva fase, con la aparición de una variedad de modelos de baja potencia. La famosa Vespa apareció en Italia en 1946 y diez años más tarde se habían vendido un millón de unidades.

En Japón, en 1947, Soichiro Honda sentó las bases de una gigantesca industria internacional al añadir pequeños motores a bicicletas corrientes.

Como era de esperar, algunos de los cambios más importantes se produjeron en los sectores en que los adelantos realizados con fines exclusivamente militares pasaron a estar disponibles para usos civiles. La expansión fue rápida por dos motivos: en primer lugar, la fase de investigación y desarrollo ya se había superado y, en segundo lugar, los fabricantes habían perdido los contratos con el gobierno y necesitaban urgentemente un mercado civil para no precipitarse en la bancarrota.

La industria de la aviación fue uno de los casos más destacados. Tenía una gran capacidad productiva, pero carecía de contratos. Esta situación favoreció una enorme y rápida expansión de la aviación civil, que se benefició asimismo de los sistemas de radar para la navegación y el control del tráfico aéreo. Se produjo así una revolución en los medios utilizados para viajar, por ejemplo, en las travesías del Atlántico.

En los viajes transatlánticos, los grandes paquebotes habían competido entre sí, en los años anteriores a la guerra, ofreciendo buenas condiciones de comodidad y rapidez. En 1952, la flota existente se vio ampliada con el nuevo buque United States, construido a un coste entonces enorme de 75 millones de dólares y con un diseño sumamente innovador, basado en la utilización de aleaciones ligeras de aluminio para la superestructura. Pero el buque era ya obsoleto en el momento de la botadura pues la aviación civil ofrecía la travesía transatlántica en una décima parte de tiempo.

En 1957, más pasajeros cruzaron el Atlántico por aire que por mar y, hacia fines de los años 60, más del 97 % de los viajeros transatlánticos utilizaron el avión. El mismo cambio se registró en todo el mundo y el factor de la velocidad abrió un mercado completamente nuevo.

Durante los años de la preguerra, la industria química había inventado muchos productos nuevos en el campo de los polímeros, pero también en este caso la demanda militar había desviado las innovaciones de las aplicaciones civiles. Sin embargo, durante la posguerra, los nuevos polímeros inundaron el mercado. Las fibras artificiales, como el nilón y el dacrón oterylene, dieron un nuevo impulso a la industria textil.

El polietileno, considerado en un principio un plástico de uso limitado y especializado para la industria eléctrica, demostró ser un material adecuado para una gran variedad de fines. Su producción llegó a medirse en cientos de miles de toneladas y su uso aumentó todavía más cuando en 1953 K. Ziegler inventó un proceso a baja presión, destinado a reemplazar el original de altas presiones. En Italia, Giulio Natta aplicó el proceso de Ziegler a la polimerización del propileno, abriendo así un gigantesco mercado para el polipropileno.

Desarrollo del transistor
Para que las radios funcionen con corriente alterna, que es la suministrada por la red, es preciso rectificar esa corriente, es decir, convertirla en unidireccional. Al principio, se utilizaron con este fin dispositivos que aprovechaban la propiedad de ciertos cristales (como la galena o el sulfuro de plomo) para permitir que la corriente pasase en una sola dirección. Sin embargo, durante toda la primera mitad del siglo XX, estos dispositivos fueron casi enteramente sustituidos por los tubos termoiónicos (válvulas), capaces de rectificar y amplificar una corriente. Pero las válvulas tenían varios inconvenientes: eran voluminosas, consumían mucha electricidad y necesitaban cierto tiempo para calentarse y funcionar.

Al principio de los años 30, en los laboratorios de la empresa Bell Telephone, en Estados Unidos. W.H. Brattain había iniciado estudios detallados para desarrollar las propiedades de los semiconductores, es decir, de los materiales cuya resistencia eléctrica se sitúa entre la de los conductores (baja resistencia) y tos aislantes (alta resistencia). Sus trabajos revelaron que los efectos superficiales en un material semiconductor pueden producir la rectificación de una corriente. Estos rectificadores tenían, evidentemente, ciertas ventajas en comparación con los tubos termoiónicos; de hecho, durante la Segunda Guerra Mundial se utilizaron rectificadores de silicio para los sistemas de radar.

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor. El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente. Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar corrientes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio. El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

A En 1948, John Bardeen y Walter H. Brattsin, que trabajaban en los laboratorios de la compañía de teléfonos Bell, inventaron el transistor de contacto de punto que consistía en un chip semiconductor. Tres años más tarde, un colega de ellos, William Shockley, inventó el transistor de empalme comercialmente viable. Los tres fueron galardonados conjuntamente compartiendo el premio Nobel de Física en 1956.

PARA SABER MAS…
EL DESARROLLO DEL TRANSISTOR

La industria electrónica ha sido posible gracias al descubrimiento del electrón a principios del siglo XX. El primer impacto de este progreso científico sobre la tecnología de la vida cotidiana tuvo lugar a través de la radio. También la televisión era un producto de la nueva electrónica en la década de los 20, al igual que lo fue el radar en la década de los 30.

El invento decisivo que permitió que los aparatos electrónicos se fabricaran en unidades pequeñas, baratas y fiables fue el transistor. Éste fue inventado en 1948 y consistía en un pequeño trozo de silicio o de material semiconductor, que podía sustituir al grande y frágil tubo de vacío.

Los países más implicados en el desarrollo de la electrónica en las décadas de los años treinta y cuarenta fueron Estados Unidos, Gran Bretaña y Alemania. En estos tres países la Segunda Guerra Mundial proporcionó un estímulo para la investigación técnica, con científicos que trabajaban con radares y ordenadores. La investigación alemana sobre los ordenadores se retrasó cuando varios científicos de ordenadores fueron llamados para la incorporación a filas. La gran corporación estadounidense de ordenadores IBM dependía mucho de los contratos de trabajo gubernamentales en los años después de la guerra, y a finales de la década de los 50, la delantera estadounidense en la industria era evidente.

Los audífonos, comercializados en 1952, fueron el primer producto de consumo que se benefició del poder del transistor. Hacia 1954 se fabricaba un millón de transistores por año. En esta fase, todos los transistores eran unidos con alambres individualmente, pero en 1957 se desarrolló el circuito integrado, que permitió fabricar los transistores con otros componentes sobre chips semiconductores hechos con silicio.

La revolución del transistor cambió la calidad de vida a muchos niveles; también conllevó una nueva industria capaz de un espectacular crecimiento. Ello benefició a países como Alemania y Estados Unidos con tradiciones establecidas de ciencia, y a aquellos países que buscaban un rápido progreso económico a través de la inversión en la nueva tecnología y los nuevos productos de marketing, como Japón.

Los transistores son pequeños aparatos de material semiconductor que amplifican o controlan la corriente eléctrica. Son simples de fabricar, aunque requieren un cuidadoso trabajo manual durante el montaje; suplantaron a los tubos de vacío casi por completo en la década de los años setenta. La necesidad de colocarlos en su sitio por medio de alambres se superó gracias al desarrollo del circuito integrado.

Grandes Inventos en la Historia Lista de Inventos Argentinos

 

LISTA DE LOS INVENTOS MAS DESTACADOS

lista de inventos

1532 Sistema circulatorio pulmonar Miguel Servet Español

1590 Microscopio compuesto Zacharias Janssen Holandés

1593 Termómetro de agua Galileo Italiano

1608 Telescopio Hans Lippershey Holandés

1625 Transfusión de sangre Jean-Baptiste Denis Francés

1629 Turbina de vapor Giovanni Branca Italiano

1642 Máquina de sumar Blaise Pascal Francés

1643 Barómetro Evangelista Torricelli Italiano

1650 Bomba de aire Otto von Guericke Alemán

1656 Reloj de péndulo Christiaan Huygens Holandés

1668 Telescopio reflector Isaac Newton Británico

1672 Máquina de calcular Gottfried Wilhelm Leibniz Alemán

1698 Bomba de vapor Thomas Savery Inglés

1701 Barrena sembradora Jethro Tull Inglés

1705 Motor de vapor Thomas Newcomen Inglés

1710 Piano Bartolomeo Cristofori Italiano

1714 Termómetro de mercurio Daniel Gabriel Fahrenheit Alemán

1717 Campana de buceo Edmund Halley Británico

1725 Estereotipia William Ged Escocés

1745 Botella de Leyden (condensador) Ewald Georg von Kleist Alemán

1752 Pararrayos Benjamin Franklin Estadounidense

1758 Lente acromática John Dollond Británico

1759 Cronómetro marino John Harrison Inglés

1764 Máquina de hilar James Hargreaves Británico

1768 Máquina de tejer Richard Arkwright Británico

1769 Motor de vapor (con condensador separado) James Watt Escocés

1770 Automóvil Nicholas Joseph Cugnot Francés

1775 Submarino David Bushnell Estadounidense

1780 Pluma de acero Samuel Harrison Inglés

1780 Lente bifocal Benjamin Franklin Estadounidense

1783 Globo aerostático Joseph Michel Montgolfier y Jacques Étienne Montgolfier Franceses

1784 Trilladora mecánica Andrew Meikle Británico

1785 Telar mecánico Edmund Cartwright Británico

1787 Barco de vapor John Fitch Estadounidense

1788 Regulador centrífugo o de bolas James Watt Escocés

1791 Turbina de gas John Barber Británico

1792 Gas de alumbrado William Murdock Escocés

1793 Desmotadora de algodón Eli Whitney Estadounidense

1796 Prensa hidráulica Joseph Bramah Inglés

1796 Vacuna contra la viruela Edward Jenner Británico

1798 Litografía Aloys Senefelder Alemán

1798 Cinta sin fin de tela metálica (fabricación de papel) Louis Robert Francés

1800 Telar Jacquard Joseph Marie Jacquard Francés

1800 Batería eléctrica Conde Alessandro Volta Italiano

1801 Telar de patrones Joseph Marie Jacquard Francés

1804 Propulsor de hélice John Stevens Estadounidense

1804 Cohete de carburante sólido William Congreve Británico

1804 Locomotora de vapor Richard Trevithick Británico

1810 Conservación de alimentos (mediante esterilización y vacío) Nicolas Appert Francés

1810 Prensa de imprimir Frederick Koenig Alemán

1814 Locomotora ferroviaria George Stephenson Británico

1815 Lámpara de seguridad Sir Humphry Davy Británico

1816 Bicicleta Karl D. Sauerbronn Alemán

1819 Estetoscopio René Théophile Hyacinthe Laennec Francés

1820 Higrómetro J.F. Daniell Inglés

1820 Galvanómetro Johann Salomon Cristoph Schweigger Alemán

1821 Motor eléctrico Michael Faraday Británico

1823 Electroimán William Sturgeon Británico

1824 Cemento portland Joseph Aspdin Británico

1827 Cerillas o cerillos de fricción John Walker Británico

1829 Máquina de escribir W.A. Burt Estadounidense

1829 Sistema Braille Louis Braille Francés

1829 Máquina de coser Barthélemy Thimonnier Francés

1830 Báscula de romana Thaddeus Fairbanks Estadounidense

1831 Fósforos Charles Sauria Francés

1831 Segadora Cyrus Hall McCormick Estadounidense

1831 Dinamo Michael Faraday Británico

1834 Tranvía eléctrico Thomas Davenport Estadounidense

1836 Revólver Samuel Colt Estadounidense

1837 Telégrafo Samuel Finley Breese Morse Sir Charles Wheatstone Estadounidense Inglés

1838 Código Morse Samuel Finley Breese Morse Estadounidense

1839 Fotografía Louis Jacques Mandé Daguerre y Joseph Nicéphore Niepce William Henry Fox Talbot Franceses Inglés

1839 Caucho vulcanizado Charles Goodyear Estadounidense

1839 Martillo pilón de vapor James Nasmyth Escocés

1839 Bicicleta Kirkpatrick MacMillan Británico

1845 Llanta neumática Robert William Thompson Estadounidense

1846 Imprenta rotativa Richard March Hoe Estadounidense

1846 Algodón pólvora Christian Friedrich Schönbein Alemán

1846 Éter (anestésico) Crawford Williamson Long Estadounidense

1849 Hormigón armado F.J. Monier Francés

1849 Pasador de seguridad Walter Hunt Estadounidense

1849 Turbina de agua James Bicheno Francis Estadounidense

1850 Algodón mercerizado John Mercer Británico

1851 Rifle de retrocarga Edward Maynard Estadounidense

1851 Oftalmoscopio Hermann Ludwig Ferdinand y Helmholtz Alemanes

1852 Dirigible no rígido Henri Giffard Francés

1852 Giróscopo Jean Bernard Léon Foucault Francés

1853 Ascensor (con freno) Elisha Graves Otis Estadounidense

1855 Jeringa hipodérmica Alexander Wood Escocés

1855 Fósforos de seguridad J.E. Lundstrom Sueco

1855 Mechero de gas Bunsen Robert Wilhelm Bunsen Alemán

1856 Convertidor Bessemer (acero) Sir Henry Bessemer Británico

1858 Cosechadora Charles y William Marsh Estadounidenses

1859 Espectroscopio Gustav Robert Kirchhoff y Robert Wilhelm Bunsen Alemanes

1860 Motor de gas Étienne Lenoir Francés

1861 Horno eléctrico William Siemens Británico

1861 Ametralladora Richard Jordan Gatling Estadounidense

1861 Kinematoscopio Coleman Sellers Estadounidense

1865 Prensa rotativa de bobinas William A. Bullock Estadounidense

1865 Cirugía antiséptica Joseph Lister Británico

1866 Papel (de pasta de madera, proceso de sulfatación) Benjamin Chew Tilghman Estadounidense

1867 Dinamita Alfred Bernhard Nobel Sueco

1868 Pila seca Georges Leclanché Francés

1868 Máquina de escribir Carlos Glidden y Christopher Latham Sholes Estadounidenses

1868 Freno neumático George Westinghouse Estadounidense

1870 Celuloide John Wesley Hyatt e Isaiah Hyatt Estadounidenses

1874 Telégrafo cuadroplexo Thomas Alva Edison Estadounidense

1876 Teléfono Alexander Graham Bell Estadounidense

1877 Motor de combustión interna (cuatro tiempos) Nikolaus August Otto Alemán

1877 Gramófono (fonógrafo) Thomas Alva Edison Estadounidense

1877 Micrófono Emile Berliner Estadounidense

1877 Soldadura eléctrica Elihu Thomson Estadounidense

1877 Vagón frigorífico G.F. Swift Estadounidense

1878 Tubo de rayos catódicos Sir William Crookes Británico

1879 Máquina registradora James J. Ritty Estadounidense

1879 Lámpara de hilo incandescente Thomas Alva Edison Sir Joseph Wilson Swan Estadounidense Británico

1879 Motor de automóvil (dos tiempos) Karl Benz Alemán

1879 Lámpara de arco Charles Francis Bush Estadounidense

1884 Turbina de vapor Charles Algernon Parsons Inglés

1884 Rayón (nitrocelulosa) Conde Hilaire Bernigaud de Chardonnet Francés

1884 Turbina de vapor multieje Charles Algernon Parsons Británico

1884 Disco de Nipkow (dispositivo mecánico de exploración de televisión) Paul Gottlieb Nipkow Alemán

1884 Estilográfica Lewis Edson Waterman Estadounidense

1885 Grafófono (máquina de dictar) Chichester A. Bell y Charles Sumner Tainter Estadounidenses

1885 Transformador de CA William Stanley Estadounidense

1885 Submarino con propulsión eléctrica Isaac Peral Español

1886 Linotipia Ottmar Mergenthaler Estadounidense

1887 Llanta neumática inflable J.B. Dunlop Escocés

1887 Gramófono (grabaciones en disco) Emile Berliner Estadounidense

1887 Manguito incandescente para gas Barón Carl Auer von Welsbach Austriaco

1887 Mimeógrafo Albert Blake Dick Estadounidense

1887 Monotipia Tolbert Lanston Estadounidense

1887-1900 Morfología de las neuronas Santiago Ramón y Cajal Español

1888 Máquina de sumar impresora por teclas William Steward Burroughs Estadounidense

1888 Cámara Kodak George Eastman Estadounidense

1888 Kinetoscopio William Kennedy Dickson Thomas Alba Edison Escocés Estadounidense

1889 Turbina de vapor Carl Gustaf de Laval Sueco

1890 Rayón (cuproamonio) Louis Henri Despeissis Francés

1891 Planeador Otto Lilienthal Alemán

1891 Goma sintética Sir William Augustus Tilden Británico

1892 Motor de CA Nikola Tesla Estadounidense

1892 Cámara de tres colores Frederick Eugene Ives Estadounidense

1892 Rayón (viscosa) Charles Frederick Cross Británico

1892 Botella de vacío (vaso de Dewar) Sir James Dewar Británico

1892 Motor diesel Rudolf Diesel Alemán

1893 Célula fotoeléctrica Julius Elster y Hans F. Geitel Alemanes

1893 Automóvil a gasolina Charles Edgar Duryea y J. Frank Duryea Estadounidenses

1895 Cinematógrafo Louis Jean Lumière y Auguste Marie Lumière Charles Francis Jenkins Franceses Estadounidense

1895 Rayos X Wilhelm Conrad Roentgen Alemán

1895 Rayón (acetato) Charles Frederick Cross Británico

1895 Telegrafía sin hilos Guglielmo Marconi Italiano

1896 Avión experimental Samuel Pierpont Langley Estadounidense

1898 Papel fotográfico sensible Leo Hendrik Baekeland Estadounidense

1900 Dirigible rígido Graf Ferdinand von Zeppelin Alemán

1902 Radioteléfono Valdemar Poulsen y Reginald Aubrey Fessenden Danés Estadounidense

1903 Aeroplano Wilbur Wright y Orville Wright Estadounidenses

1903 Electrocardiógrafo Willem Einthoven Holandés

1904 Tubo rectificador de diodo (radio) John Ambrose Fleming Británico

1906 Girocompás Hermann Anschütz-Kämpfe Alemán

1906 Baquelita Leo Hendrik Baekeland Estadounidense

1906 Tubo amplificador de triodo (radio) Lee De Forest Estadounidense

1908 Cámara cinematográfica de dos colores G. Albert Smith Británico

1909 Salvarsán Paul Ehrlich Alemán

1910 Hidrogenación del carbón Friedrich Bergius Alemán

1910 Brújula y estabilizador giroscópicos Elmer Ambrose Sperry Estadounidense

1910 Celofán Jacques Edwin Brandenberger Suizo

1911 Aire acondicionado W.H. Carrier Estadounidense

1911 Vitaminas Casimir Funk Polaco

1911 Lámpara de neón Georges Claude Francés

1912 Lámpara de vapor mercúrico Peter Cooper Hewitt Estadounidense

1913 Estatorreactor René Lorin Francés

1913 Tubo de electrones multirrejilla Irving Langmuir Estadounidense

1913 Gasolina craqueada William Meriam Burton Estadounidense

1913 Radiorreceptor heterodino Reginald Aubrey Fessenden Canadiense

1913 Tubo de rayos X William David Coolidge Estadounidense

1915 Arranque automático de automoción Charles Franklin Kettering Estadounidense

1916 Rifle Browning (automático) John Moses Browning Estadounidense

1916 Lámpara incandescente rellena de gas Irving Langmuir Estadounidense

1919 Espectrómetro de masa Sir Francis William Aston Arthur Jeffrey Dempster Británico Estadounidense

1921 Insulina Frederick Grant Banting Charles Herbert Best John James Rickard Canadiense Canadiense Británico

1922-26 Películas cinematográficas con sonido T.W. Case Estadounidense

1923 Iconoscopio de televisión Vladímir Kosma Zworykin Estadounidense

1923 Autogiro Juan de la Cierva Español

1925 Congelación rápida de alimentos Clarence Birdseye Estadounidense

1925 Tubo disector de imágenes de televisión Philo Taylor Farnsworth Estadounidense

1926 Cohete de carburante líquido Robert Hutchings Goddard Estadounidense

1928 Penicilina Sir Alexander Fleming Británico

1930 Nailon (poliamidas sintéticas generadoras de fibras) Wallace Hume Carothers Estadounidense

1930 Batisfera Charles William Beebe Estadounidense

1930 Freón (compuestos de flúor de baja temperatura de ebullición) Thomas Midgley y colegas Estadounidense

1930 Motor de turbina de gas moderno Frank Whittle Británico

1930 Neopreno (goma sintética) Padre Julius Arthur Nieuwland y Wallace Hume Carothers Estadounidenses

1931 Ciclotrón Ernest Orlando Lawrence Estadounidense

1931 Analizador diferencial (computadora analógica) Vannevar Bush Estadounidense

1931 Generador de Van de Graaff Robert Jemison Van de Graaff Estadounidense

1932 Microscopio de contraste de fase Frits Zernike Holandés

1932 Sulfonamida Gerhard Domagk Alemán

1933 Modulación de frecuencia (FM) Edwin Howard Armstrong Estadounidense

1935 Buna (caucho sintético) Científicos alemanes Alemanes

1935 Radiolocalizador (radar) Sir Robert Watson-Watt Británico

1935 Cortisona Edward Calvin Kendall Tadeus Reichstein Estadounidense Suizo

1935 Microscopio electrónico Científicos alemanes Alemanes

1936 Helicóptero de dos rotores Heinrich Focke Alemán

1937 Xerografía Chester Carlson Estadounidense

1937 Nailon Wallace Hume Carothers Estadounidense

1939 DDT Paul Müller Suizo

1939 Helicóptero Igor Sikorski Estadounidense

1940 Televisión en colores Guillermo González Camarena Mexicano

1940 Betatrón Donald William Kerst Estadounidense

1941 Motor aeronáutico de turborreacción Frank Whittle Británico

1942 Misil guiado Wernher von Braun Alemán

1942 Reactor nuclear Enrico Fermi Estadounidense

1944 Estreptomicina Selman A. Waksman Estadounidense

1944 V-2 (bomba impulsada por cohete) Científicos alemanes Alemanes

1945 Bomba atómica Científicos del gobierno de EEUU Estadounidenses

1946 Computadora digital electrónica John Presper Eckert, Jr. y John W. Mauchly Estadounidenses

1947 Holografía Dennis Gabor Británico

1947 Cloromicetina Mildred Rebstock Estadounidense

1947 Cámara Polaroid Land Edwin Herbert Land Estadounidense

1947 Batiscafo Auguste Piccard Suizo

1947 Horno de microondas Percy L. Spencer Estadounidense

1948 Contador de centelleo Hartmut Kallmann Alemán

1948 Aureomicina Benjamin Minge Duggar y Chandra Bose Subba Row Estadounidenses

1948 Transistor John Bardeen, Walter Houser Brattain y William Shockley Estadounidenses

1949 Avión a chorro (estatorreactor) René Leduc Francés

1950 Televisión en color Peter Carl Goldmark Estadounidense

1952 Bomba de hidrógeno Científicos del gobierno de EEUU Estadounidenses

1952 Cámara de burbujas (detector de partículas nucleares) Donald Arthur Glaser Estadounidense

1953 Máser Charles Townes Estadounidense

1954 Batería solar Científicos de Bell Telephone Laboratory Estadounidenses

1954 Vacuna contra la poliomielitis Jonas Salk Estadounidense

1955 Diamantes sintéticos Científicos de General Electric Estadounidenses

1955 Datación mediante carbono W.F. Libby Estadounidense

1956 Aerodeslizador (hovercraft) Christopher Cockerell Inglés

1956 Primer prototipo de motor rotatorio Felix Wankel Alemán

1956 Videocinta Charles Ginsberg y Ray Dolby Estadounidenses

1956 Fregona Manuel Jalón Corominas Español

1957 Reactor atómico enfriado por sodio Científicos del gobierno de EEUU Estadounidenses

1957 Satélite terrestre artificial Científicos del gobierno de la URSS Soviéticos

1958 Satélite de comunicaciones Científicos del gobierno de EEUU Estadounidenses

1959 Circuitos integrados Jack Kilby y Robert Noyce Estadounidenses

1960 Láser Charles Hard Townes, Arthur L. Schawlow y Gordon Gould Estadounidenses

1960 Síntesis de la clorofila Robert Burns Woodward Estadounidense

1960 Píldora anticonceptiva Gregory Pincus, John Rock y Min-chueh Chang Estadounidenses

1962 Diodo emisor de luz (LED) Nick Holonyak, Jr. Estadounidense

1964 Pantalla de cristal líquido George Heilmeier Estadounidense

1966 Corazón artificial (ventrículo izquierdo) Michael Ellis DeBakey Estadounidense

1967 Transplante de corazón humano Christiaan Neethling Barnard Surafricano

1970 Primera síntesis completa de un gen Har Gobind Khorana Estadounidense

1971 Microprocesador Ted Hoff Estadounidense

1971 Generación de imágenes por resonancia magnética nuclear Raymond Damadian Estadounidense

1972 Calculadora electrónica de bolsillo J.S. Kilby y J.D. Merryman Estadounidenses

1972 Primer generador de energía magnetohidrodinámico Científicos del gobierno de la URSS Soviéticos

1973 Laboratorio espacial orbital Skylab Científicos del gobierno de EEUU Estadounidenses

1974 ADN recombinante (ingeniería genética) Científicos estadounidenses Estadounidenses

1975 TAC (tomografía axial computerizada) Godfrey N. Hounsfield Británico

1975 Fibra óptica Bell Laboratories Estadounidense

1976 Supercomputadora J.H. Van Tassel y Seymour Cray Estadounidenses

1978 Síntesis de los genes de la insulina humana Roberto Crea, Tadaaki Hirose, Adam Kraszewski y Keiichi Itakura Estadounidenses

1978 Transplante de genes entre mamíferos Paul Berg, Richard Mulligan y Bruce Howard Estadounidenses

1978 Corazón artificial Jarvik-7 Robert K. Jarvik Estadounidense

1978 Vacuna sintética contra la malaria Manuel Patarroyo Colombiano

1979 Disco compacto Joop Sinjou Toshi Tada Doi Holandés Japonés

1979 Reparación de defectos genéticos en células de ratón mediante técnicas de ADN recombinante y micromanipulación W. Francés Anderson y colegas Estadounidenses

1981 Sistema de transporte espacial (lanzadera espacial) Ingenieros de la NASA Estadounidenses

1981 Microscopio de túnel de barrido Gerd Binnig Heinrich Rohrer Alemán Suizo

1986 Superconductores hipertérmicos J. Georg Bednorz Karl A. Müller Alemán Suizo

1989 El Satélite Explorador de Fondo Cósmico (COBE) mostró que las irregularidades en la radiación de fondo de microondas son restos de regiones no uniformes presentes en el universo poco después del Big Bang Equipo dirigido por George Smoot Estadounidenses

1993 Telescopio Keck, el mayor telescopio reflector del mundo Universidad de California, California Instituto de Tecnología Estadounidense

 

1994 Pruebas de la existencia del quark top Fermi National Accelerator Laboratory, Illinois (Fermilab) Estadounidense

La Revolucion Cientifica del siglo XX: Descubrimientos y Avances Cientìficos

La Revolución Cientifíca del Siglo XX:

NECESIDAD DE LA TEORÍA CIENTÍFICA: De todas las ciencias, ha sido la física la que ha experimentado una transformación más profunda hasta el punto de adquirir una cierta hegemonía en el campo del conocimiento y de proporcionar las figuras más gloriosas de la ciencia del siglo XX.

Las investigaciones se orientaron hacia el conocimiento del espacio y del átomo; lo inmenso y lo minúsculo parecen haber sido los dos polos de atención a los que los sabios pudieron acercarse gracias al progreso de los instrumentos de análisis. Pero no fue la observación sino la construcción teórica el primer paso.

A diferencia de la Revolución Científica del siglo XVII, con Galileo y Newton como figuras relevantes, que postulaba una actitud empírica de observación de los fenómenos, la del siglo XX encuentra en la teoría, formulada a partir de postulados matemáticos y metafísicos, el punto de partida, la base que posteriormente permitirá la interpretación de los fenómenos observables.

Así, sin estar precedida por una comprobación empírica, se formuló la teoría de la Relatividad; la física del siglo XX no construye sus estructuras sobre leyes sino sobre teorías, con lo que incluso desde el punto de vista gnoseológico su posición es revolucionaria. La teoría de la Relatividad de Einstein y la teoría cuántica de Planck constituyen los dos capítulos fundamentales y al mismo tiempo el punto de partida para dos concepciones de la ciencia física.

DOS TEORÍAS SOBRE LA REALIDAD FÍSICA

Einstein, al continuar los estudios de Michelson y Morley sobre la luz, cuya velocidad consideraba una constante del universo, llegó a concluir que el tiempo es una variable que depende de la velocidad del espectador (Teoría de la Relatividad Restringida, 1905). Diez años más tarde consiguió medir la relación entre masa y energía (E= mc2); un cuerpo que irradia energía pierde masa, de donde deduce que la masa puede convertirse en energía y su equivalente es la cifra fabulosa obtenida al multiplicar su masa por el cuadrado de la velocidad de la luz (Teoría de la Relatividad General, 1915). Todas las futuras investigaciones sobre el átomo partieron de estas geniales formulaciones del joven científico alemán, que se trasladó posteriormente a Estados Unidos y adquirió la nacionalidad norteamericana.

Einstein demostró que el espacio es curvo y que la curvatura se intensifica en la proximidad de los cuerpos pesados, con lo que desmontó las concepciones newtonianas del espacio y justificó las geometrías no euclidianas, ya que en un espacio curvo las paralelas pueden unirse y todos los axiomas y postulados de Euclides sustituirse por otros. Al fotografiar la curvatura de la luz de las estrellas abrió nuevos horizontes interpretativos sobre la naturaleza de la luz y se encontró una prueba de la curvatura del espacio. Plank formuló en 1900 su teoría cuántica; de la misma manera que la materia es discontinua y está formada por una red de átomos, la energía irradia de forma discontinua en forma de cuanto o corpúsculos de valor variable según la intensidad de la radiación.

En 1924 Louis de Broglie fundó la mecánica ondulatoria, con la que concilió la teoría tradicional de la luz como onda continua y la cuántica de corpúsculo discontinuo. Las dos teorías suponen dos interpretaciones de la realidad física; la teoría cuántica la considera discontinua o corpuscular, la de la Relatividad la considera continua y constituida por una sustancia única espacio-tiempo que puede adoptar formas diversas. La teoría cuántica pretende conocer la naturaleza en términos observables, la Relatividad General en términos no observables, en cierto modo simbólicos, al afirmar que la naturaleza es una sucesión de formas geométricas de una sustancia única espacio-temporal.

INVESTIGACIONES SOBRE EL ÁTOMO

La concepción clásica del átomo como partícula indivisible había sido rechazada por los físicos del siglo XIX; desde finales de siglo hasta la actualidad los avances en el reconocimiento de las partículas elementales han sido constantes; Thompson, Rutherford, Bohr y De Broglie consiguieron trazar mapas nuevos en la estructura atómica. Thompson descubrió los electrones y demostró así que el átomo no es la partícula última; con las investigaciones de los esposos Curie sobre las radiaciones se inició otro camino que indagaba la energía contenida en el átomo. Rutherford diseñó un mapa del átomo en el que un núcleo, cargado con electricidad positiva, está rodeado por electrones con carga negativa.

cuadro del atomo

Esta imagen cobró movimiento en los estudios del danés Niels Bohr, quien postuló que los electrones giran alrededor del núcleo como si se tratara de un sistema solar en miniatura; el número y disposición de los electrones explicaba las propiedades químicas de los cuerpos y la sucesión de los elementos establecida a mediados del siglo XIX por Mendeleiev. Finalmente, De Broglie probó que las órbitas de los electrones no seguían una línea elíptica sino ondulatoria, oscilante, y que las ondas y los corpúsculos eran aspectos de una misma realidad. Otra línea de investigación se centró en la desintegración del átomo y en la energía que puede liberar. Rutherford rompió un núcleo de nitrógeno en 1919, al bombardearlo con partículas alfa mediante descargas eléctricas. Posteriormente, se descubrieron nuevos elementos en el átomo. Los neutrones eran obtenidos por Chadwick en 1932 al bombardear berilio con partículas alfa; Anderson el electrón positivo (positrón) y Neddermeyer el mesón, enlace entre los protones positivos y los neutrones.

En la década de los años 30 se investigó la radiactividad. Joliot Curie descubrió la radiactividad artificial, demostrando que los átomos bombardeados por neutrones se vuelven radiactivos. En 1936, Fermi obtuvo con este sistema cuerpos más pesados que los naturales y dos años después Hahn y Strassman descubrieron la posibilidad de la reacción en cadena, al comprobar que en los núcleos pesados como el del uranio de protón puede liberar varios neutrones, que al chocar con los nuevos núcleos los hacen estallar y proyectan nuevos neutrones; de esta forma un gramo de uranio puede liberar una energía equivalente a 2,5 tm de carbón. En 1939 con un ciclotrón se consiguió la fisión del átomo y la posibilidad de obtener reacciones en cadena en gran escala. La bomba atómica utiliza el uranio y la de hidrógeno el helio para producir esta reacción en cadena que libera una energía fantástica.

LAS ESCUELAS PROBABILISTA Y DETERMINISTA

Las teorías cuántica y de la Relatividad y las investigaciones sobre el átomo constituyen los capítulos más importantes de la nueva física. Pero los físicos se han sumido en incertidumbres que podríamos llamar de tipo metafísico, se han planteado en qué medida sus investigaciones se mueven en un nivel subjetivo o por el contrario les permiten un conocimiento no deformado de la realidad física. Dos escuelas, probabilista y determinista, afirman, respectivamente, la incertidumbre del conocimiento y la certeza de las leyes físicas.

Los probabilistas, con Bohr, Heisenberg y Dirac, parecieron en muchos momentos haber conseguido romper el “determinismo” de la física “clásica”. En 1925 Heisenberg planteó el dilema que fundamenta la postura probabilista, la imposibilidad de conocer simultáneamente la velocidad y posición de un electrón; si se conoce exactamente su posición, al obligarle a pasar por la pequeña abertura, no se conoce exactamente su velocidad al atravesarla, de lo que resulta que en un instante posterior será imposible precisar su situación. Con el principio de indeterminación Heisenberg afirma que el “espectador” modifica la realidad física al estudiarla, al aproximarse a contemplarlos deterministas se encuentran en minoría pero disponen de figuras tan gloriosas como Einstein, Schródinger, Blockinzev o De Broglie. La regularidad de las leyes físicas y la posibilidad de conocerlas con seguridad se resumen en la conocida fase de Einstein: “Dios no juega a los dados”. La Escuela de Copenhague, dirigida por Niels Bohr, se convirtió en la defensora del probabilismo, mientras la Escuela de París, dirigida por Louis De Broglie, ha sostenido el determinismo arguyendo que los probabilistas suministran una descripción incompleta de los fenómenos microfísicos. Como vemos, los científicos no se han limitado a escudriñar en los secretos del universo físico, sino que se han planteado la relación del hombre con ese universo desde atalayas “meta-físicas”.

EL CONOCIMIENTO DEL UNIVERSO

UNA VENTANA ABIERTA AL ESPACIO EXTERIOR

Capítulo fascinante de la ciencia del siglo XX es el cubierto por los progresos en el conocimiento del universo, posibilitados por la innovación de los instrumentos de observación y por la formulación de hipótesis filosóficas y físicas —la teoría de la Relatividad cambió sustancialmente la imagen del espacio— y modelos matemáticos. Hasta el siglo XVIII la astronomía se reducía al estudio del Sistema Solar y las estrellas se utilizaban como referencia, fondo invariable. Salvo Laplace, las teorías en boga hasta mediados de este siglo fueron elaboradas por filósofos; la más conocida es la de Immanuel Kant: Historia universal de la naturaleza y teoría del cielo (1755), cuyas ideas sobre el origen del Sistema Solar ejercieron prolongada influencia. Entre 1780 y 1820 se inició el estudio de nuestra galaxia, la Vía Láctea.

En 1842 el austríaco Doppler anunció un principio de fundamental importancia en astronomía: la luz de las estrellas produce un desplazamiento del espectro hacia el violeta cuando ésta se acerca, hacia el rojo cuando se aleja; con él se pudo medir la velocidad radial de las estrellas; en 1912 Slipher obtuvo el espectro de la nebulosa de Andrómeda y midió su aproximación a la Tierra a una velocidad de 200 km por segundo.

LA DIMENSIÓN DE LAS GALAXIAS

El conocimiento de nuestra galaxia recibió un impulso decisivo en 1918, cuando Harlow Shapley, a partir de los cúmulos globulares que se encuentran al Norte y al Sur del plano galáctico, consiguió determinar la posición y distancia del centro de gravedad de esta inmensa concentración de estrellas.

galaxia lejana

El Sol se encuentra situado en una posición marginal dentro de la galaxia, a 30.000 años luz del centro; de repente las soberbias geocéntricas y heliocéntricas quedaban barridas. Según los censos estelares se pensaba que disminuía la densidad de las estrellas en todas direcciones a partir de la Tierra, pero desde 1930 sabemos que es una simple impresión producida por la absorción de la luz por el polvo interestelar.

El diámetro de la galaxia es del orden de 100.000 años luz, lo que aumentaba espectacularmente las dimensiones hasta entonces concebidas, que no iban más allá de distancias diez veces menores. A continuación, comenzaron a medirse las velocidades de los astros en el espacio; el holandés Ort demostró que el Sol efectúa revoluciones circulares en torno al centro de la galaxia a 215 km por segundo, y posteriormente otros astrónomos, basándose en esta traslación solar, consiguieron determinar el orden de magnitud de la masa total de la galaxia en 200.000 millones de veces la masa del Sol. Estas dimensiones eran 2.000 veces superiores a las calculadas por Herschel, el primer astrólogo que, a finales del siglo XVIII, había intentado valorar el tamaño de la galaxia.

Se habìa llegado a dimensiones Impensables, pero todavía aguardaban nuevas sorpresas. La inmensidad de nuestra galaxia había hecho creer que ella sola constituía el universo. En 1924 Hubble demostró que nuestra vecina, Messier 31 de Andrómeda, constituía otra galaxia de estructura similar a la Vía Láctea pero mayor y más compleja, con estrellas dobles situadas a 2 millones de años luz. Por medio de los radiotelescopios se pudo comprobar la existencia de mil millones de estos paquetes de estrellas que llamamos galaxias, compuesto cada uno por miles de millones de cuerpos espaciales. Estas familias que pueblan el espacio son de diversas formas, esferoidales, elipsoidales, lenticulares, o prolongadas a modo de brazos, como la Vía Láctea.

Tras medir las dimensiones, otro capítulo atrajo la atención de los astrónomos: estos cuerpos espaciales se mueven a velocidades fantásticas dentro de las galaxias, mientras se produce otro movimiento de desplazamiento relativo entre éstas. Se comprobó primero, por el desplazamiento del espectro hacia el rojo, que las galaxias se alejaban del espectador terrestre; este alejamiento fue comprobado por Slipher entre 1912 y 1922. Pero la velocidad de desplazamiento no era constante; en 1928 Hubble publicó la ley de los desplazamientos espectrales, que afirma la relación distancia-velocidad; la velocidad de fuga parece aumentar con el alejamiento, 160 km por segundo por millón de años luz de distancia según la medida de Hubble, rebajada en la actualidad a 25 km por segundo. Se ha conseguido determinar la velocidad de más de mil galaxias, algunas se desplazan a 150.000 km por segundo, la mitad de la velocidad de la luz.

EL ORIGEN DEL UNIVERSO

el universo

Dimensiones, número de astros, velocidades de desplazamiento, alejamiento, todas las concepciones del universo han tenido que modificarse. En 1963 los objetos más lejanos cuyas distancias habían sido medidas se encontraban a 6.000 millones de años luz, pero entre las débiles imágenes captadas en Monte Palomar se sospechaba que podían encontrarse las correspondientes a galaxias que se situaban a 10.000 millones de años luz. Estas distancias introducen el factor tiempo en cosmología, porque el mensaje luminoso que recibimos corresponde a imágenes de otra época, incluso anteriores a la existencia de la Tierra, a la que se asignan 4,5 millones de años, de manera tal que el universo puede ser en la actualidad muy diferente a las imágenes que en este momento captamos.

¿Cómo es el universo?

Cada descubrimiento crea nuevas preguntas. ¿Se enfriará el Sol y morirá la Tierra de frío o, como parece más probable, se convertirá el Sol en una gigante estrella roja y achicharrará a todos los planetas de su Sistema? ¿Es la Tierra una curvatura del espacio? ¿Lo son todos los cuerpos celestes? ¿Qué es el espacio, qué respuesta

ha de darse tras la comprobación de que en las cercanías del Sol deja de ser euclidiano? ¿Qué geometría debe aplicarse al espacio? En 1917 Einstein demostró que la única posible era la de un espacio esférico de curvatura constante, cerrado, cuyo radio y cuya masa total podían obtenerse mediante fórmulas que propuso. Su modelo estable y estático ha planteado problemas casi insolubles, por lo que en 1922 Friedmann, matemático ruso, interpretando el efecto Doppler, se planteó la posibilidad de la modificación del radio del universo entre el instante de emisión de luz de una galaxia elevada y el instante de la observación; si el espectro se desplazaba hacia el rojo había que suponer que el universo se encontraba en expansión. Hemos indicado ya que así ocurre y que Hubble consiguió medir la velocidad de desplazamiento.

Otros teóricos aseguran que esta expansión es sólo una pulsación que será seguida de un período de contracción, con lo que el universo sería un enorme globo que se infla y desinfla periódicamente. La aportación de los teóricos (físicos y matemáticos) ha llegado a ser imprescindible, porque se nos plantea el problema de saber hasta qué punto la muestra de Universo que nos rodea resulta representativa. El modelo euclídeo de Newton, tanto tiempo útil, ha sido barrido desde el momento en que se abrió la ventana de las galaxias.

La teoría del Big Bang

big bang

La pregunta crucial se refiere al origen del universo. La teoría predominante en nuestros días es la denominada del Big Bang o explosión inicial. Su punto de partida se anda en la Teoría de la Relatividad General de Einstein. Un astrofísico, George Gamov, tras fechar esa explosión en un instante que se remonta a 15.000 millones de años, planteó la posibilidad de escuchar el eco de la misma cuando los instrumentos de medición permitieran acercarse a esa distancia. En 1964 dos radioastrónomos de los laboratorios Bell de Estados Unidos, Penzias y Wilson, que recibirían el premio Nobel en 1978, registraron un zumbido de fondo que posteriormente fue interpretado como el eco del Big Bang.

Otros científicos y desde 1992 el satélite COBE analizaron muestras de lo que se consideró la composición inicial del universo, concentraciones de hidrógeno y helio, a partir de las cuales se formarían estrellas y galaxias. Da la impresión de que se multiplican las pruebas del Big Bang, pero no todos los científicos aceptan esta teoría. Otro astrónomo eminente, Fred Hoyle, ha defendido la inexistencia de una explosión, afirmando que la materia se crea y destruye incesantemente en un universo estacionario. Doc. 3

El mejor procedimiento para elegir el modelo de expansión o el modelo estacionario consiste en estudiar la luz de los confines del universo, a miles de millones de años luz. En un universo en expansión esta luz sería “joven”, similar a la del momento de la explosión y diferente a la próxima a la Tierra; por el contrario, en un universo estacionario sería similar la luz próxima y la de los límites del universo.

DE LA VIDA A LA INTELIGENCIA ARTIFICIAL

EL MISTERIO DE LA VIDA

La bioquímica descubre y estudia los elementos químicos de la actividad vital y sus procesos o modalidades de acción. El descubrimiento de las enzimas, cuerpos químicos que actúan en procesos de fermentación, oxidación y fotosíntesis, fue seguido por el de las vitaminas, sustancias muy complejas, como la vitamina B, que contiene a su vez 15 sustancias. Con las vitaminas se completa la concepción de la enfermedad generada por un virus patógeno con el de enfermedad de carencia, como escorbuto, beriberi, raquitismo o enfermedades provocadas por la no presencia en el organismo vivo de alguna sustancia necesaria. Además de las adquiridas por alimentación, el organismo vivo produce sus propias sustancias, generadas por las glándulas endocrinas. Así, se ha descubierto la importancia de las hormonas que intervienen en el crecimiento de animales y plantas y en el funcionamiento preciso de los órganos: Ja insulina del páncreas, las hormonas del tiroides, las hormonas sexuales, etc.

Con el progreso de la bioquímica cambia la concepción de la vida, que es considerada como una estructura química peculiar, en la que el intercambio de elementos químicos es constante. Los componentes de lo vivo y lo no vivo son los mismos, la diferencia está en su ordenación, en su estructura. Teilhard de Chardin ha distinguido la acumulación exterior de elementos químicos que se produce en lo no vivo —así se forman los cristales, los minerales— de otro tipo de acumulación interna, que supone

Formas de vida extraterrestre

Pienso que las formas de vida de muchos mundos estarán compuestas en principio por los mismos átomos que tenemos aquí, quizás también por muchas de las mismas moléculas básicas, como proteínas y ácidos nucleicos; pero combinados de modos desconocidos. Quizás, si hay organismos flotando en las.densas atmósferas planetarias tendrán una composición atómica muy ‘parecida a la nuestra, pero es posible que carezcan de huesos y que, por lo tanto, no necesiten mucho calcio. Quizás en otros lugares se utilice un solvente diferente del agua. El ácido fluorhídrico nos podría servir bastante bien, aunque no hay una gran cantidad de flúor en el Cosmos; el ácido fluorhídrico causaría mucho daño al tipo de moléculas de que estamos hechos; pero otras moléculas orgánicas, como las ceras de parafina, por ejemplo, se mantienen perfectamente estables en su presencia. El amoniaco líquido resultaría un sistema solvente todavía mejor, ya que el amoníaco es muy abundante en el Cosmos. Pero sólo es liquido en mundos mucho más fríos que la Tierra o que Marte. El amoníaco es normalmente un gas en la Tierra, como le sucede al agua en Venus. O quizás haya cosas vivas que no tienen ningún sistema solvente: una vida de estado sólido donde en lugar de moléculas flotando hay señales eléctricas que se propagan.

una estructura más compleja, proceso al que el famoso pensador e investigador francés llama “complexificación interiorizante”. En el mismo sentido ha escrito Charón:

“Es muy posible que ese umbral que permite distinguir la Materia de lo Vivo sólo pueda ser descrito en términos de lenguaje topológico, que se refieran al espacio-tiempo. La Naturaleza, después de haber realizado todas las uniones posibles (por campos físicos) en nuestro espacio ordinario de topología plana (el de la Materia) había inventado la topología cilíndrica. Esta transformación exige, en principio, poca energía, ya que en ambos casos el espacio sigue siendo euclidiano, es decir, de débil intensidad de energía. Con la nueva topología cilíndrica pueden realizar-se bruscamente tipos de uniones posibles en la Materia. Además, las ondas electromagnéticas pueden permanecer encerradas (y, por tanto, disponibles) en este nuevo espacio. Salvamos así el umbral que separa la Materia de lo Vivo; las nuevas propiedades no tienen medida común con las antiguas: lo Vivo, con su topología diferente, constituye un auténtico universo en pequeño, paralelo al universo en que se distribuye y se pone la Materia”

Al conocimiento de los procesos vitales ha contribuido la investigación sobre la célula, a la que se ha consagrado una rama de la biología, la citología. Desde principios de siglo se realizaron cultivos de tejidos separados de su organismo y en 1933 el oftalmólogo ruso Filatov utilizó tejidos congelados en sus intervenciones quirúrgicas. Casi inmediatamente se consiguió mantener vivos órganos enteros separados de los organismos en que habían funcionado; en 1936 Carrel y Lindbergh hicieron vivir y funcionar durante varias semanas algunos órganos de mamíferos (ovarios, glándulas).

Otra línea de investigación atendió el estudio de los seres vivos más elementales, los virus. En 1935 Bochian consiguió sintetizar en el laboratorio uno de los más sencillos, el llamado virus del “mosaico del tabaco”. Se trata sin duda de seres vivos, ya que se reproducen y viven a expensas del medio en que se hallan, no obstante se discute su condición de organismo, parecen ser simples moléculas proteicas a las que se ha asignado la calidad de etapa intermedia entre la materia inanimada y viviente. El estudio de estos organismos inferiores, como los virus y las bacterias, ya más complejas, han permitido delimitar ciertas condiciones del origen de la vida, los elementos, presión y temperatura indispensables para el nacimiento de las operaciones específicas de lo vivo.

LA CIBERNÉTICA

En el campo de la electrónica, la física ha conseguido igualmente progresos revolucionarios, aplicados a la transmisión de señales (radio, televisión, satélites de comunicaciones), a la óptica (microscopios electrónicos, fotoelectricidad, cine). El láser, haz de ondas luminosas de intensidad mil veces superior a la de la luz solar, conseguido, por medio de emisiones estimuladas, por Maiman en 1960, está llamado a ser una de las maravillas del futuro y tiene aplicaciones ya en la medicina (cirugía de la retina, tumores cancerosos), en la industria y en la guerra (proyectiles dirigidos, aviones). Pero la aportación más importante de la electrónica es la construcción de ordenadores, que permiten la realización de complejas operaciones matemáticas en un tiempo mínimo y se han convertido en auxiliares imprescindibles para la exploración del espacio, utilísimos para la estadística y la manipulación de toda clase de datos en las complejas organizaciones de las sociedades industriales.

La primera calculadora electromecánica, construida por Howard Aiken, entró en servicio en 1944, era la Mark 1, que realizaba sus operaciones matemáticas mediante impulsos eléctricos cuya información procedía de cintas perforadas y cuyos resultados se obtenía también en perforaciones que finalmente se traducían en cifras. Luego, cálculos más rápidos y complicados se obtuvieron sustituyendo los relés por válvulas electrónicas; así se construyó el primer calculador electrónico, llamado Eniac. Mientras la Mark  necesitaba un tercio de segundo para hacer una suma de 23 cifras, la Data file, construida en 1957, puede leer varios millones de signos en milésimas de segundo.

El americano Norbert Wiener descubrió en 1948 la analogía entre el cerebro electrónico y el cerebro humano y la similitud de los impulsos eléctricos que transmiten la información y las órdenes entre el sistema nervioso del ser humano y los circuitos eléctricos; así nacieron máquinas eléctricas, robots que pueden funcionar según una lógica binaria, mientras la industria comienza a recorrer la investigación en este campo de la “electricidad pensante”. El fenómeno de la automatización, de la sustitución del trabajo humano por máquinas programables mediante las posibilidades de la electrónica, encierra profundas repercusiones sociales, anuncia un mundo en el que el trabajo de los hombres puede descargarse en máquinas, en un grado hasta hace poco tiempo insospechable.

Por primera vez disponemos ahora de medios para establecer contacto con civilizaciones en planetas de otras estrellas. Es un hecho asombroso que el radiotelescopio de 30 m de diámetro del National Astronomy and lonosphere Center, dirigido por la Cornell University en Arecibo, Puerto Rico, fuese capaz de comunicarse con otro idéntico situado en cualquier lugar de la Vía Láctea. Disponemos de los medios de comunicarnos no sólo venciendo distancias de centenares de miles de años luz, sino que podemos hacerlo de esa manera en un volumen que contenga centenares de miles de millones de estrellas. La hipótesis de que existen civilizaciones muy avanzadas en otros planetas se está poniendo a prueba. Ya ha dejado de ser pura especulación. Ahora se halla en el terreno de la experimentación.

LAS GRANDES CONQUISTAS DE LA CIENCIA

Hemos visto cuáles son las bases de la Revolución Científica del siglo XX: la física atómica, la física del espacio, las aplicaciones de la electrónica, la química de la vida; sobre estos cuatro pilares se han montado prácticamente todos los avances de la ciencia y de la técnica. De manera esquemática apuntamos algunos de los avances que más han influido en la vida del ser humano.

LA CONQUISTA DEL ESPACIO

Estamos probablemente en las primeras páginas de esta apasionante aventura, aunque nos parezcan ya conquistas casi increíbles: el lanzamiento de los primeros satélites (Sputniks rusos), la llegada del hombre a la Luna, el envío de ingenios espaciales para la recogida de materiales y la exploración del sistema solar, el ensamblaje de naves espaciales, etc.

LA GENÉTICA

Las teorías de Darwin y las leyes de Mendel han sido comprobadas en el siglo XX y enriquecidas o modificadas con las observaciones que permiten los aparatos de que disponen los investigadores. El holandés De Vries estableció, a principios de siglo, el concepto de mutación, la alteración que puede sufrir la carga genética almacenada en los cromosomas de las células genéticas o genes; de esta forma, la evolución no se produciría por alteraciones somáticas o anatómicas, por la adaptabilidad morfológica de los órganos a condiciones exteriores, como habían supuesto Lamarck y Darwin, sino por cambios internos del patrimonio hereditario. Las diferentes escuelas y los diferentes genéticos, Lyssenko, Dunn, Dobzanski, han explicado de diferentes formas los mecanismos pero aceptando todos la realidad de la evolución biológica.

EN LA MEDICINA

Podemos hablar de revoluciones, en plural. En primer lugar, el perfeccionamiento de los aparatos y las técnicas —rayos X, anestesia— ha permitido éxitos nuevos en la lucha contra la enfermedad. Por otra parte, la bioquímica ha puesto a disposición de los médicos sustancias que combaten a las bacterias patógenas: la meningitis es combatida por el ácido para-amino-salicílico; la malaria ha sido vencida por la cloroquinína y la paludrina; las vacunas han arrinconado enfermedades antes terroríficas; las sulfamidas y antibióticos han sido quizás la aportación más importante en este campo y Fleming, descubridor de la penicilina en 1928, uno de los grandes benefactores de la Humanidad.

Pero quizás el más fascinante capítulo de las ciencias medicas lo esté escribiendo el psicoanálisis, punto de partida para la medicina psicosomática. A las enfermedades provocadas por virus y a las provocadas por carencias de alguna sustancia habría que añadir un tercer tipo de trastornos, los del psiquismo, que se reflejan en el organismo, de donde se deduce que algunas enfermedades no pueden ser curadas sin estudiar sus raíces anímicas. Por otra parte, el psicoanálisis ha permitido un conocimiento más profundo del hombre. En este sentido la obra de Freud en medicina es equiparable a la de Einstein en física, supone una renovación total, un giro copernicano en los conceptos básicos

La indagación del subconsciente, en el que se arrinconan los traumas que el consciente no se atreve a afrontar y que afloran en el mundo de los sueños, permitió a Freud elucidar dimensiones desconocidas del espíritu, e iniciar unos métodos que fueron completados y revisados por Adler y Jung.Finalmente, constituye la revolución de las técnicas quirúrgicas el capítulo quizá más popular, especialmente el de los trasplantes de órganos, posibilitados por las investigaciones citológicas y las técnicas de conservación de órganos separados del ser al que pertenecen; los trasplantes del corazón, iniciados por el cirujano sudafricano Barnard, suscitaron la atención mundial, no obstante los avances más seguros no se han obtenido en la cardiología sino en la urología, oftalmología y otras ramas.

LA APORTACIÓN DE LA MATEMÁTICA

Durante siglos los matemáticos se movieron por los axiomas y postulados de la matemática griega; Thales, Pitágoras, Euclides son referencias constantes. Pero la nueva física precisaba una nueva matemática y partiendo de la consideración de que sólo el lenguaje matemático permite construir la ciencia física se ha desembocado en la afirmación de la necesidad universal de las matemáticas, necesidad demostrada por la cibernética y la aplicación incluso a ramas de la filosofía (lógica matemática). Un matemático-lógico, Kurt Gódel, demostró que en la ciencia eran siempre posibles las contradicciones porque el lenguaje científico es el desarrollo lógico obtenido mediante determinadas reglas (estructuras) aplicadas a un número de conceptos que se conviene en aceptar como validos, pero es posible sustituir estos conceptos básicos y levantar un nuevo edificio científico. De esta manera, se puede reemplazar la geometría de Euclides, apoyada en el postulado de que por un punto no se puede trazar más de una línea paralela a una recta, por otro postulado diferente (exigible por la concepción esférica del espacio einsteniano) y construir una geometría diferente. Y así se ha hecho. La aportación de Gódel, Whitehead, Russell, ha supuesto una palanca para el progreso del conocimiento.

De la misma manera que la Revolución Industrial se caracterizaba no por un invento aislado sino por una serie coherente de inventos, o mejor todavía por el invento que suscita otro más perfecto, la Revolución Científica ha despertado en cadena métodos y revelaciones que plantean nuevos interrogantes y permiten vislumbrar al mismo tiempo la posibilidad de contestarlas en un futuro inmediato.

El desafío del espacio

No hay camino de retorno al pasado; las únicas opciones, como ya dijo Wells, son el universo o la nada. Aunque los hombres y las civilizaciones anhelen descansar, para Eliseo y los lotófagos existe un deseo que se funde imperceptiblemente con la muerte. El desafío de los grandes espacios entre los mundos constituye un desafío formidable, pero si no le hacemos frente, ello significará que la historia de nuestra raza llega a su fin. La Humanidad habrá vuelto la espalda a las alturas todavía vírgenes y descenderá de nuevo por la larga pendiente que conduce, a través de miles de millones de anos, a los mares primigenios.

Escritos de Albert Einstein

La democracia

Mi ideal político es la democracia. El individuo debe respetado como persona. Nadie debería recibir un culto idólatra (Siempre me pareció una ironía del destino el haber suscitado tanta admiración y respeto inmerecidos. Comprendo que surgen del afán por comprender el par de conceptos que encontré con mis escasas fuerzas, al cabo de trabajos incesantes. Pero es un afán que muchos no podrán colmar).

La riqueza

No hay riqueza capaz de hacer progresar a la Humanidad, ni aun manejada por alguien que se lo proponga. A concepciones nobles, a nobles acciones, sólo conduce el ejemplo de altas y puras personalidades. El dinero no lleva más que al egoísmo, y conduce irremediablemente al abuso. ¿Podemos imaginar a Moisés, a Jesús, a Gandhi, subvencionados por el bolsillo de Carnegie?

La educación

Dar importancia excesiva y prematura al sistema competitivo y a la especialización en beneficio de la utilidad, segrega al espíritu de la vida cultural, y mata el germen del que depende la ciencia especializada.

Para que exista una educación válida es necesario que se desarrolle el pensamiento crítico e independiente de los jóvenes, un desarrollo puesto en peligro continuo por el exceso de materias (sistema puntual). Este exceso conduce necesariamente a la superficialidad y a la falta de cultura verdadera. La enseñanza debe ser tal que pueda recibirse como el mejor regalo y no como una amarga obligación.

Cuestionamientos al Progreso Tecnológico del Siglo XX

ALBERT EINSTEIN:  Mi visión del mundo. Tusquets, Barcelona, 1980.

Temas Relacionados:
El Átomo
Proyecto Genoma
Vida de las Estrellas
Biografía de Albert Einstein
Biografía de Max Planck

Biografía de Freud
Teoría de la Relatividad

Nacimiento y Caìda del Comunismo:Lenin,Trosky,Stalin y Gorbachov

Nacimiento y Caìda del Comunismo
Sus Líderes: Lenin,Trosky,Stalin y Gorbachov

hombres lideres del comunismo ruso: Lenin y Gorvachov

1917: Nace El Comunismo                         1991:Cae El Comunismo

LA DESINTEGRACIÓN DE LA URSS

Mijaíl Gorbachov nació en Stávropol, en el sudoeste de Rusia. Participó activamente en política desde muy joven y pasó a ser líder de la URSS en 1985. Transformó radicalmente las relaciones de la URSS con Occidente y se le atribuye el mérito de frenar la carrera armamentista y de concluir la Guerra Fría.

Trató de solucionar los problemas políticos y económicos soviéticos con un programa de reformas internas y, tras el desmembramiento de la URSS en 1991, protagonizó varios intentos fallidos de regresar a la arena política en Rusia. Recibió el premio Nobel de la Paz en  1990. En 1989, con la esperanza de que el pueblo soviético aceptase un nuevo «comunismo de rostro humano», Gorbachov permitió elecciones libres a algunos puestos en el Congreso de los Diputados del Pueblo (el parlamento soviético). Sin embargo, pronto tuvo que enfrentarse a las demandas de ampliación de estas concesiones planteadas por un nuevo diputado electo, Boris Yeltsin.

El Fin del Mundo Bipolar:
Las tendencias hacia el fortalecimiento de las nacionalidades antes subsumidas en los estados comunistas no se limitaron a Europa oriental. La Unión Soviética también sufrió los efectos de las reivindicaciones nacionalistas largo tiempo reprimidas. La Unión Soviética era un estado multiétnico y plurilingüe: 92 nacionalidades y 112 lenguas reconocidas. (ver mapa de los países de la antigua URSS)

El régimen comunista había controlado férreamente los potenciales conflictos que pudieran afectar la unidad territorial. Pero las reformas de Gorbachov abrieron la oportunidad para que muchos grupos nacionales comenzaran a manifestar su voluntad de establecer estados nacionales separados de la Unión Soviética. Gorbachov se propuso modificar el estatuto federativo de la Unión Soviética, otorgando mayor autonomía a las repúblicas federadas pero manteniendo la unidad del estado soviético.

La política de Gorbachov enfrentó cada vez mayores resistencias. La situación económica empeoró y las elecciones realizadas en buena parte de los estados que componían la Unión Soviética dieron el triunfo a fuerzas de corte nacionalista y anticomunista, poco proclives a mantener los vínculos con Rusia. A fines de agosto de 1991, un intento de golpe militar contra el gobierno de Gorbachov fue frustrado con la decisiva actuación de Boris Yeltsin, presidente de la Federación Rusa.

Pocos meses después, fracasado el proyecto federalista de Gorbachov, la Unión Soviética fue disuelta y se creó la Confederación de Estados Independientes (CEI), una laxa unión entre once de las quince repúblicas soviéticas -las repúblicas bálticas y Georgia no forman parte de la confederación-. Boris Yeltsin desplazó a Gorbachov como líder del nuevo agrupamiento y Rusia se convirtió en la heredera institucional de la Unión Soviética.

Gorbachov y Yeltsin
Yeltsin se había hecho popular en la URSS por sus abiertas críticas a Gorbachov y la Perestroika. En 1990, fue elegido presidente de la Federación Rusa, la mayor de las repúblicas soviéticas, y se sirvió de esta posición para atacar a Gorbachov y al PCUS, insistiendo en que el Partido no podía monopolizar él gobierno por más tiempo. Su decisión de darse de baja del Partido en julio de 1990 fue un desafío público. Frente a Yeltsin, la figura de Gorbachov aparecía débil y anticuada.

Durante 1990, Gorbachov se esforzó en mantener unida a la URSS enviando tropas a Azerbaiyán para reprimir las luchas interétnicas y oponiéndose a la independencia de las repúblicas bálticas. El 19 de agosto de 1991, un grupo de la línea dura del PCUS intentó un golpe de estado: detuvieron a Gorbachov y a sus asesores, declararon el estado de emergencia y anunciaron su intención de restaurar el antiguo régimen soviético.

Yeltsin fue a la Casa Blanca (edificio del parlamento soviético) e hizo un llamamiento al pueblo para que acudiese a protegerlo. El apoyo popular puso fin al golpe. Gorbachov fue repuesto en su cargo cuatro días más tarde, pero su prestigio quedó dañado de forma irreversible.

En septiembre de 1991, el Congreso de los Diputados del Pueblo concedió a todas las repúblicas soviéticas la independencia, disolviendo la URSS. Desaparecida la URSS, Gorbachov carecía de función real. Renunció en diciembre de ese año.

Fuente Consultada:
Historia 3 El Mundo Contemporáneo
Luchilo-Saccagio-Schwarzberg-Prislei-Suriano-Ternavasio

El Submarino Atomico o Nuclear Funcionamiento El Nautilius Polo Norte

FUNCIONAMIENTO DEL SUBMARINO ATÓMICO  – VIAJE AL POLO NORTE

En agosto de 1958 un inmenso objeto negro y alargado pasó lentamente bajo la corteza de hielo del polo Norte. Había navegado 1.500 Km. sin emerger y cumplía la fantástica tarea de cruzar el polo por debajo del agua. Era el Nautilus (foto izq.), estadounidense, el primer submarino atómico de la historia.

La idea de utilizar energía atómica para hacer marchar a los submarinos fue de Philip Albelson, en 1946. Sólo cuatro años más tarde, sin embargo, esta idea fue concretada en la construcción del primer submarino atómico, con la orientación del almirante H. Rickover.

El empleo de la energía atómica apresuró la solución de los dos grandes problemas que siempre preocuparon a los constructores de submarinos: las reservas de combustible y la existencia de dos tipos de motores. Los modelos antiguos usan motores Diésel cuando navegan por la superficie, y motores eléctricos bajo el agua.

Este sistema no permite grandes velocidades, exigiendo frecuentes ascensos a la superficie, cuando falta oxígeno o cuando la energía eléctrica se acaba. En el caso de los submarinos atómicos, la autonomía es prácticamente ilimitada.

Cómo funcionan: Con la eliminación de motores endotérmicos y motores eléctricos, se creó para los submarinos atómicos un sistema generador de vapor. El calor necesario para lograr su funcionamiento es proporcionado por una pila nuclear capaz de producir energía por muchos meses, dando a los submarinos una autonomía de más de 100.000 millas náuticas (casi el doble en Km.).

El sistema atómico de propulsión está constituido por dos circuitos cerrados que no necesitan oxígeno o agua del exterior ni tampoco aparatos de, descarga; por lo tanto, es el sistema ideal para los submarinos. En el primer circuito circula agua, sodio u otras sustancias cuya temperatura es elevada por encima del punto de ebullición.

Este líquido, encerrado bajo presión, no se transforma en vapor. Su calor se transmite al líquido que circula en el segundo circuito, y éste sí es transformado en vapor, el cual llega a la turbina y acciona la hélice. Para el funcionamiento de ese motor son suficientes algunos kilos de óxido de uranio, que permiten dos años de navegación.

La estructura : El submarino atómico tiene dimensiones bastante mayores que los de tipos anteriores. El submarino estadounidense Lafayette alcanza un desplazamiento de 8.200 toneladas. El francés Le Redoutable, llega a 9.000 toneladas. Tiene forma alargada, para una penetración óptima en el agua, y lleva en la popa una hélice de cuatro metros de diámetro. La velocidad que desarrolla es elevada, llegando a veces a más de treinta nudos, o sea, cerca de 56 Km./h. Los submarinos tradicionales alcanzaban 7 a 8 nudos: aproximadamente 13 a 15 kilómetros por hora.

La exigencia de mayor velocidad provocó otra modificación en la construcción de los submarinos: en vez de cuatro timones pequeños, la mayoría de los submarinos atómico lleva solamente dos timones de profundidad que sobresalen de la torre como grandes aletas horizontales. En esa posición, los timones no dificultan el fluir del agua a lo largo de la estructura. La torre, antes llena de salientes a causa de las armas e instrumentos que cargaba, hoy es lisa. Se ha transformado en una especie de aleta vertical y fina, necesaria para la estabilización del submarino.

La necesidad de navegar sumergido durante muchos meses exige espacio para todas las actividades de la tripulación, incluidos los ocios. Normalmente, el submarino nuclear dispone de dos tripulaciones que se alternan, a fin de evitar la fatiga de los individuos. Mientras los antiguos submarinos podían descender sólo 150 metros, los actuales pueden alcanzar profundidades de algunos centenares.

Esta es una gran ventaja para la actividad bélica, ya que navegando a gran profundidad el submarino se convierte en un blanco más difícil. Sin embargo, el submarino atómico tiene un grave defecto: el ruido de sus, máquinas, que en el silencio de los mares se propaga con gran facilidad. Navíos y helicópteros que estén a la escucha o que utilicen boyas sonares pueden localizarlo a la distancia.

Los astilleros estudian actualmente la forma de hacer’ más silencioso a este tipo de submarinos. Un submarino atómico estadounidense llega a costar casi 100 millones de dólares. Gran parte de esta suma se destina al equipo extremadamente complejo que se instala a bordo de la nave con la finalidad de dirigirla y lanzar mísiles y torpedos. El interior de un submarino nuclear parece un escenario de ciencia-ficción: hileras de computadoras, registradores y aparatos para el control de blancos. Todas las operaciones —desde la purificación del aire hasta la medición de la oscilación del submarino, y desde el control de los reactores hasta la regulación de la trayectoria de los mísiles— son efectuadas por computadoras electrónicas.

El armamento: Aunque ya se ha pensado en su utilización para fines pacíficos, los submarinos nucleares sólo fueron planeados, hasta ahora, con objetivos militares. Como integrantes de la moderna marina de guerra, se dividieron en dos grandes grupos: submarinos de ataque y submarinos lanzamisiles. La finalidad de los primeros es localizar y destruir navíos y submarinos enemigos, y están armados con torpedos. Los segundos tienen funciones estratégicas, y están provistos de misiles balísticos. Los submarinos de ataque cargan hasta 48 torpedos, capaces de dar en un blanco usando un equipo electrónico que capta el sonido o el calor de las máquinas de los navíos enemigos. Los mísiles utilizados por los submarinos atómicos son de dos tipos.

Unos son grandes mísiles balísticos que, lanzados por el submarino sumergido, vuelvan a través de miles de kilómetros hacia su lejano objetivo. Generalmente, tienen carga atómica y pueden utilizarse para atacar blancos que distan hasta 5.000 kilómetros. Los otros se usan en combinación con los torpedos.

El complejo misil-torpedo se llama subroc, abreviatura de subaqueous rocket (cohete submarino). Cuando los instrumentos de a bordo localizan un navío enemigo, el submarino se aproxima hasta 30 ó 40 Km. de su blanco y lanza el misil. Al funcionar así, el submarino actual prescinde del periscopio: los instrumentos modernos permiten acercarse al blanco sin necesidad de verlo. Esto es importante, porque el periscopio mide sólo veinte metros de alto y al utilizarlo, el submarino se acerca peligrosamente a la superficie del mar.

¿Y el futuro? : Es probable que los submarinos atómicos continúen siendo, por mucho tiempo, un arma exclusiva de las flotas de las naciones más poderosas. Pero ya se han dado los primeros pasos para la utilización no militar de los modernos submarinos. En Estados Unidos, por ejemplo, ya se usan los submarinos ató micos para la exploración del fondo del mar. Algunas compañías petroleras están proyectando la construcción de grandes submarinos para el transporte de petróleo desde los nuevos yacimientos de Alaska hasta los puertos cercanos a las refinerías. En un futuro no muy lejano también se podrá utilizar el submarino atómico para el transporte de mercaderías perecederas.

HISTORIA DEL NAUTILIUS: Terminada la Segunda Guerra Mundial con la terrible demostración de las capacidades del átomo, a principios de 1946 varios ingenieros navales reciben la orden de reunirse en una base militar secreta donde conocerían los reactores nucleares, pronto se pensó en utilizar esta energía como propulsora de submarinos por su propiedad de no necesitar oxigeno durante la fisión. Con este fin, la marina inició en 1948, un programa en Washintong en el Laboratorio de Investigación Naval, al mando de este programa estaba el capitán Hyman G. Rickover quien llegó a controlar todo el programa nuclear de la marina.

Adelantándose a su época y gracias a su tenacidad y empeño, consiguieron que en 1954 se botase el Nautilus, no sin enfrentarse a duras oposiciones desde todos los ámbitos, que consideraban el proyecto algo descabellado. Una vez convencidos, después de cuatro años de trabajo, la marina encargo a Rickover (imagen) y su equipo la construcción del primer submarino atómico en un plazo de cinco años.

Nadie, excepto el propio Rickover pensaba que ese plazo fuese factible, debido a lo descomunal de un proyecto en el que participarían miles de personas.

Se crearon unas instalaciones en Idaho en las que se construyó un duplicado del casco del Nautilus y se diseñó todo el sistema para que se adaptase en su interior. Esto suponía que todas las piezas de los reactores ya existentes debían ser rediseñados para adaptarse a las caprichosas formas de un submarino.

Rickover insistió en el control de calidad, también exigió un trabajo de ingeniería de la mejor clase, así como, hizo gran hincapié en tener una formación extremadamente competente de la futura dotación. Su equipo hizo todo lo posible para que este proyecto funcionase y lo hiciese bien, demostrando que aquel submarino podía ir al mar con total confianza y desempeñar su misión como submarino de combate.

Una de las principales preocupaciones del equipo de Rickover era evitar la radiación a toda costa. A este respecto cuando surgió el dilema de si debían cerrar la tapa del reactor con juntas o soldarla, se reunió a varios fabricantes de juntas que aseguraban que sus productos garantizaban el sellado. Rickover entró en la sala y les preguntó “¿Estarían dispuestos a permitir a sus hijos viajar en ese submarino?” a lo que los asistentes contestaron “suéldela”.

En 1952 se colocó la quilla del submarino en medio de una gran campaña publicitaria. Pero hasta la primavera de 1953 no se puso en marcha por primera vez el reactor Mark 1 en el centro de pruebas. Por fin, el 21 de enero de 1954 se botó el primer submarino nuclear, y a finales de 1955 el Nautilus se unió a la flota. Desde este día el submarino batió de inmediato todos losrecords de velocidad y permanencia sumergido. Con su primer núcleo de uranio navegó 62000 millas náuticas y casi todas en inmersión. Pronto se le consideró “el primer submarino verdadero”. Aunque se trataba más bien de un prototipo, sus capacidades demostraron que los conceptos de la guerra submarina y antisubmarina iban a cambiar drásticamente.

El propio Rickover afirmaba en 1956 “En mi opinión el Nautilus no es sólo un nuevo submarino que puede recorrer distancias prácticamente ilimitadas bajo el agua, yo lo considero una nueva arma y que puede tener un efecto tan profundo en las tácticas y estrategias navales como lo ha tenido el avión en la guerra”.

Los tripulantes acostumbrados a los submarinos convencionales opinaban del Nautilus que era una especie de trasatlántico. Tenía ventilación individual en todos los camastros, una sala común donde se proyectaban películas de cine, máquina de helados y muchas comodidades nunca vistas en un submarino. Los alimentos eran de la mejor clase y en aquella enorme sala las comidas se convertían en un acontecimiento social. La tripulación pronto lo apodó “Lola” en referencia a la canción “Lola consigue todo lo que quiere” ya que el proyecto contaba con toda clase de apoyos y un presupuesto muy generoso.

Pero pronto se terminarían aquellos momentos de tranquilidad y celebraciones. En la Unión Soviética se lanzó el primer satélite artificial, el Sputnik, mientras tanto el Nautilus operaba bajo el hielo del Ártico. Cuando el presidente Eisenhower se enteró de la posibilidad de cruzar por debajo del Polo Norte dio la orden. Su país debía responder de inmediato.

Después de algún intento, el Nautilus cruzó bajo el Polo Norte el 3 de agosto de 1958, este histórico acto demostró definitivamente la importancia estratégica del submarino nuclear. Operó hasta los años ochenta y en la actualidad el Nautilus está atracado en Groton Connecticut y se ha convertido en un museo que rinde homenaje a la flota submarina de los Estados Unidos.
(Fuente Consultada: Daniel Prieto)

UN POCO DE HISTORIA SOBRE LA EVOLUCIÓN DE LOS BARCOS: Desde el comienzo, los barcos de vapor tuvieron ventajas obvias sobre los barcos de vela. Por ser menos dependientes de los vientos favorables o adversos, cumplían mejor los horarios establecidos y nunca se quedaban encalmados.

Sin embargo los primeros vapores tenían también algunas desventajas. A mediados del siglo xix, el arte de construir barcos de vela llegó a su máxima perfección, y los mejores de los elegantes clíperes, construidos sobre el Clyde o en los astilleros de Boston, podían mantener una velocidad de 15 a 18 nudos en la mayoría de los viajes largos. En cambio los desgarbados y anchos vapores de ruedas rara vez podían viajar mucho más rápido que de 10 a 12 nudos. También los barcos de vela estaban en el mar tanto tiempo como sus provisiones lo permitieran, que podía ser varios meses; pero los vapores habían de permanecer en el mar solamente tanto como durara la provisión de carbón para las calderas.

A medida que la hélice reemplazó a la rueda de paletas, los vapores pronto aumentaron su velocidad, en parte porque la hélice era más eficiente que la rueda de paletas, en parte porque los barcos con hélice poseían un mejor perfil hidrodinámico y en parte también porque, en el ínterin, se habían perfeccionado los motores.

Y a medida que los vapores se hicieron más y más veloces, obtuvieron cargamentos cada vez más abundantes y valiosos. Para fines del siglo pasado, ya transportaban más del 80’% de todos los cargamentos, y los barcos de vela menos del 20 %. Luego, en los primeros años del siglo, se introdujeron las turbinas de vapor, y dieron a los barcos aún mayor ventaja en velocidad.

Así, el vapor había ganado la batalla de la velocidad; pero las velas eran todavía dueñas del cetro en la lucha de los barcos para ver cuál podía permanecer más tiempo en el mar. Pero, hace más de 50 años, comenzaron a botarse barcos de una clase diferente, provistos no de máquinas de vapor, sino de motores de combustión interna para mover la hélice. Estos pueden viajar los mejores barcos de motor modernos sin reabastecerse de combustible —hasta 30.000 kilómetros. Ahora, en nuestra época, el uso de reactores atómicos ha abierto la posibilidad de construir barcos capaces de navegar muchas veces alrededor del mundo sin reabastecerse.

Aunque los hombres de ciencia habían resuelto el problema de dominar la energía atómica con propósitos pacíficos pocos años después de la segunda guerra mundial, se tardó mucho más en producir un pequeño reactor apropiado para dar energía a un barco, y asegurarse de que se podría instalar sin exponer a la tripulación al peligro de la radiactividad. Así que hasta enero de 1955 el primer barco de energía atómica, el submarino americano “Nautilus”, no hizo su primer viaje de prueba. Sin embargo, en los años subsiguientes, un buen número de barcos atómicos comenzaron a circular.

El viaje más notable del “Nautilus”, que aparece en la ilustración de arriba, se hizo debajo de la capa de hielo que cubre el polo norte. El viaje demandó gran coraje, pues se pensaba que no se podría salir a la superficie hasta pasar el otro cabo de la capa de hielo. Pero el “Skate” lo hizo exactamente en el polo norte geográfico.

Otro submarino atómico norteamericano, el “George Washington”, que puede hacer viajes larguísimos y disparar proyectiles “Polaris” sin subir a la superficie. El rompehielos ruso “Lenin”,  puede navegar durante dos años sin reabastecerse de combustible. El diagrama del centro muestra cómo usa su propio peso para despejar un camino a través del hielo.

Fuente Consultada:
Sitio WEb Wikipedia
Revista Conocer Nuestro Tiempo
Diccionarioo Enciclopédico Espasa Calpe
El Triunfo de la Ciencia Tomo III Globerama Edit. CODEX

Ecuación de Drake Posibilidades de Vida Extraterrestre

La detección de vida en otro punto del universo sería el mayor descubrimiento de todos los tiempos. El profesor de física Enrico Fermi se preguntó por qué, teniendo en cuenta la y la vastedad del universo, así como la presencia de miles  millones de estrellas y planetas que han existido durante de millones de años, ninguna civilización alienígena se ha puesto en contacto con nosotros. Esta era su paradoja.

Mientras charlaba con sus colegas a la hora del almuerzo en 1950. Fermi, al parecer, se preguntó: «¿Dónde están?». Nuestra galaxia contiene miles de millones de estrellas y hay miles de millones de galaxias en el universo, así que hay billones de estrellas. Si sólo una pequeña fracción de ellas tuviera planetas, eso suponía un gran número de ellos. Si una parte de esos planetas albergaba vida, debería haber millones de civilizaciones ahí afuera. Así que, ¿por qué no las hemos visto? ¿Por qué no se han puesto en contacto con nosotros?

Así pensaba Carl Sagan, respecto a la vida extraterrestre: ¿hay alguien ahí fuera con quien hablar? ¿Es posible, habiendo una tercera parte o una mitad de un billón de estrellas en nuestra galaxia Vía Láctea, que la nuestra sea la única acompañada por un planeta habitado?.

Es mucho más probable que las civilizaciones técnicas sean una trivialidad, que la galaxia esté pulsando y vibrando con sociedades avanzadas, y por lo tanto que no esté muy lejos la cultura de este tipo más próxima: quizás esté transmitiendo con antenas instaladas en un planeta de una estrella visible a simple vista, en la casa de al lado.

Quizás cuando miramos el cielo nocturno, cerca de uno de esos débiles puntos de luz hay un mundo en el cual alguien muy distinto de nosotros esté contemplando distraídamente una estrella que nosotros llamamos Sol y acariciando, sólo por un momento, una insultante especulación.

Es muy difícil estar seguros. Puede haber impedimentos graves en la evolución de una civilización técnica. Los planetas pueden ser más raros de lo que pensamos. Quizás el origen de la vida no es tan fácil como sugieren nuestros experimentos de laboratorio. Quizás la evolución de formas avanzadas de vida sea improbable. 0 quizás las formas de vida compleja evolucionan fácilmente pero la inteligencia y las sociedades técnicas requieren un conjunto improbable de coincidencias: del mismo modo que la evolución de la especie humana dependió del fallecimiento de los dinosaurios y de la recesión de los bosques en la era glacial; de aquellos árboles sobre los cuales nuestros antepasados se rascaban y se sorprendían vagamente de algo. 0 quizás las civilizaciones nacen de modo repetido e inexorable, en innumerables planetas de la Vía Láctea, pero son en general inestables; de modo que sólo una pequeña fracción consigue sobrevivir a su tecnología y la mayoría sucumben a la codicia y a la ignorancia, a la contaminación y a la guerra nuclear.

Ecuación de Drake: En 1961, Frank Drake trasladó a una ecuación la probabilidad de que una civilización alienígena con la que pudiéramos contactar viva en otro planeta de la Vía Láctea. Se conoce como la ecuación de Drake. Nos dice que existe la posibilidad de que coexistamos con otras civilizaciones, pero la probabilidad es bastante incierta. Carl Sagan sugirió una vez que hasta un millón de civilizaciones alienígenas podrían vivir en la Vía Láctea, pero más adelante rechazó su propia afirmación, y desde entonces otros científicos han considerado que esa cifra se reducía a una civilización, concretamente, la humana.

 número de estrellas en la galaxia Vía Láctea;  fracción de estrellas que tienen sistemas planetarios número de planetas en un sistema dado que son ecológicamente adecuados para la vida, fracción de planetas adecuados de por sí en los que la vida nace realmente, fracción de planetas habitados en los que una forma inteligente de vida evoluciona, fracción de planetas habitados por seres inteligentes en los que se desarrolla una civilización técnica comunicativa; fracción de una vida planetaria agraciada con una civilización técnica. =N

FORMULA DE DRAKE: Es posible continuar explorando este gran tema y hacer una estimación basta de N, el número de civilizaciones técnicas avanzadas en la Galaxia. Definimos una civilización avanzada como una civilización capaz de tener radioastronomía. Se trata desde luego de una definición de campanario, aunque esencial. Puede haber innumerables mundos en los que los habitantes sean perfectos lingüistas o magníficos poetas pero radioastrónomos indiferentes. No oiremos nada de ellos. N puede escribirse como el producto o multiplicación de unos cuantos factores, cada uno de los cuales es un filtro y, por otro lado, cada uno ha de tener un cierto tamaño para que haya un número grande de civilizaciones:


Nt, número de estrellas en la galaxia Vía Láctea;
fp, fracción de estrellas que tienen sistemas planetarios,
ne, número de planetas en un sistema dado que son ecológicamente adecuados para la vida,
fj, fracción de planetas adecuados de por sí en los que la vida nace realmente,
f¡, fracción de planetas habitados en los que una forma inteligente de vida evoluciona,
fc, fracción de planetas habitados por seres inteligentes en los que se desarrolla una civilización técnica comunicativa; y
fL, fracción de una vida planetaria agraciada con una civilización técnic
a.

Esta ecuación escrita se lee N = N*. fp . ne . f1 . fi . fc . fL Todas las efes son fracciones que tienen valores entre 0 y 1; e irán reduciendo el valor elevado de N0.

Para derivar N hemos de estimar cada una de estas cantidades. Conocemos bastantes cosas sobre los primeros factores de la ecuación, el número de estrellas y de sistemas planetarios. Sabemos muy poco sobre los factores posteriores relativos a la evolución de la inteligencia o a la duración de la vida de las sociedades técnicas. En estos casos nuestras estimaciones serán poco más que suposiciones. Os invito, si estáis en desacuerdo con las estimaciones que doy, a proponer vuestras propias cifras y ver cómo afectan al número de civilizaciones avanzadas de la Galaxia. Una de las grandes virtudes de esta ecuación, debida originalmente a Frank Drake, de Cornell, es que incluye temas que van desde la astronomía estelar y planetario hasta la química orgánica, la biología evolutiva, la historia, la política y la psicología anormal. La ecuación de Drake abarca por sí sola gran parte del Cosmos.

Conocemos N*, el número de estrellas en la galaxia Vía Láctea, bastante bien, por recuentos cuidadosos de estrellas en regiones del cielo, pequeñas pero representativas. Es de unos cuantos centenares de miles de millones; algunas estimaciones recientes lo sitúan en 4 x 1011. Muy pocas de estas estrellas son del tipo de gran masa y corta vida que despilfarran sus reservas de combustible nuclear. La gran mayoría tienen vidas de miles de millones de años o más durante los cuales brillan de modo estable proporcionando una fuente de energía adecuada para el origen y evolución de la vida de planetas cercanos.

Hay pruebas de que los planetas son un acompañamiento frecuente de la formación de estrellas. Tenemos los sistemas de satélites de Júpiter, Saturno y Urano, que son como sistemas solares en miniatura; las teorías del origen de los planetas; los estudios de estrellas dobles; las observaciones de los discos de acreción alrededor de estrellas, y algunas investigaciones preliminares de las perturbaciones gravitatorias de estrellas cercanas. Muchas estrellas, quizás la mayoría, pueden tener planetas.

Consideramos que la fracción de estrellas que tienen planetas, es aproximadamente de 1/3. Entonces el número total de sistemas planetarios en la galaxia sería N. fp = 1,3 x 1011 (el símbolo = significa aproximadamente igual a ). Si cada sistema tuviera diez planetas, como el nuestro, el número total de mundos en la Galaxia sería de más de un billón, un vasto escenario para el drama cósmico.

En nuestro propio sistema solar hay varios cuerpos que pueden ser adecuados para algún tipo de vida: la Tierra seguro, y quizás Marte, Titán y Júpiter. Una vez la vida nace, tiende a ser muy adaptable y tenaz. Tiene que haber muchos ambientes diferentes adecuados para la vida en un sistema planetario dado. Pero escojamos de modo conservador ne = 2. Entonces el número de planetas en la Galaxia adecuados para la vida resulta
N. fp
ne = 3 x 1011.

Los experimentos demuestran que la base molecular de la vida, los bloques constructivos de moléculas capaces de hacer copias de sí mismas, se constituye de modo fácil en las condiciones cósmicas más corrientes. Ahora pisamos un terreno menos seguro; puede haber por ejemplo impedimentos en la evolución del código genético, aunque yo creo que esto es improbable después de miles de millones de años de química primigenio.

Escogemos f1=1/3, implicando con esto que el número total de planetas en la Vía Láctea en los cuales la vida ha hecho su aparición por lo menos una vez es N* fp ne f1 = 1 x 1011, un centenar de miles de millones de mundos habitados. Esta conclusión es de por sí notable. Pero todavía no hemos acabado.

La elección de fi y de fc es más difícil. Por una parte tuvieron que darse muchos pasos individualmente improbables en la evolución biológica y en la historia humana para que se desarrollara nuestra inteligencia y tecnología actuales. Por otra parte tiene que haber muchos caminos muy diferentes que desemboquen en una civilización avanzada de capacidades específicas.

Tengamos en cuenta la dificultad aparente que para la evolución de grandes organismos supone la explosión del cámbrico, y escojamosfi x fc = 1/100; es decir que sólo un uno por ciento de los planetas en los cuales nace la vida llegan a producir una civilización técnica.

Esta estimación representa un punto medio entre opiniones científicas opuestas. Algunos piensan que el proceso equivalente al que va de la emergencia de los trilobites a la domesticación del fuego se da de modo fulminante en todos los sistemas planetarios; otros piensan que aunque se disponga de diez o de quince mil millones de años, la evolución de civilizaciones técnicas es improbable.

Se trata de un tema que no permite muchos experimentos mientras nuestras investigaciones estén limitadas a un único planeta. Multiplicando todos estos factores obtenemos: N* fp ne f1 fi fc = 1 X 109, mil millones de planetas donde han aparecido por lo menos una vez civilizaciones técnicas. Pero esto es muy distinto a afirmar que hay mil millones de planetas en los que ahora existe una civilización técnica. Para ello tenemos que estimar también fL.

¿Qué porcentaje de la vida de un planeta está marcado por una civilización técnica? La Tierra ha albergado una civilización técnica caracterizada por la radioastronomía desde hace sólo unas décadas, y su vida total es de unos cuantos miles de millones de años. Por lo tanto, si nos limitamos a nuestro planeta fL es por ahora inferior a 1/108, una millonésima de uno por ciento. No está excluido en absoluto que nos destruyamos mañana mismo. Supongamos que éste fuera un caso típico, y la destrucción tan completa que ninguna civilización técnica más o de la especie humana o de otra especie cualquiera fuera capaz de emerger en los cinco mil millones de años más o menos que quedan antes de que el Sol muera.

Entonces N = N* fp ne f1 fi fc fL = 10 y en cualquier momento dado sólo habría una reducida cantidad, un puñado, una miseria de civilizaciones técnicas en la Galaxia, y su número se mantendría continuamente a medida que las sociedades emergentes sustituirían a las que acababan de autoinmolarse. El número N podría incluso ser de sólo 1.

Si las civilizaciones tienden a destruirse poco después de alcanzar la fase tecnológica, quizás no haya nadie con quien podamos hablar aparte de nosotros mismos, y esto no lo hacemos de modo muy brillante. Las civilizaciones tardarían en nacer miles de millones de años de tortuosa evolución, y luego se volatilizarían en un instante de imperdonable negligencia.

Pero consideremos la alternativa, la perspectiva de que por lo menos algunas civilizaciones aprendan a vivir con una alta tecnología; que las contradicciones planteadas por los caprichos de la pasada evolución cerebral se resuelvan de modo consciente y no conduzcan a la autodestrucción; o que, aunque se produzcan perturbaciones importantes, queden invertidas en los miles de millones de años siguientes de evolución biológica. Estas sociedades podrían vivir hasta alcanzar una próspera vejez, con unas vidas que se medirían quizás en escalas temporales evolutivas de tipo geológico o estelar.

Si el uno por ciento de las civilizaciones pueden sobrevivir a su adolescencia tecnológica, escoger la ramificación adecuada en este punto histórico crítico y conseguir la madurez, entonces fL = 1 / 100, N= 107, y el número de civilizaciones existentes en la Galaxia es de millones. Por lo tanto, si bien nos preocupa la posible falta de confianza en la estimación de los primeros factores de la ecuación de Drake, que dependen de la astronomía, la química orgánica y la biología evolutiva, la principal incertidumbre afecta a la economía y la política y lo que en la Tierra denominamos naturaleza humana. Parece bastante claro que si la autodestrucción no es el destino predominante de las civilizaciones galácticas, el cielo está vibrando suavemente con mensajes de las estrellas.

Estas estimaciones son excitantes. Sugieren que la recepción de un mensaje del espacio es, incluso sin descifrarlo, un signo profundamente esperanzador. Significa que alguien ha aprendido a vivir con la alta tecnología; que es posible sobrevivir a la adolescencia tecnológica. Esta razón, con toda independencia del contenido del mensaje, proporciona por sí sólo una poderosa justificación para la búsqueda de otras civilizaciones.


Si hay millones de civilizaciones distribuidas de modo más o menos casual a través de la Galaxia, la distancia a la más próxima es de unos doscientos años luz. Incluso a la velocidad de la luz un mensaje de radio tardaría dos siglos en llegar desde allí. Si hubiésemos iniciado nosotros el diálogo, sería como si Johannes Kepler hubiese preguntado algo y nosotros recibiéramos ahora la respuesta.

Es más lógico que escuchemos en lugar de enviar mensajes, sobre todo porque, al ser novicios en radioastronomía, tenemos que estar relativamente atrasados y la civilización transmisora avanzada. Como es lógico, si una civilización estuviera más avanzada, las posiciones se invertirían.

Más de medio siglo después de que Fermi planteara su pregunta, todavía no hemos oído nada. A pesar de nuestros sistemas de comunicación, nadie ha llamado. Cuanto más exploramos nuestro vecindario local, más solitario parece. Ni en la Luna, ni en Marte, ni en asteroides ni en los planetas del sistema solar exterior se ha encontrado rastro alguno de signos concretos de vida, ni siquiera de la bacteria más simple. Tampoco hay signos de interferencia en la luz de las estrellas que pudieran indicar máquinas gigantes orbitando a su alrededor y cosechando energía de ellas. Y no es porque no haya mirado nadie. Dado lo que está en juego, se presta mucha atención a la búsqueda de inteligencia extraterrestre.

Búsqueda de vida ¿Cómo saldríamos a buscar signos de vida? La primera manera es buscar microbios en nuestro sistema solar. Los científicos han escudriñado las rocas de la Luna, pero son basalto inanimado. Se ha sugerido que los meteoritos de Marte podrían contener vestigios de bacterias, pero todavía no se ha probado que las burbujas ovoides de esas rocas hayan albergado vida alienígena o no se hubieran contaminado después de haber caído a la Tierra, o bien que se hayan producido por procesos naturales.

Las cámaras de naves y sondas han recorrido las superficies de Marte, de asteroides y ahora incluso de una luna del sistema solar exterior (Titán, que órbita Saturno). Pero la superficie de Marte está seca, y la de Titán está empapada de metano líquido y, por ahora, desprovista de vida. Europa, una luna de Júpiter, puede albergar mares de agua líquida debajo de su superficie congelada. Por tanto, el agua líquida tal vez no sea un artículo extraño en el sistema solar exterior, lo que aviva las esperanzas de que pueda encontrarse vida algún día.

Sin embargo, los microbios no van a venir a llamar a nuestra puerta. ¿Y qué hay de los animales o plantas más sofisticados? Ahora que se están detectando planetas alrededor de estrellas lejanas, los astrónomos planean diseccionar la luz que proviene de ellos en busca de algún vestigio de vida.

Fuente Consultada: COSMOS Carl Sagan

Medida de La Via Lactea Cantidad de Estrellas en la Galaxia Descripcion

Medida de La Via Láctea
Cantidad de Estrellas en la Galaxia

LA VÍA LÁCTEA: Los astrónomos saben ahora que el conjunto de estrellas que vemos durante la noche es parte de un gigantesco sistema. La forma de este sistema estelar se parece bastante a la de dos platos encarados con sus bordes en contacto y una especie de abultamiento en su parte central.

El sistema solar no está ni mucho menos cerca del centro de este sistema estelar, sino a unos dos tercios de él. Las estrellas aparecen concentradas con mayor densidad en la parte central y en la porción plana situada entre los dos bordes de los “platos”, esto es, en el plano central. Podemos darnos cuenta de esto al observar el cielo en una noche clara: una tenue banda luminosa atraviesa el cielo de un extremo al otro.

Los hombres primitivos ya se dieron cuenta de la presencia de esta banda luminosa muchas leyendas tuvieron su origen en ella, conociéndose con el nombre de Vía Láctea. Tras la invención del telescopio, los astrónomos observaron que está constituida por gran número de estrellas individuales, y ahora sabemos que tal conjunto de estrellas representa el plano central de nuestra Galaxia. Aunque el sistema solar esté situado cerca del borde de este. sistema estelar, la Vía Láctea se ve atravesando todo el, cielo eh forma de una batida rectilínea, tanto al norte como al sin del ecuador, lo cual indica que el sistema solar se encuentra el el plano central de la Galaxia, de modo que de cualquier lado que nos volvamos podemos observar esta densa reunión. de estrellas.

Cuando miramos hacia el cielo en una dirección distinta a la de la Vía Láctea, vemos que las estrellas no están ya tan agrupadas; por el contrario, aparecen muy repartidas por el firmamento. Esto es debido a que entonces miramos hacia fuera del plano central y a través de la parte menos densa de la Galaxia. En efecto, la Vía Láctea nos señala en el espacio la dirección del plano central del sistema de estrellas del cual el Sol es un miembro más.

Nuestra Galaxia es inmensa en comparación con la magnitud de las distancias estelares antes mencionadas. Desde la “parte superior a la inferior” —esto es, a lo largo del diámetro menor de su abultamiento central— tiene un espesor de 20.000 años-luz. Y desde un borde al otro la distancia es de 100.000 años-luz.

DESCRIPCIÓN DE LA VÍA LÁCTEA: DIMENSIONES, CANTIDAD DE ESTRELLAS Y CARACTERÍSTICAS

La mitología griega dice que la diosa Hera, esposa de Zeus, se negaba a amamantar al pequeño Hércules pues había sido fruto de una aventura. En una ocasión lo acercaron a su pecho mientras dormía, pero Hera despertó, lo retiró suavemente de su pezón y la leche se derramó por los cielos, dando forma a las brillantes constelaciones que admiramos en la noche.

Estos valores no incluyen, sin embargo, la distancia a ciertas estrellas que se encuentran por encima y por debajo de ‘la propia Galaxia. Algunas de estas estrellas están solas, pero la mayoría de ellas constituyen grandes cúmulos estelares. Estos cúmulos (denominados cúmulos globulares) forman una especie de halo alrededor de la Galaxia. Cada cúmulo lo forman millares y, a veces, decenas de millares de estrellas agrupadas en forma de esfera o de globo. El más cercano de ellos se encuentra a unos 20.000 años-luz del sistema solar.

Nuestra Galaxia, por lo tanto, está constituida por un conjunto de estrellas, la mayor parte de las cuales se encuentra en el plano o en el abultamiento centrales, junto con mi halo de estrellas individuales y de cúmulos globulares. En nuestro siglo los astrónomos han demostrado que la Galaxia contiene además una considerable cantidad de gas y de polvo.

Observado a través del telescopio, parte de este gas y polvo presenta el aspecto de grandes nubes luminosas nebulosas, de la palabra latina que significa nube. La más famosa de das estas nebulosas es la gran nube gaseosa de la constelación de Orión. A simple vista aparece como un puntito luminoso en medio de las tres estrellas que representan la espada de Orión. Pero aun a través de un pequeño telescopio se convierte en un objeto interesante para la observación.

Las estrellas del cúmulo abierto, denominado las Pléyades, están rodeadas de polvo iluminado por las mismas. Si barremos el cielo con un telescopio, descubriremos muchas más nebulosas que las que se aprecian a simple vista.

La propia Vía Láctea contiene gran número de ellas. Por ejemplo, nebulosas del tipo de las que presenta la Vía Láctea al cruzar Sagitario cubren regiones que miden centenares de años-luz, y muchas contienen brillantes estrellas sumergidas en su seno.

“La Vía Láctea es parte de un barrio cósmico más grande –un grupo de más de 35 galaxias conocido como el Grupo Local. Estas galaxias se mueven por el espacio como una sola unidad, unidas por su mutua atracción gravitatoria. El número de galaxias que pertenecen al Grupo Local es incierto, debido a que los astrónomos siguen encontrando nuevos residentes de este barrio galáctico. Por ejemplo, una de las galaxias del Grupo Local fue descubierta en 1997, a unos tres millones de años luz de la Tierra. Esta nueva galaxia es diminuta: sólo contiene un millón de estrellas aproximadamente, comparado con los cientos de miles de millones de la Vía Láctea.”

En muchas nebulosas gaseosas aparecen surcos y regiones oscuras. La Vía Láctea también presenta surcos entre las estrellas, como si existieran huecos en el fondo estrellado. Las regiones oscuras en la Vía Láctea, así como en las nebulosas gaseosas brillantes, son debidas a gas no luminoso y a polvo. Como veremos más adelante, los astrónomos pueden distinguir el gas carente de luz del polvo cósmico, pero aquí consideramos sólo el hecho de que ambos oscurecen la luz procedente de las estrellas y nebulosas brillantes situadas más allá de los mismos. Este efecto de cobertura en la Vía Láctea nos impide observar lo que debe ser una visión grandiosa.

Debido al gran número de nebulosas situadas entre nosotros y el centro de la Galaxia, no podemos ver el brillante y compacto conjunto estelar que constituye el núcleo de la Galaxia. Nuestros telescopios registran únicamente aquellas estrellas que están situadas de este lado de la densa parte central.

A pesar del problema inherente a la presencia del polvo y del gas oscuro, se ha descubierto que la totalidad de nuestra Galaxia experimenta un movimiento de rotación. El Sol  que es una estrella bastante común, toma parte en esta rotación cósmica, arrastrando consigo a la Tierra a los demás planetas. Como otras estrellas cercanas, el Sol se mueve a través del espacio a razón de 240 Km./seg, velocidad que permitiría dar la vuelta a la Tierra en poco más de dos minutos y medio. Aun así, la Galaxia es tan enorme, que el Sol tarda tarda 225  millones de años en completar una revolución. Este inmenso período de tiempo, denominado ano cósmico, cae fuera de nuestro significado al considerar que hace dos años cósmicos la vida en la Tierra estaba en sus albores, y hace menos de media centésima de año cósmico que apareció el hombre.

Todas las estrellas de la Galaxia intervienen en la rotación cósmica, aunque sus velocidades varían. Las situadas más hacia el centro de la Galaxia generalmente se mueven con mayor rapidez que las que se encuentran cerca del borde, Este movimiento alrededor de la Galaxia constituye el principal desplazamiento de las estrellas, pero cada una precedía a su vez pequeños movimientos locales. Dicho de otro-modo, las estrellas no se mueven alrededor del centro de la Galaxia como si se tratara de una masa sólida. Es más bien como si un grupo de personas se dirigiera a tomar el Metro durante las horas punta; aunque todas van en la misma dirección general, la trayectoria de cada individuo está constituida por muchos movimientos distintos, hacia la izquierda y hacia la derecha, a medida que evita el tráfico o a los demás peatones. Lo mismo sucede con las estrellas de nuestra Galaxia: la dirección general es la de giro alrededor del denso núcleo central.

Fuente Consultada:  Secretos del Cosmos Tomo 2 (Salvat)

Biografía Rutherford Modelo Atomico Configuración del Atomo

Biografía Rutherford – Modelo Atómico

Temas Relacionados:  ¿Que es un átomo?  Energía Nuclear   Física Moderna  Fisión Nuclear

Ernesto Rutherford (1871-1937) fue uno de los mayores científicos experimentales de todos los tiempos. Nació enBrightwater, cerca de Nelson (Nueva Zelandia), de una familia de colonos ingleses.

Ernesto Rutherford fisicoAunque fue un buen alumno en la escuela, Ernesto no mostró una especial inclinación por la ciencia. En 1890, ingresó en el Canterbury College, de Christchurch, Nueva Zelandia, donde su aptitud científica se hizo patente, graduándose con las mejores notas, tanto en ciencias como en matemáticas.

Continuó en Christchurch en trabajos de investigación, y desarrolló un detector de ondas de radio, que dependía de la magnetización del hierro. En 1894, la Universidad de Cambridge, en Inglaterra, sacó a concurso una beca con destino a un posgraduado de Nueva Zelandia, y Rutherford la ganó. Llegó a Inglaterra en 1895, tras pedir dinero prestado para el viaje.

En Cambridge, J. J. Thomson era profesor del famoso laboratorio Cavendish, y, en aquel tiempo, estaba trabajando en experimentos sobre la conducta de los gases después de ser expuestos a los recientemente descubiertos rayos X. Rutherford dejó de trabajar en su detector de radio-ondas, que eventualmente Marconi tuvo en cuenta y a partir del cual se estableció la potencialidad de las emisiones de radio, y se unió a J. J. Thomson en su trabajo.

Cuando Rutherford estaba colaborando con Thomson en sus experimentos, en 1896, se anunció en París el descubrimiento de la radiactividad. En 1897, Thomson hizo pública su demostración de la existencia de los electrones, pero Rutherford estaba ya trabajando en experimentos sobre la conducta de los gases, después de haber sido expuestos a la radiactividad.

Durante estos años, observó muchas de las propiedades de ésta, y se familiarizó con los métodos experimentales de dicha ciencia. En 1898, Rutherford solicitó una plaza de profesor de investigación en la Universidad de McGill, de Montreal (Canadá), lográndola cuando tenía 28 años de edad, y dando comienzo así al primer gran período de descubrimientos científicos de su vida.

En 1901, el químico inglés F. W. Soddy colaboró con Rutherford en sus investigaciones sobre radiactividad, y, al cabo de un año, comprobaron que un átomo radiactivo se transforma en otro átomo diferente por emisión de radiación. Juntos, publicaron trabajos sobre la causa y naturaleza de la radiactividad, y acerca de la teoría de la “transformación espontánea”.

Rutherford también se preocupó de las partículas alfa (las partículas beta fueron identificadas por entonces como electrones), y publicó un trabajo general sobre los cambios radiactivos, en 1903. En 1904, dio a la imprenta su primer libro, titulado Radiactividad.

En cinco años, Rutherford, con la ayuda de Soddy, resolvió muchos problemas de esta nueva ciencia, observando que los átomos radiactivos se transforman espontáneamente en otros átomos, y definió el concepto de isótopos. En 1906, la Universidad de Manchester le ofreció ocupar la cátedra de un profesor que había prometido jubilarse si Rutherford aceptaba. Rutherford aceptó, y, en 1907, se trasladó a Manchester, que tenía laboratorios nuevos y bien equipados. Aquí empezó su segundo período de descubrimientos, probablemente el más importante y de seguro el más feliz de su vida.

Se encontró que, cuando una hoja metálica era bombardeada por partículas alfa, la mayor parte de estas partículas no se desviaban, o se desviaban en ángulos muy pequeños, cuando pasaban a través de la hoja. Sin embargo, algunas se desviaban un gran ángulo, y, en realidad, eran rechazadas por la hoja. Rutherford probó, matemáticamente, que tal comportamiento sólo se podía explicar con su modelo del átomo “nuclear”, es decir, un átomo en que un pequeño núcleo cargado positivamente está rodeado de un número de electrones. Cuando las partículas alfa pasan cerca del núcleo, son repelidas fuertemente (las cargas positivas se repelen entre sí), produciéndose un gran cambio de dirección. Cuando pasan a mayor distancia del núcleo, la desviación es muy pequeña.

En 1908, Rutherford recibió el Premio Nobel de Química, por sus trabajos en radiactividad, estando, por entonces, ocupado en investigar las propiedades de las partículas alfa, con la colaboración de varios de sus quince alumnos. Una serie de experimentos le llevó a la conclusión de que dichas partículas eran, en realidad, átomos de helio, y para probarlo efectuó en 1909 una sencilla e inteligente experiencia.

Puso una sustancia (radón), que emitía partículas alfa, fuera de un tubo donde se había hecho el vacío y se había cerrado después, teniendo un electrodo metálico en cada extremo. Pasados unos días, se aplicó una corriente de alto voltaje a los electrodos metálicos, y el espectro de la descarga eléctrica obtenida probó, sin duda alguna, la existencia de átomos de helio en el tubo, Las partículas alfa debían haber atravesado las paredes del tubo, almacenándose allí, y las partículas alfa tenían que ser átomos de helio. En realidad, sabemos hoy que las partículas alfa son núcleos de helio.

En 1911, Rutherford propuso su idea más revolucionaria relativa a la existencia del núcleo atómico. Hasta entonces se creía que el átomo era una esfera cargada positivamente, con electrones cargados negativamente, moviéndose en su interior. Dos de sus colaboradores descubrieron que, cuando se dejaba que muchas partículas alfa chocasen con una hoja fina de metal, varias de las partículas retrocedían, saltaban hacia atrás. Para explicarlo, Rutherford supuso que la carga positiva total del átomo se concentraba en un núcleo muy pequeño y que los electrones ocupaban el espacio externo del núcleo.

Esto, en 1911, era una idea revolucionaria, aunque hoy día está totalmente aceptada, y se la ha aceptado como el mayor cambio ocurrido en nuestra idea sobre la materia, desde el tiempo de los griegos. Esta teoría del núcleo sentó las bases para una nueva ciencia: la física nuclear.

^En 1912, Niels Bohr, el gran científico danés, se unió a Rutherford, y desarrollaron el modelo atómico de Bohr, con lo que se logró una aceptación general del átomo nuclear. En 1914, estalló la primera guerra mundial, y los científicos hubieron de abandonar los laboratorios. Tras algún tiempo de ausencia de Manchester, Rutherford volvió a su investigación académica, en el laboratorio desierto, dando comienzo a su tercer período de descubrimientos. Y, en 1918, ya estaba convencido de que podía demostrar experimentalmente la trasmutación artificial del nitrógeno (es decir, el cambio del átomo de nitrógeno en un átomo diferente).

Rutherford sólo puede ser igualado por Faraday en lo que respecte a la sencillez de los aparatos empleados, y su claro visión del significado de ¡os resultados experimentales. Sus tres grandes contribuciones a la teoría atómica fueron:
1°) Descubrió las leyes principales de la radiactividad y la Química de los elementos radiactivos naturales (1901-1906); 2°) descubrió el “núcleo” y ayudó al desarrollo del modelo nuclear del átomo (1909-1914), y 3°) descubrió la “trasmutación artificial” del nitrógeno (1917-1920).Rutherford estableció la naturaleza de las partículas alfa, recogiéndolas en un tubo de vidrio donde se había hecho el vacío.  Pasados unos días, el nivel de mercurio se había elevado, desplazando las partículas hacia la parte superior del tubo. El espectro de descarga entre los electrodos indicó la presencia de helio.

En 1919, Rutherford fue nombrado profesor del laboratorio Cavendish, de Cambridge, y rápidamente confirmó la certeza de dicha trasmutación artificial del nitrógeno. Para ello, hizo pasar partículas alfa provenientes del polonio, a través del gas nitrógeno; cuando una de ellas chocaba con un núcleo de nitrógeno, se desprendía un núcleo de hidrógeno y se formaba un núcleo de oxígeno. En 1920, llamó al núcleo de hidrógeno protón.

Y, pese a la gran cantidad de trabajo experimental que desarrollaba, Rutherford se encontró más ocupado cada vez en dirigir y organizar la investigación científica. El Cavendish creció en tamaño y fama bajo su dirección, pero ahora los descubrimientos eran realizados por la serie de hombres que trabajaban a sus órdenes, a los que él ayudaba con entusiasmo e interés. Ernesto Rutherford fue presidente de la Royal Society, desde 1925 a 1930, y, en 1931, fueron reconocidos públicamente sus grandes descubrimientos, mediante la concesión del título de Barón Rutherford de Nelson.
En plena actividad y con creciente optimismo en sus empresas científicas, la muerte sorprende a Rutherford, luego de una breve enfermedad, en octubre de 1937, siendo sus restos depositados en la abadía de Westminster.

DETECCIÓN DE PARTÍCULAS ALFA

esquema deteccion particula alfa
Una partícula alfa se puede detectar cuando choca con una pantalla de sulfuro de cinc, ya que produce una luz observable a través de un ocular (izquierda). Este método fue empleado por William Crookes. Ernesto Rutherford, junto con H. Geiger, inventó un método eléctrico para detectar partículas simples. En el aparato (derecha), se introducían, por unos instantes, partículas alfa en la cámara “C”. En esta cámara, el cilindro metálico “M” rodeaba el alambre aislado “W”, y se aplicaba un voltaje alto entre “M” y “W”. Cuando una partícula alfa chocaba con una molécula de gas en “C”, la molécula perdía un electrón, y éste electrón era acelerado en el campo eléctrico, chocando con una segunda molécula de gas, con lo que se liberaba un segundo electrón. Y volvía a repetirse, varias veces, toda la operación. De esta manera, se obtenía un flujo de electrones, que podía detectarse como un impulso eléctrico.

Fuente Consultada:
Revista TECNIRAMA N°60
El Estallido Científico en el Siglo XX Trevor Williams

EL Tamaño del Universo Distancias del Sistema Solar Planetas

Si se pudiera reducir el globo terráqueo al tamaño de una manzana, el hombre mediría en proporción una cienmilésima parte de milímetro. Ante él cualquier ínfimo bacilo o bacteria alcanzaría dimensiones verdaderamente monstruosas. Por otra parte, como el Sol es una esfera de materia incandescente, que supera en ciento nueve veces el diámetro de la Tierra, si mantuviéramos las proporciones anteriores este Sol estaría representado por un globo de nueve metros de diámetro, situado a casi 1 Km. del planeta que, con el tamaño de una manzana, significaría la Tierra. Pero en los límites de la familia solar, Plutón, el último y más distante de los planetas, figuraría como una bola de billar a 40 kilómetros del citado Sol de! ejemplo.

Ahora bien; sobre la bóveda infinita del espacio brillan las estrellas, enormes masas globulares de gases ardientes. La más próxima, denominada Alfa del Centauro, es otro sol similar al que nos ilumina, con casi su mismo peso y dimensiones. Al igual que todas las estrellas. Alfa del Centauro no permanece inmóvil. Surca el firmamento a una velocidad de 22 kilómetros por segundo, y debido a la enorme distancia que nos encontramos de ella, solamente a lo largo de siglos se apreciaría un movimiento casi imperceptible, puesto que dista de nosotros ¡42 billones de kilómetros!

Si se aplicara a esta distancia la misma proporcionalidad que se empleó al equiparar la Tierra con una manzana y se viera dónde habría que situar la estrella vecina, como se hizo con la distancia del Sol y Plutón, saltaría a la vista la imposibilidad de concretar el objetivo, ya que se necesitaría para esta escala un mapa de unos 260.000 kilómetros de amplitud, es decir, casi las dos terceras partes de nuestra distancia al satélite de la Tierra. Se puede comprobar, de este modo, que la proporción entre la estatura de un ser humano y su distancia a la estrella más cercana es igual a la que existe entre un organismo ultramicroscópico y 260.000 kilómetros.

Un poco más distante, otra brillante estrella de azul tonalidad atrae nuestra atención. Se trata de Sirio, notable por su magnitud en el espacio y por una estrellita que la acompaña y que constituyen con aquélla un sistema físico similar al que forman los planetas del sistema solar El diámetro de Sirio es 1,8 veces el del astro mayor, lo que no significa mucho; sin embargo, situado en el lugar de éste proporcionaría 40 veces más luz y calor del que actualmente suministra.

El misterio revelado
Con respecto a la diminuta estrella que gira en torno de Sirio corresponde aclarar someramente su singular historia. Poco luminosa y lejana, fue ignorada durante siglos por los estudiosos, quienes por razones de tipo especulativo intuían su existencia. Intentaremos explicarlo: la altura del Sol sobre ei horizonte varía con la hora del día; del mismo modo, respecto del movimiento de las estrellas se puede establecer exactamente la hora correspondiente a un momento determinado.

Debido a su gran luminosidad Sirio era utilizada por los astrónomos como estrella horaria. Pero en el firmamento ésta resultaba un astro poco puntual, que se retrasaba o adelantaba temporalmente. Observaciones posteriores permitieron constatar que la estrella describía en el firmamento una levísima órbita elíptica. Sin duda alguna, un astro perturbador, aún invisible, era el causante, con la atracción de su masa, del titubeante comportamiento de Sirio. Apelando a la ley de la gravitación universal se admitió la existencia de un nuevo astro, cuya órbita y posición fueron determinadas en 1850 por el astrónomo alemán Frederick Peters.

En 1862, mediante el uso de un anteojo, a la sazón recién fabricado, se lo descubrió inesperadamente y comenzó a plantearse un nuevo interrogante referido a la especial naturaleza de la materia que lo compone.

La incógnita fue revelada en 1924, cuando el astrónomo estadounidense Walter Adams, empleando el interferómetro de Michelson, logró la doble comprobación del efecto Einstein, y la confirmación de la extraordinaria densidad (23.000 veces más que la del platino) de la diminuta estrella. El “misterio” de la substancia radicaba en lo siguiente: en tamaño, el satélite de Sirio es sólo tres veces más grande que la Tierra, pero su masa es casi igual a la del Sol.

A fin de que toda esta materia pueda caber en tan escaso volumen hay que someterla a una intensa presión, comprimirla enormemente. Los átomos, elementos que componen toda materia, tienen un límite de resistencia mecánica, tras lo cual son deshechos en un confuso montón de núcleos y electrones que invaden y desbordan los espacios interatómicos. Roto el equilibrio interno del átomo, los espacios vacíos son cubiertos por los componentes de otros átomos triturados.

Así, el espacio ocupado disminuye y por lo tanto la densidad media (relación entre volumen y masa) se acrecienta. Era éste, pues, el íntimo secreto que guardaba en su seno la estrella más brillante del cielo.

La “fuga” del universo
Se se miden las velocidades de esos universos-islas se llega a la conclusión de que parecen alejarse entre sí, acrecentando su velocidad a medida que se van distanciando. Esta fuga desordenada no afecta las dimensiones propias de las galaxias, que, alejándose, siguen conservando su tamaño.

Habida cuenta de esto, y calculando el tiempo necesario para que todas esas islas estelares volvieran a juntarse marchando a idéntica velocidad, pero inversamente, se necesitarían unos 13.000 millones de años para volver a reunirse en un conjunto de estrellas distribuidas en un solo universo de manera uniforme.

Si a partir de este conjunto único de densidad estelar se han condensado en grupos de estrellas de modo similar a como suponemos que el gas primitivo se fue condensando en estrellas, sigue aún en pie uno de los tantos interrogantes que se plantea la astronomía, para cuya respuesta el hombre acude con su ciencia al más allá.

Con el misterio de la creación ha quedado atrás en el tiempo y sumida en las sombras del espacio, a 1.500millones de años de luz, una imperceptible manchita nebulosa: es nuestro universo. Confundido entre corpúsculos titilantes hay un sol que nos es familiar, y como un punto minúsculo, donde el hombre lucha por penetrar en el misterio de lo infinito, está la Tierra, nuestro planeta.

La mediciones indicadas mas abajo van variando según se logran técnicas
e instrumentos mas precisos para su medición

Magnitud
Visual
Distancia
Años-Luz
Diámetro
Años-Luz
Vía Láctea 97.800
Nube de Magallanes (mayor) 0,9 156.480 32.600
Nube de Magallanes (menor) 2,5 182.560 26.080
Sistema de la Osa Menor 228.200 3.260
Sistema del Escultor 8,0 270.580 7.170
Sistema del Dragón 326.000 4.560
Fornax 8,3 619.400  21.520
Sistema del León II 12,04 749.800 5.220
Sistema del León I 12,0 912.800 4.890
NGC 6822 8,9 1.500.000 8.800
NGC 147 9,73 1.858.000 8.780
NGC 185 9,43 1.858.000 7.500
NGC 205 8,17 2.217.000 16.300
NGC 221 (M 32) 8,16 2.217.000 7.820
IC 1613 9,61 2.217.000 15.300
Andrómeda (M 31) 3,47 2.217.000 130.400
NGC 538 (M 33) 5,79 2.347.200 55.420
Maffei I 11,0

3.260.000

 

Estrella Constelaciones Magnitud
Aparente
Distancia
Año-Luz
Sirio +
Canope +
Rigil Kent
Arturo
Vega
Rigel +
La Cabra +
Proción
Achernar
Hadar +
Altair.
Aldebarán +
Acrux +
Betelgeuse + + +
Antares +
La Espiga +
Pólux
Fomalhaut
Deneb
Mimosa
Régulo +
Adhara +
Bellátrix
Shaula
Alnath
Alfa del Can Mayor
Alfa de Argos (Carina) .
Alfa del Centauro
Alfa del Boyero
Alfa de la Lira
Beta de Orión
Alfa del Cochero (Auriga)
Alfa del Can Menor
Alfa de Erídano
Beta del Centauro
Alfa del Águila
Alfa del Toro
Alfa de la Cruz del Sur
Alfa de Orión
Alfa del Escorpión
Alfa de la Virgen
Beta de los Gemelos
Alfa del Pez Austral
Alfa del Cisne
Beta de la Cruz del Sur
Alfa del León
Epsilón del Can Mayor
Gamma de Orion
Lamda del Escorpión
Beta del Toro
-1,47
-0,71
-0,27
-0,06
0,03
0,08
0,09
0,34
0,49
0,61
0,75
0,78
0,80
0,85
0,92
0,98
1.15
1.16
1,26
1,28
1,33
1,42
1,61
1,61
1,64
8.7
300
4
36
26
850
45
11
75
300
16
65
270
650
400
220
35
23
.500
370
85
620
450
300
270
(+):Estrella Doble  (+++): Estrella Variable

Fuente Consultada: Mundorama Geografía General Tomo I

Programas de Exploracion Espacial Cronología Las Misiones al espacio

Programas de Exploración Espacial
Cronología Las Misiones al Espacio

Estados Unidos había previsto tener una docena de satélites en órbita cuando comenzara el Año Geofísico  Internacional , pero en la práctica el primer éxito fue para la URSS, con el lanzamiento del Sputnik I, el 4 de octubre de 1957.Sorprendidos y humillados, los técnicos norteamericanos adelantaron sus planes y prometieron un lanzamiento en 90 días. El primer intento fracasó, pero el primer satélite de Estados Unidos, el Explorer I, entró en órbita el 1 de enero de 1958.

Su capacidad era limitada, pero llevaba un contador Geiger-Müller para registar los rayos cósmicos que le permitió localizar los dos cinturones de radiación de Van Alien que rodean la Tierra.

A partir de entonces, los progresos fueron rápidos, sobre todo porque Estados Unidos y la URSS competían entre sí para demostrar ante el mundo su superioridad tecnológica. Varias categorías diferentes de satélites aparecieron desde 1960.

A los primeros, utilizados para fines puramente científicos, se sumaron otros de diseño más complejo destinados a la observación militar, el seguimiento de las condiciones meteorológicas mundiales, las telecomunicaciones, etc.

Por último, aparecieron las sondas espaciales, que prepararon el camino para la llegada del hombre a la Luna. La sonda soviética Luna II (1959) fue el primer objeto procedente de la Tierra en alcanzar la superficie de un cuerpo celeste. En 1966, el Luna IX realizó un alunizaje perfecto (que disipó el temor de los norteamericanos de que la superficie del satélite estuviera formada por una profunda capa de polvo) y transmitió a la Tierra miles de fotografías.

El Luna XVI (1970) recogió muestras del suelo lunar. Hacia fines de los años 70, las sondas soviéticas y norteamericanas se habían acercado o se habían posado en varios planetas, entre ellos, Marte, Venus y Júpiter.

La Tabla siguiente es un resumen de los principales programas de exploración del espacio:

Nombre País Fechas Logros Miembros
Sputnik URSS 1957-1958 Primer
Satélite
Valery Byskovsky.Yuri Gagarin, Adrián
Nikolayaev, Pavel Popovitch, Valentina
Tereshkova, GhermanTitov
Malcolm Scott Carpenter, L. Gordon
Cooper
.John Glenn,Virgil Grissom,
Walter Schirra, Alan Shepard
Explorer EE.UU. 1958-1984 Experimentos
Científicos
Pionner EE.UU. 1958 Investigación
de la Luna
Lunik URSS 1959 Aterrizaje
en la Luna
Vostok URSS 1961-1963 Primer Vuelo
Tripulado
Mercury EE.UU. 1961-1963 Americanos en el Espacio
Venera URSS 1961-1983 Investigaciones
de Venus
Ranger EE.UU. 1961-1965 Alunizajes
Mariner EE.UU. 1962-1974 Mercurio, Venus
y Marte
OSO EE.UU. 1962 Estudio Solar
Mars URSS 1962-1971 Investigación
de Marte
Pavel Belyayev, Konstantin Feoktistov,Vladimir
Komarov, Alexei Leonov, BorisYegorov
Edwin Aldrin, Neil Armstrong, Frank
Borman, Eugene Cernan, Michael Collins,
Charles Conrad, L Gordon Cooper.Virgil
Grissom, James Lovell, James McDivitt,
Walter Schirra, David Scott, Thomas
Stafford, Edward White, John Young
Vokshod URSS 1964-1965 Vuelos espacial con tres tripulantes
Géminis EE.UU. 1964-1966 Prueba de Vuelos Lunares
Luna URSS 1966 Fotografía
Lunar
Luna Orbiter EE.UU. 1966-1967 Cámara en
órbita lunar
Adwin Aldrin, William Anders, Neil Armstrong,
Alan Bean, Frank Borman, Eugene Cernan,
Michael Collins, Charles Conrad, Walter
Cunningham, Charles Duke, Don Eisle,
Richard Gordon, Fred Haise, James Irwin,
James Lovell, Edgar Mitchell, Stuart Roosa,
Walter Schirra, Harrison Schmitt, Rusell
Schweickart, David Scott, Thomas Stafford,
Jack Swigert,Alfred Worden, John Young
Surveyor EE.UU. 1966-1968 Robot Lunar
Apolo EE.UU. 1966-1975 El hombre llega
a la Luna
Soyuz URSS 1967-1986 Estación
Espacial
Vladimir Dzanibekov, Georgi Grechko, Alexei Gubarev, Pyotr Klimuk, Vladimir Remek,Yuri Romanenko, Víctor Savinykh, Svetlana Savitskaya.Vladimir Shatalov, Vitaly Stevastyanov, Vladimir Vasyutin, Vladimir Volkhov Alan Bean, Gerald Carr, Charles Conrad, Owen Garriott, Edward Gibsonjoseph Kerwinjack Lousma, William Pogue, Paul Weitz
Salyut URSS 1971-1986 Estación espacial tripulada
Skylab EE.UU. 1973-1974 Primera estación espacial americana
ATM EE.UU. 1973-1974 Estudio Solar
Apolo-Soyuz EE.UU./URSS 1975 Emprendimiento Internacional Vanee Brand, Valery Kubasov, Alexei Leonov, Donald Slayton,Thomas Stafford
Voyager EE.UU. 1977-1986 Estudio de Gigantes
de Gas
Valery Byskovsky.Yuri Gagarin, Adrián Nikolayaev, Pavel Popovitch,Valentina Tereshkova, GhermanTitov Malcolm Scott Carpenter, L. Gordon Cooper.John Glenn,Virgil Grissom, Walter Schirra,Alan Shepard
SMM EE.UU. 1980-1989 Estudio
Solar
Transbordador EE.UU. 1981-? Naves tripuladas de uso reiterado
Spacelab EE.UU./AEE 1983 Laboratorio espacial de uso reiterado
Vega URSS 1985 Estudio atmosférico de Venus y fotos del cometa Halley
Mir URSS 1986-? Estación
Espacial
Pavel Belyayev, Konstantin Feoktistov,Vladimir Komarov, Alexei Leonov, BorisYegorov Edwin Aldrin, Neil Armstrong, Frank Borman, Eugene Cernan, Michael Collins, Charles Conrad, L. Gordon Cooper.Virgil Grissom, James Lovell, James McDivitt, Walter Schirra, David Scott,Thomas Stafford, Edward White, John Young
Giotto AEE 1986
Susei Japón 1986
Buran URSS 1988
Fobos URSS 1988
Galileo EE.UU. 1992-?
Cassini EE.UU./AEE 1996

Primeros Ordenadores Electrónicos Evolución Histórica

Primeros Ordenadores
Historia de la Computación

Después de la guerra, Brattain prosiguió la investigación en colaboración con J. Bardeen y descubrió que con dos contactos sobre un trozo de germanio era posible controlar la corriente que pasaba a través del semiconductor. El 23 de diciembre de 1947, Brattain y Bardeen demostraron que su dispositivo podía funcionar como amplificador de la corriente.

Primeros Ordenadores a Válvulas

Primeros Ordenadores a Válvulas

Su comportamiento dependía de la formación de regiones libres de electrones en la capa superficial del semiconductor, bajo los contactos. Como el dispositivo funcionaba transfiriendo corriente a través de un resistor, lo llamaron transistor. La versión original tenía limitaciones: era eléctricamente «ruidosa» y sólo podía controlar comentes de baja potencia. Pero poco después se desarrolló un transistor mejorado.

La versatilidad y el grado de miniaturización posibilitados por el transistor fueron sensacionales y generaron una industria de miles de millones de dólares para la fabricación de chips de silicio. El transistor puede considerarse uno de los inventos más importantes de todos los tiempos. Sin embargo, el programa de investigación que lo originó exigió un equipo sencillo: al parecer, el aparato más costoso era un osciloscopio.

Los primeros ordenadores electrónicos
Una buena forma de determinar la importancia de un adelanto técnico es considerar las consecuencias de su repentina desaparición. Un colapso general y prolongado de los servicios básicos, como el suministro de agua y electricidad, las telecomunicaciones, el transporte público o el sistema de alcantarillado, produciría en poco tiempo el caos y resultaría imposible mantener las condiciones de vida normales.

A fines del siglo XX, otra innovación tecnológica llegó a considerarse entre los elementos esenciales para mantener la normalidad de la vida cotidiana: el ordenador. Originalmente, no era más que un instrumento de cálculo, pero llegó a convertirse en un instrumento sumamente complejo de archivo y recuperación de la información.

Primeros Ordenadores

Primeros Ordenadores Para Uso Militar y Científico

Actualmente forma parte de la vida cotidiana hasta tales extremos que resulta difícil advertir que no existía, en su forma electrónica moderna, en los años de la preguerra y que los económicos ordenadores personales de fines del siglo XX tienen una capacidad mucho mayor que los gigantescos prototipos de los años 40. A fines de los años 80, se calculaba que el mercado mundial de los ordenadores había alcanzado una cifra anual de 100.000 millones de dólares: una hazaña notable para una industria tan joven.

El ASCC (Automatic Sequence Controlled Calculator), construido en Estados Unidos por IBM en 1944, puede considerarse el prototipo original de los ordenadores modernos. Aunque era básicamente un aparato electrónico, contenía muchos dispositivos mecánicos emparentados con los presentes en un extenso linaje de máquinas anteriores, cuya historia se remonta a la máquina de sumar del matemático francés Blaise Pascal, de 1642, y al aparato bastante más complejo del alemán Gottfried Leibniz, construido 30 años más tarde.

El ASCC era un auténtico dinosaurio: pesaba cinco toneladas, tenía 16 m de longitud y contenía 800 Km. de cables eléctricos. Para los criterios actuales, su capacidad de multiplicar dos números de 11 dígitos en 3 segundos resulta poco impresionante, ya que los tiempos de operación de los ordenadores de hoy en día se miden en millonésimas de segundo.

El sucesor del ASCC fue el ENIAC (Electronic Numerícal Integrator and Calculator) que, aparte de algunos conmutadores utilizados para controlar los circuitos, era completamente electrónico. Fue construido en la Universidad de Pennsylvania por J.P. Eckert y J.W. Mauchly, con el propósito original de utilizarlo en tiempo de guerra para calcular tablas balísticas. Sin embargo, no estuvo liste hasta 1946. El ENIAC era también una máquina gigantesca, dos veces más voluminosa que el ASCC. Contenía por lo menos 18.000 válvulas termoiónicas y, al rendimiento máximo, consumía 100 kilovatios de electricidad.

ENIAC

ENIAC

Dispersar el calor resultante era un problema en sí mismo. Para programar el ENIAC, era precise mover conmutadores y hacer conexiones manualmente, mientras que el ASCC se programaba con cintas perforadas. Los dos métodos tenían sus ventajas, pero ambos eran básicamente lentos y tediosos.

Para el siguiente paso, los técnicos volvieron a inspirarse en el siglo XIX, concretamente en la máquina analítica construida por el inventor inglés Charles Babbage en torno a 1830. Sorprendentemente, una de su; más fervientes publicistas fue lady Lovelace, hija de lord Byron, que señaló que muchos cálculos exigían la repetición de una secuencia determinada de operaciones y que sería posible ahorrar tiempo y trabajo si se conseguía que la máquina se ocupara de esos cálculos automáticamente. En efecto, el ordenador debía disponer de una memoria.

Incluso antes, en el siglo XVII, Leibniz había sugerido que para el cálculo mecánico era más sencillo utilizar la notación binaria, en lugar de la decimal tradicional. En esa notación, todos los números se expresar, con dos dígitos, O y 1, y no con los diez utilizados (de-O al 9) en la notación decimal. Para una calculadora electrónica, esta idea resulta particularmente adecuada, ya que corresponde a las dos modalidades eléctricas: «off» y «on».

Estos dos conceptos fueron incorporados por Johr. von Neumann, también de la Universidad de Pennsylvania, en una máquina mucho más avanzada, e. EDVAC (Electronic Discrete Variable Automatic Computer). En este aparato, la «memoria» consistía en pulsaciones sónicas conservadas en una columna de mercurio. A principios de los años 50 apareció ur. dispositivo de memoria más complejo, basado en el hecho de que la dirección de la magnetización en ciertos materiales denominados ferritas se puede invertir cas: instantáneamente, siguiendo la dirección de la corriente eléctrica en un circuito conectado.

Por entonces, el ordenador se estaba adelantando a sus posibilidades: realizaba las operaciones con más rapidez que el ritmo con que la cinta perforada podía suministrarle las instrucciones. El siguiente paso consistió en grabar el programa de operaciones en una cinta magnética, semejante a las utilizadas para la grabador del sonido.

Este adelanto fue incorporado en 1956 a UNIVAC de Remington-Rand, el primer ordenador electrónico disponible en el mercado, ya que los pocos modelos anteriores habían sido construidos para fines especiales a un enorme coste. Por este motivo, el público en general ignoraba casi por completo los adelantos en el mundo de los ordenadores.

La situación cambió considerablemente en 1951 cuando el UNIVAC original, diseñado para procesar la información del censo en Estados Unidos, previo acertadamente la elección de Dwight Eisenhower como presidente.

El Vuelo de Gordon Cooper Faith 7 Viajes de la Exploración Espacial

Historia de la Exploración Espacial El Vuelo de Gordon Cooper Faith 7

El vuelo espacial de la “Faith 7”, además de ser el primero de importancia (en relación con los efectuados por los soviéticos), resultó de suma trascendencia ya que dio respuesta a distintos interrogantes.

Asimismo, su tripulante, Gordon Cooper, fue él primer astronauta que debió prescindir para el reingreso a la atmósfera y descenso en la Tierra del sistema automático maniobrado desde el centro espacial, resolviendo un problema estimado en ese entonces de la mayor gravedad.

Cooper estaba llamado a realizar luego proezas relevantes en el programa Géminis (junto a Conrad completó 120 órbitas), .pero fue, sin duda, en aquellos días de mayo de 1963. cuando resultó de una utilidad mayor para los técnicos y científicos de la NASA. Por otra parte, develó un enigma que se mantenía desde el vuelo de Johh Glenn: la presencia de partículas luminosas que, a manera de luciérnagas, seguían o aparecían cerca de las cápsulas espaciales.

Cooper demostró que no se trataba de partículas congeladas que se desprendían del vehículo —como se supuso en un primer momento— Sino que provenían de los pequeños motores de reacción de la cabina

Por todas estas circunstancias, trataremos de revivir los momentos vividos a bordo de la “Faith 7”, cuyas 22 orbitas indicaron que las diferencias se estaban acortando en relación con la URSS, no obstante que en ese mismo año, 1963, la astronáutica soviética seguiría sorprendiendo al mundo  con nuevos éxitos.

UN INSTANTE DRAMÁTICO: El lanzamiento se cumplió sin inconvenientes el 15 de mayo, en las condiciones Casi cosmonauta dentro de la cápsulade rutina en el centro espacial norteamericano. Lo que distó de ser “rutina” fueron las cosas que le ocurrieron al cosmonauta dentro de la cápsula. (imagen )

El primer problema se produjo en las instalaciones de eliminación de vapor de agua que se condensaba en el interior de su pesado traje de vuelo. Tuvo que accionar durante más tiempo que el previsto una bomba especial pero, aún así, el agua se acumuló en la escafandra, molestándolo bastante. A pesar de este inconveniente, realizó otro de los objetivos previstos lanzando un satélite: una pequeña esfera luminosa que tomó una órbita muy cercana a la de la astronave.

En la cuarta órbita, preocupado en la atención de otros aspectos de su misión, Cooper observó de pronto un resplandor atravesando la noche, Esto le causó un breve sobresalto hasta que comprobó que, simplemente, se trataba de dicho satélite.

Por un momento, supuso que se trataba de un cohete que pudiera haber sido disparado desde Tierra y no precisamente desde territorio norteamericano. Posteriormente estudió el misterio de las “luciérnagas” logrando establecer su procedencia.

Luego se dedicó a dormir. Sus periodos de sueño no superaron una hora, aunque posteriormente declaró que no recordaba nada de sus “siestas” en el espacio. Al despertaste se sintió un poco confuso, y por un momento no supo si se hallaba en un vuelo simulado; en la punta del cohete Atlas aguardando el momento de la partida o en su propia casa. Esta confusión fue la causa de que en tierra se le registrase una aceleración del pulso y una mayor presión sanguínea.

Durante las 34 horas 20 minutos que estuvo volando a alturas oscilantes entre los 161 (perigeo) y 272 kilómetros (apogeo) tuvo perfecta visibilidad y reconoció sin mayor esfuerzo los distintos accidentes geográficos que abarcaba su campo visual.

LA FALSA SEÑAL:

En la órbita 18, a 28 horas 59 minutos desde el momento del lanzamiento, una falla eléctrica dejó a oscuras la cabina. Cooper debió apelar a todas sus reservas para mantener la serenidad y solucionar el desperfecto. Cuando volvió la luz, advirtió que se habla encendido espontáneamente la “05G”. Esta solo debía encenderse cuando la nave espacial registrara el primer indicio de gravitación, o sea una vigésima parte de la gravedad terrestre. En consecuencia, de ser cierto lo que estaba viendo el astronauta, su nave habla comenzado a descender (lo cual era falso).

El mismo Cooper relatara la tremenda experiencia: “Al principio pensé que simplemente no le haria caso, pero luego decidí que eso no me convenía, pues el problema no se resolverla solo.” Al confirmársele que no estaba reingresando a la atmósfera terrestre, demostración de que el sistema, automático no funcionaba bien, realizó algunas pruebas. Así llegó a la conclusión de que dicho sistema, más que dañado, en realidad había dejado de funcionar. Asimismo, al fallas  del dispositivo eléctrico que dejó a oscuras la cabina, todos los controles automáticos quedaron eliminados (“Entonces decidí que reingresaría prescindiendo de todo lo que no fuera el instrumental manual”).

Tomar este tipo de decisiones “allá abajo”, en nuestro mundo, puede revelar un mayor o menor  grado de rapidez mental. Pero hacerlo a más de 200 kilómetros de altura sin saber si el vehiculo en el que se viaja está  o no cayendo o puede precipitase, convertido en una tea, en cualquier momento resulta sin duda una experiencia estremecedora.”

Y quien la pasa, revela un temple mucho más allá de lo común, casi sobrehumano. Lo importante es que la decisión confirmó algo que estaba previsto, pero no demostrado:hasta que punto el entrenamiento puede convertir a un hombre en un ser capacitado para las anís fantásticas empresas.

Cooper se mantuvo sereno. En Tierra no se registró una sola pulsación que demostrara temor frente al riesgo. Tranquilamente cumplió la órbita 22 estipulada y, de inmediato, anunció que descendería. Manualmente disparó los retrocohetes. La cana del cono apuntó hacia la superficie del planeta. Y allá fue.. (“La multiplicación de la fuerza de la gravedad al reingresar no presentó ningún problema. La oscilación no fue objetable. La maniobra resultó lo más fácil del mundo. … en verdad, más fácil de lo que  esperaba. Al soltar el paracaídas de estabilización, este se abrió con un traqueteo, un rugido y un golpe sordo…”)-

UN BARCO TRASTORNADO

Descendió muy cerca del portaaviones “Kearsarge”. En las partes altas de la nave, la marinería le saludaba agitando sus gorras “(Yo suponía, mejor aún, estaba seguro de que el barco se trastornaría”). Se sintió muy bien al comienzo, pero mientras le tomaban la presión sanguínea experimentó un ligero vahido.  Le tomaron de los brazos para que no cayese, y enseguida volvió a sentirse bien, Luego bebió varios litros de liquido (“Estaba completamente deshidratado y con una sed increíble”).

Más tarde fueron los agasajos, los honores, la familia, El astronauta que había estado más cerca de la muerte; el que abrió los caminos para la gloria de otros de sus camaradas, volvió a vivir. Una trampa del destino quedó atrás.

En la dimensión fantástica de la “era espacial”, una coincidencia sellé los avances prodigiosos de poco más de una década. Cooper cumplió su vuelo casi exactamente a 36 años del día en que Charles Lindbergh, en su “Sprit of Saint Louis” saltaba sobre el océano en vuelo sin etapas para unir Nueva York con Paris. ‘El Águila Solitaria”, en 33 horas 29 minutos, volando a lo largo de 5800 kilómetros, abrió un camino en una fecha en la que Cooper tenía dos meses de edad. El intrépido de la “Faith 7”, en sus 22 órbitas, habla cubierto 960.000 kilómetros, los suficientes, para ir y volver a la Luna, Y todo ello en una hora más que el asombroso piloto de aviones correo que estremeció al mundo con su hazaña.

John Glenn Primer Americano en Orbitar Terrestre Carrera Espacial

John Glenn Primer Americano en Orbitar Terrestre Carrera EspacialEL VUELO DEL CORONEL GLENN:
El 20 de febrero de 1962 los norteamericanos, después de haberlo aplazado varias veces y anunciado sin reserva a todo el mundo, pusieron en órbita el cohete Friendship VII que llevaba una cápsula dentro de la cual se encontraba el astronauta piloto John H. Glenn de 40 años de edad.

A la hora prevista la cápsula se desprendió de los cuerpos del cohete Atlas y entró en órbita. Después de dar tres vueltas a la Tierra, el astronauta pulsó los mandos que le llevaron a descender en aguas del Atlántico donde fue recogido por el destructor “Noah”. El vuelo había durado 4 horas, 55 minutos.

Durante el mismo, millones de espectadores habían podido seguir, gracias a la televisión, todos los detalles del lanzamiento. Glenn había comunicado constantemente sus impresiones y repitiendo muchas veces que se sentía bien. Este vuelo, que causó gran impresión por su preparación, anuncio y exhibición, demostró que el astronauta puede dirigir las fases de marcha y controlar los mecanismos para su propia recuperación y la de la cápsula.
Hasta aquí la historia, con sus datos, sus hechos concretos y sus cifras irrebatibles. Al iniciarse 1962, las dos grandes potencias espaciales, Estados Unidos y la URSS, se preparaban para emprender otras proezas. El presupuesto para investigación espacial y tecnológica para dicho año en los Estados Unidos se elevó a 2.400 millones de dólares.
A partir de este año se suceden en forma ininterrumpida los vuelos espaciales tripulados.

Salida del cohete Atlas-Mercury MA6

Salida del cohete Atlas-Mercury MA6 llevando a bordo al primer astronauta americano John Glenn

1962John Glenn fue el primero en orbitar la Tierra 1998
Aunque fue el tercer norteamericano en el espacio,John Glenn fue el primero en orbitar la Tierra. Aquí algunas cifras sobre su vuelo El año pasado, el senador Glenn regresó a la órbita como miembro de un viaje espacial. Como lo demuestra este informe algunas cosas —no todas— han cambiado.
El astronauta
Altura: 1,80 metro
Color de pelo: colorado

Edad: 40 años

Salario: 12.000 dólares.
Entrenamiento diario:
3,2 kilómetros trote
El astronauta
Altura: 1,80 metro
Color de pelo: blanco

Edad: 77 años

Salario: 136.672 dólares.
Entrenamiento diario:
3,2 kilómetros de caminata rápida
La nave
Nombre:  Friendship 7 (Amistad 7)
Tripulación:         1
Ventanas:   1
Computadoras: 0
Peso:    1,930 kilos
La nave
Nombre:  Discovery
Tripulación:         7
Ventanas:   10
Computadoras: 5
Peso:    69,770 kilos
La misión
Nombre:  Mercury 6

Despegue:  20 de Febrero de 1962.
a las 9h 47, 39″
La misión
Nombre:  STS-95

Despegue:  29 de octubre de 1998
a las 14 h.

 

Duración:
4
h. 55’ 23”.
Velocidad orbital:
28.234 kilómetros por hora
Tiempo por órbita:
1 h.28’29”.
Distancia recorrida:
121 .794 kilómetros
Lugar de aterrizaje:
Océano Atlántico, 800 kilómetros al sudeste de Bermudas
Rescate:
Un barco de la Armada recuperó la nave luego de caer al océano.

  Duración:
Aproximadamente 8 días y 20 h.

Velocidad orbital:
8.164 kilómetros por hora

Tiempo por órbita:
90 minutos

Distancia recorrida:
5.800.000 kilómetros

Lugar de aterrizaje:
Centro espacial Kennedy, Florida

Rescate:
No fue necesario

 

Cronología de las
Misiones Espaciales
 Hitos de la
Carrera Espacial

Arquitectura de un ordenador Memoria Unidad de Control Dispositivos

Arquitectura de un Ordenador
Memoria-Unidad de Control-Dispositivos

Arquitectura de los ordenadores:
de una forma muy simple podemos decir que un ordenador consta de dos zonas fundamentales: la unidad central de proceso (UCP o CPU, según utilicemos las siglas castellanas o inglesas), que es la encargada de la ejecución de los programas, y varias unidades periféricas que permiten al ordenador comunicarse con el exterior, bien sea para capturar datos y mostrar resultados, o bien para almacenar la información.

Unidad central de proceso
El auténtico «cerebro» del ordenador es la unidad central de proceso (CPU), en torno a la cual se organizan los restantes elementos del sistema. En la CPU de los ordenadores convencionales suelen distinguirse tres zonas básicas:

Memoria principal
En ella se almacenan dos tipos de información: el programa o secuencia de instrucciones a ejecutar y los datos que manejarán dichas instrucciones. La memoria está constituida por un conjunto de células capaces de almacenar un dato o una instrucción. Con el fin de que la unidad de control pueda diferenciar a cada una de las células, éstas van numeradas; al número que identifica a una célula se le llama dirección.
Una vez determinada la dirección de una célula, se puede leer la información que contiene o escribir una nueva información en su interior. Para poder realizar estas operaciones la memoria dispone de dos registros especiales: el registro de dirección y el registro de intercambio de datos. Según se vaya a efectuar una operación de «lectura» o de «de escritura», se seguirán los siguientes pasos:

– Lectura
1 . Almacenar la dirección de la célula en la que se encuentra la información a leer en el registro de dirección.
2. Cargar en el registro de intercambio la información contenida en la célula apuntada por el registro de dirección.
3. Transferir el contenido del registro de intercambio al registro de la CPU que corresponda.

– Escritura
1. Transferir al registro de intercambio la información a escribir.
2. Almacenar la dirección de la célula receptora de la información en el registro de dirección.
3. Cargar el contenido del registro de intercambio en la célula apuntada por el registro de dirección.

Evidentemente, las operaciones de lectura no destruyen la información almacenada en la célula, cosa que, por el contrario, sí ocurre con las operaciones de escritura, ya que la destruyen al sustituirla por una nueva información.

Dentro de la arquitectura de todo ordenador cabe distinguir dos zonas básicas: la unidad central de proceso
y el conjunto de órganos periféricos. En la primera de estas zonas es donde residen las unidades
esenciales que permiten al ordenador realizar su trabajo: el tratamiento de la información
.

Unidad de control
Esta unidad es la que se ocupa de controlar y coordinar el conjunto de operaciones que hay que realizar para dar el oportuno tratamiento a la información. Su cometido obedece a las indicaciones contenidas en el programa; como resultado de su «interpretación», la unidad de control genera el conjunto de órdenes elementales que revertirán en la ejecución de la tarea solicitada. En líneas generales, su actuación se concreta en los siguientes puntos:

1. Extra de de la memoria .principal la instrucción a ejecutar. Para ello dispone de un registro denominado «contador de instrucciones» (o contador de programas), en el que almacena la dirección de la célula que contiene la próxima instrucción a ejecutar, y de un segundo registro «de instrucción» en el que deposita la instrucción propiamente dicha. Este último está dividido en dos zonas: una contiene el código de operación que identifica la operación a ejecutar (suma, resta…) y la segunda la dirección de la célula en la que está almacenado el operando.

2. Una vez conocido el código de la operación, la unidad de control ya sabe qué circuitos de la unidad aritmético-lógica deben intervenir, y puede establecer las conexiones eléctricas necesarias, a través del secuenciador.

3. A continuación extrae de la memoria principal los datos necesarios para ejecutar la instrucción en proceso; para ello simplemente ordena la lectura de la célula cuya dirección se encuentra en la segunda zona del registro de instrucción.
4. Ordena a la unidad aritmético-lógica que efectúe las oportunas operaciones elementales. El resultado de este tratamiento se deposita en un registro especial de la unidad aritmético-lógica denominado «acumulador».

5. Si la instrucción ha proporcionado nuevos datos, estos son almacenados en la memoria principal.

6. Por último, incrementa en una unidad el contenido del contador de instrucciones, de tal forma que coincida con la dirección de la próxima instrucción a ejecutar. Algunas operaciones, como, por ejemplo, las de bifurcación, se limitan a modificar el contador de instrucciones, de forma que la siguiente instrucción a procesar no sea la que se encuentra inmediatamente a continuación de la que está en curso.

Unidad aritmético-lógica
La misión de la unidad aritmético-lógica es operar los datos que recibe siguiendo las indicaciones dadas por la unidad de control. El motivo por el que a esta unidad se le otorga el nombre de «aritmético-lógica» es que puede realizar tanto operaciones aritméticas como operaciones basadas en la lógica Booleana. Para que la unidad aritmético-lógica sea capaz de realizar una operación aritmética, por ejemplo una suma, se le deben proporcionar los siguientes datos:

1. Código de operación que indique la operación a efectuar; en este caso sería el código de suma.
2. Dirección de la célula en la que se encuentra almacenado el primer sumando.
3. Dirección del segundo sumando.
4. Dirección de la célula en la que se almacenará el resultado.

Los bloques fundamentales que integran la unidad central de proceso del ordenador controlan, operan y coordinan la actividad del sistema que, en líneas generales, se resume en la lectura e interpretación de un programa almacenado y en su ejecución.

La memoria principal de un sistema ordenador almacena dos tipos de información: programas o conjuntos ordenados de instrucciones y datos. Las operaciones que se realizan sobre esta unidad se reducen a dos: lectura y escritura.

La unidad de control es el auténtico «cerebro» que controla y coordina el funcionamiento del ordenador. A raíz de la interpretación de las instrucciones que integran el programa, esta unidad genera el conjunto de órdenes elementales necesarias para que se realice la tarea solicitada.

La transferencia de informaciones entre el ordenador y los periféricos se realiza a través de determinadas unidades «adaptadoras» denominadas canales. Su capacidad para gestionar y controlar la transferencia de informaciones descarga a la unidad central de este tipo de tareas

Cabe observar que en el formato de instrucción que hemos considerado, solo se dispone de un código de operación y una única dirección de operando (en los ordenadores actuales los formatos de las instrucciones contienen toda la información necesaria).

El hecho de que esta instrucción tan condensada se traduzca en un proceso de suma se debe a que, al interpretar su código de operación, la unidad de control genera una secuencia de tres micro-instrucciones elementales que afectan al registro especial que hemos denominado «acumulador». En éste es donde se almacenan los resultados de las sucesivas operaciones. Las tres micro-instrucciones elementales que dan lugar a la operación suma -afectando a una sola dirección: el acumulador- son las siguientes:

a) Cargar el primer operando en el acumulador.
b) Sumar el segundo operando con el contenido del acumulador.
c) Cargar el contenido del acumulador en la dirección del resultado.

Unidades periféricas
Cabe distinguir dos grandes grupos de unidades periféricas. Las unidades de comunicación que permiten el diálogo con el exterior (de entrada o salida) y las memorias auxiliares que sirven para almacenar grandes volúmenes de datos de forma permanente/Como ejemplos tradicionales de periféricos de comunicación podemos citar el lector de tarjetas perforadas, el teclado, la impresora, la pantalla de operador… Y como ejemplo de memorias auxiliares, las unidades de disco y de cinta magnética.


Periféricos de Entrada Mas Usados

La comunicación entre los periféricos y el ordenador se realiza a través de los denominados «canales», que se ocupan de gestionar la transferencia de información.

En los ordenadores actuales, las transferencias a través de los canales se pueden simultanear con el desarrollo de un programa de cálculo, ya que el, canal sólo necesita la unidad periférica implicada en la entrada o salida y la dirección de la célula de la memoria principal en la que se leerá o escribirá la información.


Periféricos de Salida Mas Usados

El canal mantiene un contador con el número de informaciones a transferir, el cual le indica el trabajo que tiene pendiente; para ello, incrementa una unidad al contador cada vez que le llega una información para transferir y le resta una unidad cada vez que efectúa una transferencia. Cuando el contador esté a 0, el canal advertirá a la unidad de control que ha finalizado la transferencia de información.

REFORZANDO CONCEPTOS…

Circuito lógico: Conjunto organizado de componentes electrónicos que permite sintetizar funciones de variables lógicas.
Circuito integrado: Circuito en el que todos sus componentes están integrados en una sola pieza de material semiconductor.
Programa: Conjunto de instrucciones que al ser ejecutadas secuencialmente permiten la realización de una tarea.
Microprocesador: Un microprocesador es un circuito integrado capaz de ejecutar un programa, operando datos y controlando a las unidades implicadas.
Unidad central de proceso (CPU): Unidad que controla y coordina todas las actividades que lleva a cabo un sistema ordenador. En ella se realizan las operaciones de interpretación del programa y de tratamiento aritmético y lógico de los datos.
Microordenador: Sistema para el tratamiento de información cuya unidad central de proceso es un microprocesador.
Bit: Contracción de dígito binario (O ó 1), se utiliza para designar a la unidad elemental de información binaria.
¿Cuáles son las principales características de un microordenador?

Son sistemas orientados al tratamiento de la información de reducido tamaño y basados en un microprocesador.
¿Cuáles son sus unidades básicas?
El microprocesador que constituye la unidad central de proceso, la memoria encargada de almacenar instrucciones y datos, la unidad de entrada/salida que permite establecer las comunicaciones con los periféricos y los propios dispositivos periféricos.
¿Cómo se implementan las distintas unidades básicas de un microordenador?
Mediante varios circuitos integrados de alta escala de integración (LSI) o por medio de un único chip (microordenadores).
¿Cuáles son las unidades funcionales de un microordenador?
– CPU (microprocesador).
– Memoria.
– Unidades de entrada/salida.
– Periféricos.
¿En qué se diferencian las memorias de tipo ROM y RAM?
La memoria ROM sólo permite leer la información que almacena y suele estar grabar por el fabricante, mientras la memoria RAM permite tanto operaciones de lectura como de escritura y es utilizada libremente por el usuario.

Descargar Un Apunte Muy Completo Sobre Este Tema

Fuente Consultada:
Gran Enciclopedia de la Informática Tomo I
Cómo Son y Como Funcionan Casi Todas Las Cosas Reader´s Digest
Gran Enciclopedia Universal Tomo 26

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la Luna

Efecto de la Luna Sobre La Tierra

La Luna gira alrededor de la tierra a una distancia media de unos 384.400 km. Su diámetro es de 3.475 Km., aproximadamente una cuarta parte del de la tierra, con una superficie de unos 38 millones de km2, y su masa es 1/81 la de la tierra; esto provoca que la fuerza de la gravedad en su superficie sea la sexta parte de la terrestre (un hombre que en la tierra pesara 60 kilogramos en la luna sólo pesaría 10 kg.).  La consecuencia más directa de esta poca gravedad es la falta de atmósfera.

¿Por qué se forman las mareas en el mar?

Efecto de la Luna Sobre La Tierra Accion de la Gravedad de la LunaConforme la Luna gira en torno a la Tierra su fuerza gravitacional ejerce atracción sobre el continente y océanos. Al mismo tiempo la gravedad de la Tierra controla a la Luna y evita que se salga de su órbita.

La atracción de la Luna mueve montaña y levanta una pequeña pero perceptible marea en la corteza terrestre. Además, atrae los mares y océanos, elevando varios metros el nivel del agua en algunos lugares. Este efecto es similar al de una aspiradora que pasa sobre un tapete y crea un abultamiento.

La fuerza que ejerce la Luna causa un crecimiento de la marea que eleva el nivel de los océanos. Conforme gira la Tierra y nuevas zonas quedan bajo la influencia lunar, la pleamar se mueve con lentitud, creando olas altas en una región y bajas en otra. La bajamar se presenta en una cuarta parte de la circunferencia terrestre por delante del paso de la Luna y a la misma distancia por detrás, siempre y cuando haya océanos.

La órbita de la Luna en torno a la Tierra es afectada por gran variedad de factores y al igual que las mareas depende del contorno del océano. Por ejemplo, el mar Mediterráneo, prácticamente rodeado por tierra, casi no presenta mareas, y el Golfo de México sólo una pleamar al día.

Resulta extraño que un crecimiento de la marea se presente a unos 13.000 Km. de distancia al otro extremo de la Tierra. La influencia gravitacional de la Luna allí es casi 7% menor que en el lado más próximo, pero la fuerza centrífuga de la Tierra empuja los océanos hacia afuera. Esto provoca la pleamar y la bajamar en esa parte del mundo. De no suceder así, habría sólo una gran pleamar y una bajamar en cada rotación terrestre. Pero, como usted puede constatar si se encuentra cerca del mar, el tiempo entre mareas es de unas seis horas, y hay dos de cada una al día.

Aun sin la influencia de la Luna, nuestros océanos y mares tendrían mareas, aunque menos vivas. La atracción gravitacional del Sol influye también sobre la Tierra. Esta fuerza, mucho más fuerte en su origen que la que ejerce la Luna, influye menos debido a la distancia que nos separa del Sol.

Las mareas causadas por el Sol pueden reforzar o debilitar las que son creadas por la acción de la Luna. Cuando el Sol y la Luna están alineados —durante la luna llena o luna nueva— sus fuerzas gravitacionales actúan en conjunto creando una atracción mucho más fuerte que causa mareas más altas. Las llamamos mareas de primavera, aunque no se limitan a esa estación. Cuando el Sol y la Luna guardan un ángulo recto respecto a la Tierra, en los cuartos menguante y creciente, la atracción del Sol influye en lo que se conoce como mareas muertas.

Fuente Consultada:
El Mundo de los Porque?… Readers Digest
Notas Celestes de Carmen Nuñez

Historia de la Fisica Moderna Siglo XIX y XX Descubrimientos y Evolución

Historia de la Física Moderna – Siglos XIX y XX

fisica moderna

HISTORIA DE LA FÍSICA MODERNA – SIGLO XIX Y XX:  La física del siglo XIX creyó posible dar una solución sencilla a todos los problemas de la materia y de la energía. Creía en principios que la parecían inviolables: invariabilidad de la masa, carácter inalterable e indestructible del átomo, transmisión de toda especie de energía en forma de ondas mensurables a partir de un determinado medio: el éter.

En 1865, James Clark Maxwell (1831-1879) publicó su célebre teoría electromagnética de la luz que demostraba magistralmente la identidad de las dos formas de energía luminosa y electromagnética. La experiencia demostraría que, al igual que la onda luminosa, la onda electromagnética se refleja y se refracta. Parecía como si se hubiese encontrado la solución definitiva de todos los problemas de la física generalizando el concepto de movimiento vibratorio y aplicándole los principios de la mecánica general.

Esta hermosa seguridad resultaría ilusoria. Poco a poco fueron surgiendo inquietantes fenómenos que parecían dar al traste con las hermosas certezas sobre las que ya se comenzaba a descansar. Primero fueron los rayos catódicos y la radiactividad,descubrimiento que circunstancias en parte fortuitas hicieron surgir a pocos meses de diferencia uno de otro y que eran la consecuencia de una larga serie de investigaciones cuyo origen se remontaba a unos doscientos años.

En la época de la electrostática, ya se habían interesado mucho por los fenómenos que acompañan el paso de la electricidad a través de los gases. Después, cuando la antigua máquina de platillo fue reemplazada por la bobina de Ruhmkorff (1803-1877) y la ciencia del vacío se perfeccionó considerablemente gracias a los dispositivos que rehabilitaban la cámara barométrica y al gran empleo del mercurio, fue posible observar lo que pasaba cuando la descarga eléctrica se produjo en una atmósfera gaseosa rarificada.

Estaba reservada a sir William Crookes (1832-1919) realizar el más sensacional de los descubrimientos de su tiempo. Hábil experimentador, Crookes se dedicó a estudiar, a partir de 1878, el paso de la corriente por tubos en los que el gas se reducía a algunas moléculas. En estas condiciones, el interior de la ampolla no produce ninguna luz “mientras que sus paredes se iluminan con una viva claridad verde”. Tras una serie de ingeniosos experimentos, Crookes terminó por demostrar que se trataba de una irradiación particular emitida por el electrodo negativo o cátodo.

Esta irradiación se propaga en línea recta a través del tubo, hace luminiscentes y calienta los cuerpos sólidos que encuentra y hasta ejerce una presión sobre ellos. Todo sucede, en fin, como si unos corpúsculos lanzados a gran velocidad bombardeasen los cuerpos más próximos. A pesar de todas las ideas admitidas en su tiempo sobre la primacía de las ondas, Crookes tuvo la audacia de pensar que la luz verde que aparecía en las paredes de la ampolla no era otra cosa que un flujo de moléculas materiales lanzadas a gran velocidad. No se equivocaba más que sobre la dimensión de los proyectiles pero volvía a introducir en física una noción pasada de moda y ridiculizada: la emisión. ¿Se habría equivocado Newton?

Entre tanto, todos los laboratorios de Europa se proveían de ampollas de Crookes. Hacia 1880, demostró que los rayos catódicos—así se les llamaba entonces—atravesaban unas delgadas láminas de metal colocadas en su trayecto en el interior de la ampolla y en 1892 con;, guía Lénard hacerlos salir del tubo a la atmósfera sin otro artificio que el de practicar en la ampolla una ventanilla formada por una c; esas delgadas láminas de metal.

Esto equivalía a arruinar la hipótesis de la emisión ya que ningún bombardeamiento molecular podía jactarse de atravesar las paredes, pero ¿y si los proyectiles no eran moléculas? La cuestión quedó zanjada por un experimento decisivo realizado en 1895 por Jean Perrin, entonces preparador en el laboratorio de la Escuela normal superior. Perrin demostró que los rayos catódicos no son más que granos de electricidad negativa lanzados a gran velocidad a través de la ampolla vaciada. En otros términos: acababa de descubrirse el electrón.

En este mismo año 1895, Roentgen (1845-1923) se entregaba, por su propia cuenta, a experimentos sobre los rayos catódicos cuando, por casualidad, observó que el tubo de Crooke: emitía otro género de irradiaciones. Pues bien: se trataba de un hecho propiamente hablando escandaloso, ya que estos nuevos rayos se propagaban exactamente en línea recta, atravesando los cuerpos opacos y permitiendo fotografiar, a través de la carne, el esqueleto de un ser vivo.

Este descubrimiento estalló algo así comí una bomba en todos los laboratorios del planeta. No era difícil repetir el experimento: un tubo de Crookes, una bobina de inducción, una placa fotográfica envuelta en un papel negro. y una pantalla recubierta de una sustancia fluorescente. Se hicieron muchas radiografías ; no faltaron los “cobayas”. Había dos cosas absolutamente desconocidas a propósito de estar misteriosas radiaciones, a las que inmediatamente se las bautizó como rayos X: primero el tremendo peligro que entrañan por poco que uno se exponga a ellos con demasiado frecuencia. y después su origen. ¿Por qué parte del aparato eran emitidos?

El gran matemático Henri Poincaré expresó la idea que quizá la emisión de rayos X estuviera ligada a la fluorescencia del vidrio herido por los rayos catódicos. En esta teoría coincidían a la vez una verdad y un error; la pared de vidrio emite, en efecto, la misteriosa irradiación, pero esta emisión se opera sin conexión con la florescencia. La emisión la realizan tan bien o mejor cuerpos que no son en absoluto fluorescentes. Esta comprobación no parecía tener utilidad alguna, pero habría de llevar al descubrimiento de la radiactividad natural.

El 20 de enero de 1896, lunes, día de sesión en la Academia de Ciencias, Henri Poincaré mostró a sus colegas las primeras radiografías hechas en Francia y propuso la teoría antes aludida y según la cual el vidrio de la ampolla de Crookes, hecho fluorescente, había emitido rayos X. Si las cosas se desarrollaban así. sustancias naturalmente fluorescentes como, por ejemplo, el sulfato doble de uranio o de potasio, debían producir espontáneamente rayos X. Es lo que quiso averiguar Henri Becquerel (1852-1908).

Cogió un chasis opaco, de cartón negro, que contenía una placa fotográfica y dos láminas de sulfato doble de uranio y de potasio sujetas por unas tiras de papel. Entre una de ellas y el chasis colocó una moneda de plata y lo expuso todo a los rayos del sol. Al revelar la placa, Henri Becquerel comprobó que aparecían unas huellas correspondientes al emplazamiento de las láminas y de la moneda de plata que absorbían en parte las irradiaciones de las dos sustancias. ¿Quedaba confirmada la hipótesis de Henri Poincaré? ¡Quién sabe! En espera de que llegara un día soleado que tardaba en presentarse, Becquerel encerró todo su equipo en un cajón oscuro. Cuál no sería su sorpresa cuando el 1 de marzo de 1896 quiso asegurarse de que su placa fotográfica estaba todavía virgen.

Impulsado por no se sabe qué curiosidad, la desenvolvió y la encontró impresionada. Ante sus ojos extrañados aparecieron con toda claridad unas sombras que dibujaban las formas de las láminas y mostraban la radiografía de una cruz de cobre muy fina colocada sobre una de ellas. La sal de uranio emitía rayos X tanto en plena oscuridad como a la luz. La fluorescencia no intervenía para nada en el fenómeno. Con una intuición admirable, Becquerel pudo anunciar entonces el hecho de que se trataba de una propiedad atómica independiente de la composición química del elemento uranio.

Acogida al principio con reticencia, esta tesis fue confirmada en febrero del año siguiente por J. J. Thomson y por su joven ayudante Ernest Rutherford, quienes estudiaron también los “rayos uránicos”. Gradualmente se iba imponiendo la verdad: las sales de uranio eran una especie de ampollas de Crookes naturales aun cuando nadie sabía decir por qué.

En 1882, Pierre Curie (1859-1906) fue nombrado jefe de trabajos prácticos de la Escuela de física y química. En esta época, este gran científico y su esposa Marie (1867-1934) eran desconocidos del gran público, pero quienes estaban al corriente de los progresos de la física tenían ya a los dos esposos como unos genios. Fierre Curie se ocupaba de cristalografía cuando la señora Curie tuvo la idea de investigar las propiedades del uranio en los diversos compuestos de este elemento y en los minerales que lo contienen. Algunos de ellos demostraban una actividad mayor aún que la del uranio puro. No era difícil sacar la conclusión de este fenómeno: estos minerales debían contener un cuerpo desconocido más activo que el uranio.

Pierre Curie se dio cuenta inmediatamente de que sus trabajos sobre cristalografía podían esperar un poco y que convenía trabajar sobre los datos recogidos por su esposa. Poco después demostraba la señora Curie la existencia de un cuerpo nuevo: el polonio; después, los dos esposos redoblaron sus esfuerzos y pudieron anunciar, el 26 de diciembre de 1898, que habían descubierto un nuevo elemento que se desintegraba espontáneamente: el radio. Más aún. Pierre y Marie Curie pudieron establecer muy pronto que el radio se transforma en otros productos radiactivos como el helio, para terminar finalmente en un metal inerte, el plomo. Se había logrado una verdadera transmutación de elementos y este descubrimiento ha revolucionado el mundo.

En el terreno práctico, los resultados obtenidos por Fierre y Marie Curie iban a engendrar una muchedumbre de aplicaciones, sobre todo desde el punto de vista médico, pero hubo que esperar hasta 1912 para que se descubriera al fin en qué consistían los rayos X. Utilizando las redes de moléculas descubiertas por Bravais, cristalógrafo francés del siglo XIX, y cuyas dimensiones del orden de la diezmilésima de miera son lo suficientemente pequeñas como para difractar los rayos X, el físico alemán Max von Laue reconoció al fin que estos rayos pertenecen al mismo grupo que los rayos luminosos ordinarios de los que no se diferencian más que por la extraordinaria rapidez de sus vibraciones. Son, por así decirlo, hiperultravioleta, y en estas condiciones hubiera tomado nuevo vigor la tesis de las ondulaciones del éter si no hubiera descubierto Planck el fotón en 1898.

Ondas luminosas, rayos gamma y rayos X constituían, no cabía duda, emisiones de fotones. La inexistencia del éter y, por tanto, de sus vibraciones, había sido ya realmente demostrada mucho antes, gracias a un experimento magistral. En 1887 emprendió Michelson la tarea de demostrar el influjo de la translación terrestre sobre la velocidad de la luz. Algunos años antes, en 1881, el ingenioso experimentador había inventado un interferómetro de una precisión inigualada. Con ayuda de este aparato iba a poderse confirmar o destruir la existencia del éter.

En efecto, si este último es un medio estable que transmite los movimientos vibratorios, los de la onda luminosa o de la onda eléctrica, habría de poderse encomendar el movimiento de dos rayos de luz, uno de los cuales sería dirigido en el sentido de la traslación terrestre, el otro perpendicularmente al plano de este movimiento. O dicho de otra forma, habría de poderse demostrar el desplazamiento absoluto de nuestro globo a través del éter por el complemento de velocidad de que se beneficiaría une de los rayos luminosos. Ahora bien: la velocidad de la tierra es de unos 30 Km. por segundo, la de la luz de 300.000 Km. por segundo. Er. estas condiciones, el desplazamiento de las franjas luminosas de interferencia debía corresponder a la ínfima diferencia de una cienmillonésima, fracción que representa el cuadrado de la relación entre la velocidad de desplazamiento de la tierra y la velocidad de la luz.

Michelson, con ayuda de su colega Morley. realizó un ingenioso dispositivo compuesto de cuatro espejos, una fuente luminosa y el interferómetro de precisión de que hemos hablado antes. El resultado del experimento fue absolutamente negativo. El suplemento de 30 Km. por segundo no aceleraba en modo alguno el rayo luminoso que continuaba imperturbablemente su carrera a una velocidad normal de 300.000 kilómetros por segundo. No se necesitaba más para afirmar que no existía el éter. Y de ahí nació toda la teoría de la relatividad.

ALBERT Einstein (1879-1955) hay que considerarle ante todo como matemático, pero como la física es una ciencia que se matematiza cada vez más, la relatividad constituiría para ella una fuente de fecundas explicaciones. En primer lugar, como no puede encontrarse ningún punto fijo en todo el universo, había que admitir que el mundo en que vivimos está construido de tal forma que, en un sistema en movimiento, es imposible evidenciar el desplazamiento de ese sistema y a fortiori, la velocidad del mismo desplazamiento. A este postulado, o más bien axioma, puesto que parece evidente por sí mismo, añadía Einstein que, cualquiera sea el sistema en traslación a partir del cual se mida la velocidad de la luz, esta velocidad conserva siempre el mismo valor numérico.

En el campo de la astronomía, la introducción de un constituyente limitado en un todo que se creía infinito iba a imponer inmediatamente la noción de un universo cuyas fronteras, siempre móviles, han sido establecidas recientemente sobre la base de un radio de diez mil millones de años-luz. En física, había que concluir que la inexistencia del éter terminaba con las viejas leyes de la cinemática clásica y que la noción de espacio, tomada aisladamente, ya no tenía ningún sentido. Esto llevó a Einstein a la noción muy abstracta de continuum espacio-tiempo y a la aceptación por parte de los físicos de una hipótesis propuesta ya en el siglo pasado por Riemann y que negaba que el espacio fuese independiente de los fenómenos físicos que se desarrollan en él, lo que necesariamente hacía del tiempo una dimensión del espacio. La física nuclear ha demostrado en nuestros días que esta noción respondía a la realidad.

Sabemos experimentalmente que la energía posee una masa y que la masa se materializa en energía, principio expuesto por Einstein ya en 1905 y que se resume en esta fórmula clave de nuestro mundo moderno: E = mc2, en la que la energía equivale a la masa multiplicada por un factor correspondiente al cuadrado de la velocidad de la luz.

Los descubrimientos de Einstein no se agotan ahí. Aprovechando las conclusiones impuestas por unos experimentos realizados en 1903 con el tubo de Crookes, Einstein afirmará que la verdadera masa del electrón no es de naturaleza mecánica, sino de naturaleza electromagnética. En estas condiciones, los fenómenos electromagnéticos se imponían a todos los demás y sus leyes vendrían a constituir los principios básicos de la mecánica.

Con la formulación de la relatividad restringida se abre el camino a la tesis que Einstein desarrollará más tarde en forma de una teoría de la relatividad generalizada. Todo esto teniendo en cuenta el concepto del danés Bohr, quien en 1913 rechazará el electromagnetismo clásico en su concepción del modelo de átomo, lo que apunta claramente hacia el camino que más tarde conducirá a los físicos a considerar favorablemente la gran hipótesis del campo unitario. Al mismo tiempo, una nueva teoría tan desconcertante como la de la relatividad iba a dar al traste con la hermosa noción de continuidad, sobre la que descansaba la física clásica. Se trata, naturalmente, de la teoría de los quanta, formulada muy ingeniosamente hacia 1900 por el gran físico alemán Max Planck por razones puramente experimentales: la famosa emisión de luz por los cuerpos negros, verdadero rompecabezas para los físicos de la época.

Las teorías de Planck revisten un grado tal de abstracción que nos es imposible explicarlas aquí, porque se necesitaría todo un capítulo especial cargado de fórmulas y gráficos. Lo esencial es saber que, según Planck, toda especie de energía es de naturaleza discontinua. O dicho de otro modo: la luz o la electricidad no nos las proporciona la naturaleza en forma de flujo ni de fluido, sino, literalmente hablando, en pequeños paquetes: los quanta. Para no dejar nada al azar, Planck se tomó el cuidado de cifrar con la mayor exactitud las dimensiones de esos paquetitos. En unidad C. G. S., se expresa con el número cuasi infinitesimal de 6,55 X 10-27. No podría irse más lejos, y ésa es, en efecto, la medida exacta de un simple grano de energía simbolizada por la letra h, o constante de Planck.

Los intercambios de energía entre materia e irradiación se hacen, pues, por quanta. La irradiación tiene una estructura discontinua, lo mismo que la emisión, sobre todo la emisión de la luz. Se recordará que apoyándose en la teoría de los quanta descubrió Einstein en 1905 el fotón o grano de luz. Esto produjo un gran escándalo ya que venía a derribar los cálculos de los hombres de ciencia. Si la luz era una emisión de fotones y la electricidad una emisión de electrones, ¿cómo explicar la continuidad que es la ley de las ondas? La dificultad la resolvió en 1924 otro gran genio científico, Louis de Broglie, nacido en 1892 y Premio Nobel de física en 1929.

Como ha dicho él mismo, lo esencial era encontrar un sujeto al verbo ondular. Louis de Broglie pensó que ese sujeto tenía que ser el mismo electrón y no ese éter demasiado metafísico. “Si así fuera, dice el gran científico, habría que pensar que hay que imaginarse los corpúsculos materiales, especialmente el electrón, como acompañados, y en cierto sentido guiados, por una especie de onda”. Esta solución de compromiso es la base de la nueva doctrina llamada ondulatoria. Desde ese momento ya no existe el escándalo. “Hoy sabemos que el protón y los núcleos de los átomos, en los que están concentradas las cargas positivas de la materia, están también asociados a ondas… por lo que la barrera que, desde hacía tanto tiempo, separaba la física de las radiaciones de la física de la materia parece haberse derrumbado ya.” Así lo que quiere esta nueva doctrina de una abstracción impresionante. Desde ese momento, la realidad física va a volatilizarse en un “esquema matemático”, para servirnos de la expresión de Sommerfeld, y la ciencia, a medida que se va desarrollando, se alejará cada vez más del “antropomorfismo de la sensación”.

En 1897, el gran físico inglés Joseph J. Thomson (1856-1940). cuando estaba perfeccionado el experimento de Lénard (1885) sobre los rayos catódicos, descubrió que estos extraños rayos podían ser deflectados por medio de un electroimán. Calculó su velocidad y encontró que era muy próxima a los 300.000 Km. por segundo; después, suponiendo que estaban compuestos de corpúsculos, trató de estimar la masa y la carga de éstos. Pudo establecer que la relación de la carga a la masa de la partícula era una constante independiente a la vez de la naturaleza del gas contenido en la ampolla y del metal de los electrodos. “No veo, dice, forma alguna de escapar a la conclusión de que se trata de cargas de electricidad negativa transportadas por partículas de materia.”

Desde entonces pasó a ser de dominio público el término electrón. En 1909, Robert Millikan, profesor entonces de la Universidad de Chicago, acometió la tarea de demostrar experimentalmente la existencia y la naturaleza de la partícula. El dispositivo que inventó era de una genial sencillez: consistía en una cámara de niebla en la que unas gotitas de aceite en suspensión subían o bajaban según que obedeciesen a la simple gravedad o al impulso de un campo magnético variable. Un excelente aparato óptico permitía observarlas cómodamente. De cuando en cuando, una gotita cambiaba brutalmente de velocidad. ¿No sería porque había capturado un electrón? En este supuesto, como se conocía la masa de la gotita y la intensidad del voltaje, resultaba teóricamente posible deducir la carga del electrón y también su masa. Pero el electrón es tan pequeño que la gotita cargada con veintidós partículas se comportaba exactamente como si sólo estuviese cargada de una. Expresada en culombios, la carga de un electrón implica dieciocho ceros antes de la coma.

En cuanto a la masa, necesita veintisiete ceros antes del primer decimal. Puede suponer-se los esfuerzos que tuvo que hacer el ingeniero físico para llegar a esos resultados, pero de todas maneras, el electrón no era un mito, aun cuando, según la expresión del mismo Millikan, el radio de un cabello comparado con el de mi electrón sea aproximadamente diez mil millones de veces más grande.

El descubrimiento del protón no se realizó oficialmente hasta 1920, pero hacía ya mucho tiempo que rondaba la mente de los científicos. En 1886, el físico alemán Goldstein colocó en el centro  de un tubo de Crookes un ánodo constituido por un enrejado muy fino y no sólo pudo observar la aparición de rayos catódicos, sino también la de una radiación de un amarillo dorado claro que “penetrando el enrejado, llenaba todo el espacio entre el cátodo y la pared.“.

Esta radiación no era otra cosa que una emisión de protones, partículas nucleares cuyo peso es igual al de 1.840 electrones. La irradiación de Goldstein contenía núcleos de nitrógeno puro. Si el gas rarificado de su tubo hubiera sido de hidrógeno, su color hubiese sido rosa, verdoso o grisáceo si hubiese sido de óxido de carbono. En realidad, Goldstein no había hecho más que ionizar el gas de su ampolla, es decir descomponer los átomos de este gas en electrones (rayos catódicos) y en protones (rayos canales).

En 1910 volvió J. J. Thomson a hacer la experiencia y terminó por proyectar los misteriosos rayos canales sobre una pantalla fluorescente en la que producían unas escintilaciones del mismo tipo que las de los electrones.

Con ayuda de un electroimán, el experimentador podía deflectar la irradiación y reunir en una misma parábola las partículas del mismo peso atómico. Entonces se produjo la gran sorpresa. Thomson había utilizado el neón y descubrió que de su cátodo abierto se desprendía una doble radiación positiva. “No cabe duda de que lo que llamamos neón no es un gas simple, sino la mezcla de dos gases, uno de los cuales tiene un peso atómico 20 y el otro un peso atómico 22.” Sin darse cuenta, Thomson acababa de descubrir los isótopos que en 1920 separó entre sí su colaborador Aston con ayuda de su espectrógrafo de masa.

Entre tanto, el estudio de la radiactividad natural iba a llevar a los científicos a realizar una hazaña con la que habían soñado los alquimistas de la Edad Media. En 1903 habían demostrado sir Frederik Soddy y sir William Ramsay que la radiactividad del radio iba acompañada de un desprendimento de helio. En 1907, Rutherford pudo establecer definitivamente la identidad de la partícula alpha con el átomo de helio ionizado, es decir, privado de sus dos electrones satélites, o dicho de otra manera del helio.

En 1919, Rutherford concibió la excelente idea de bombardear átomos de nitrógeno con ayuda de helios que circulaban a gran velocidad y emitidos en forma de rayos alpha por una sustancia muy radiactiva. Observó que de esta forma el nitrógeno se transformaba en oxígeno. Por primera vez, se había roto un átomo y sus elementos constitutivos habían engendrado otro cuerpo simple. ¡La transmutación no era ya un sueño de alquimista! Rutherford había salido airoso donde Bacon y Paracelso habían fracasado.

En 1913 emprendió Niels Bohr (1885-1962) la tarea de cuantificar el átomo. Adoptando el modelo de Ernest Rutherford y Jean Perrin, en otros términos, conservando las órbitas keplerianas circulares como trayecto ideal de los electrones, se dedicó a establecer un valor matemáticamente riguroso de todos los estados posibles de estas partículas ínfimas. Demostró sobre todo que pasando de un estado estacionario n1 a otro estado estacionario n2, el electrón emite un quantum de energía. Acababa de desvelarse el misterio de la electricidad. La experiencia no tardó en confirmar la exactitud de esta aplicación genial de las teorías de Planck. Pero como las órbitas circulares de los electrones presentaban serios inconvenientes, Sommerfeld reanudó en 1916 el trabajo de Bohr dando una forma elíptica a estas órbitas y utilizando los principios de la relatividad para tratar del movimiento de los electrones sobre sí mismos.

Dejemos ya el terreno de la pura teoría para volver a la desintegración del átomo. El principio según el cual se da cierta disipación de masa en algunos bombardeos atómicos, y esto en las condiciones previstas por Niels Bohr y Sommerfeld, iba a conducir a los científicos hacia una pista al mismo tiempo gloriosa y peligrosa. Hacia 1930 se advirtió que cuando se efectuaba una transmutación se liberaba una gran cantidad de energía. En efecto, los núcleos de los elementos formados tienen una masa menor que la de los elementos constitutivos.

Por tanto, hay algo que se disipa durante el proceso. Y si la pérdida de masa equivale al aniquilamiento de un solo gramo de materia, la energía liberada es igual a una cantidad de calor suficiente para hacer hervir instantáneamente 200 millones de litros de agua. En cierto sentido , no había en ello nada de nuevo, ya que no era más que la aplicación de la célebre fórmula de Einstein E = mc2.

Todavía faltaba por encontrar el proyectil que pudiera producir desintegraciones eficaces. Los alemanes Bothe y Becker y los franceses Frederic Joliot e Irene Joliot-Curie estudiaron la desviación sufrida por los rayos alpha cuando atraviesan delgadas capas de materia, y se observó que las partículas alpha que bombardean un metal ligero pero resistente, el berilio, originaban una irradiación paradójica, capaz de romper las más fuerte barreras de potencial y “de moverse libremente a través de la materia”, como había predicho Rutherford en 1920. Entonces fue cuando James Chadwick pudo precisar en 1932 que esta irradiación debía estar constituida por partículas neutras de masa próxima a la del protón. Estaba descubierto el neutrón, la bomba atómica y la energía nuclear vendrían más tarde.

Entre tanto se había inaugurado la era de los desintegradores de átomos. Pretender alcanzar los núcleos atómicos con corpúsculos alpha, como lo habían hecho el matrimonio Curie y James Chadwick, equivalía a “disparar con carabina sobre cabezas de alfiler sembradas de 10 en 10 metros”. Por supuesto que podían reemplazarse estos corpúsculos alpha por protones, pero, ¿cómo imprimir a éstos una velocidad suficiente? Desde 1931 había en la Universidad de Princeton un generador electrostático inventado por Robert van de Graaff y cuyo principio no difiere sensiblemente del de la máquina deWimshurst.

La aceleración de los protones se produce con ayuda de un transformador de alta tensión, situado en la base del aparato y que alimenta un peine que deposita sobre una correa que desfila bajo sus dientes cargas eléctricas que, transportadas hacia la parte superior del aparato, son recogidas por un peine colector. De esta forma se crea entre la base y la parte superior del dispositivo una diferencia de potencial de 80.000 V. en el primer modelo y llegó a 6 millones de voltios en las bombas del gigante instalado en Round Hill algunos años más tarde.

Ya en 1930, Ernest Orlando Lawrence había realizado otro aparato que habría de destronar poco a poco a los grandes aceleradores lineales: el ciclotrón. El principio es bastante simple: en el centro de un recipiente cilíndrico en el que unas bombas producen un vacío lo más perfecto posible se inyectan partículas atómicas bajo débil energía. Se coloca entre los polos de un electroimán, lo que engendra en su interior un campo magnético intenso.

Las partículas comienzan a girar en círculo, aceleradas a cada vuelta por los electrodos elevados a potenciales de muy alta frecuencia. Atraídas de un electrodo a otro, las partículas describen así una espiral a una velocidad creciente. Finalmente son desviadas hacia un blanco que contiene la sustancia que ha de ser bombardeada y desintegrada: berilio por ejemplo. Nuestros ciclotrones actuales permiten acelerar partículas a velocidades próximas a la de la luz y disponen así de energías suficientes para romper cualquier núcleo de átomo.

En 1932 no podía pensarse aún en estos esplendores. John D. Cockcroft y E. T. S. Walton, en el laboratorio Cavendish, tuvieron que contentarse con un duplicador de voltaje de 150.000 V. A fuerza de ingeniosidad consiguieron obtener 700.000 V. y terminaron por desintegrar núcleos de litio en dos helios, utilizando como proyectiles protones acelerados.

Gracias a la cámara de niebla inventada por C. R. F. Wilson entre 1899 y 1912, las partículas resultantes de la desintegración del litio pudieron ser localizadas por los experimentadores. Todos los manuales de física han reproducido el cliché de la desintegración del litio por Cockcroft y Walton. Todavía hoy nos impresiona este auténtico documento histórico.

El neutrón fue identificado en 1932 por Chadwick. lo que algunos años después permitiría la fisión nuclear. Había nacido un nuevo modelo de átomo. Todo núcleo aparecía como constituido de nucleones, es decir, de partículas positivas: los protones, y de partículas neutras: los neutrones. En torno a este agregado increíblemente denso de nucleones gravitan los electrones satélites cuyas cargas negativas, al menos en un átomo en equilibrio, equivalen rigurosamente a la suma de las cargas positivas de los protones. Sucesivamente, el núcleo del átomo se iría enriqueciendo con partículas ligeras: mesones, neutrinos, etc., sin hablar de las partículas de antimateria de que se hablará más adelante.

Volviendo a la fisión nuclear, el proyectil ideal resultaría ser el neutrón y el blanco elegido el uranio. El 14 de abril de 1934, Enrice Fermi descubrió que los neutrones ralentizados en la parafina provocan otras desintegraciones en el interior de otros átomos. Para llegar a la desintegración en cadena había que frenar la velocidad de los neutrones, transformarlos en neutrones térmicos. Esa es la misión del grafito y del agua pesada; pero no adelantemos los acontecimientos. El 15 de enero de 1934, los esposos Joliot-Curie provocaron la estupefacción de la Academia de Ciencias anunciando que acababan de descubrir la radiactividad artificial. Gradualmente se iban dando los pasos hacia la comprobación de que es posible introducir neutrones suplementarios en el interior de los núcleos y hacer fuertemente radiactivo un inocente fragmento de fósforo, de carbono o de cobalto. Habían nacido los radioisótopos y todo el mundo sabe lo mucho que se los utiliza en medicina y en industria.

No era eso sólo. En 1939 estalló una verdadera bomba en el mundo de la ciencia: Otto Hahn, Lisa Meitner, Strassmann y Frisch habían descubierto que el núcleo del uranio convenientemente bombardeado con neutrones se-rompe en dos liberando una energía de 100 millones de voltios. En su comunicación a la revista británica Nature del día 16 de enero, Lisa Meitner explicaba que, al igual que la gota de agua que ha ido creciendo, el núcleo de uranio no podía ya resistir y… explotaba.

Lo que ha sucedido después es ya del dominio público. No hablaremos de la batalla del agua pesada ni de la angustiosa rivalidad que enfrentó durante cinco años a los Aliados y al III Reich. Recordemos simplemente que a comienzos de 1940, el ingeniero Nier separaba, en la Universidad de Minnesota, del uranio-238 su precioso isótopo, el uranio-235; por supuesto que a una escala infinitesimal. Y que en 1941, el ilustre Fermi, premio Nobel de 1938, se instalaba en Chicago en donde montaba su primera pila atómica, que comenzó a “diverger” el 2 de diciembre de 1942, produciendo por primera vez dos elementos transuranianos: el neptunio y el plutonio, que ya en 1940 habían descubierto McMillan y Seaborg.

Recordemos también el famoso Manhattan Project, la primera explosión atómica del 16 de julio de 1945 en Alamogordo, y finalmente, las hecatombes nucleares de Hiroshima y Nagasaki, los días 6 y 9 do agosto de 1945. Como instrumento de muerte repentina, la bomba A era ya aceptablemente eficaz, pero más lo seria la bomba H “encendiendo sobre la tierra el fuego del sol y de las estrellas”.

He aquí algunas explicaciones. Ya en 1934, algunos científicos habían reconocido el principio de la fusión del hidrógeno en helio, como fuente posible de energía. Una simple sustracción bastaba para demostrar que la reacción: 2/H + 2/H = 4/2 He  era “viable”. En efecto, dos núcleos de hidrógeno pesado dan en conjunto 4,02516 unidades de masa mientras que el núcleo de helio que resultará de su “fusión” no tiene más que 4,00390. Hay, pues, un excedente de materia; 0,02126 unidad de masa y este excedente se traduce en una liberación de energía correspondiente a 500.000 KW/h. por cada molécula-gramo de helio.

Como esta reacción parecía más bien del dominio de un porvenir muy lejano, nadie habla de ella antes de 1950, excepción hecha del físico Vienes Hans Thirring, quien en 1946 la consagró un estudio bastante notable. En noviembre de 1952, el mundo quedó aterrado al saber que una bomba termonuclear de al menos 7 megatones había estallado en Eniwetok, haciendo desaparecer una isla de la superficie del mar y cavando en su lugar un embudo de 2 Km. de diámetro y 60 m. de profundidad. Después vino la demostración del 1 de marzo de 1954, en la que cinco pescadores japoneses fueron contaminados por la caída del polvo radiactivo (lluvia radiactiva). ¿Esta “Kraftprobe” tuvo el mérito de poner a científicos e ingenieros sobre la pista de un tipo de reactor más rentable que los de uranio que surgen por todas partes propulsando incluso submarinos y rompehielos atómicos? Sólo el futuro nos lo dirá.

La mayor dificultad que hay que vencer es la obtención de una temperatura llamada de fusión del orden de varios centenares de millones de grados; una proeza que es realizable durante una fracción de segundo, por medio de una prebomba de uranio, pero de la que todavía no son capaces ni la ingeniosa Zeta británica ni el extraordinario Slellarator americano.

Sin embargo, los métodos de “striction” y de “confinamiento” de un plasma que consiguen ya de 2 a 3 millones de grados no han dicho su última palabra, aun cuando los progresos hayan sido muy lentos desde 1958.

Volviendo ahora a la física pura, la encontraremos esencialmente ocupada en explorar este mundo extraño que es el núcleo del átomo y esa verdadera fantasmagoría que es la materialización de la energía. ¿Cómo explicar la paradójica densidad del “nucleus” y de las fuerzas que dan cohesión a los nucleones? Nada permite pensar que sean de naturaleza eléctrica.

Cuando en 1935 emitió el físico japonés Yukawa la hipótesis de un intercambio de mesones entre los protones y los neutrones de un núcleo, se vio obligado a admitir que estas partículas debían tener una masa 200 veces mayor que el electrón, pero que su “vida” era muy breve, de apenas una millonésima de segundo.

En mayo de 1937, el estudio de los rayos cósmicos en la cámara de Wilson revelaba la existencia de dos mesones, el segundo de los cuales asegura la cohesión de los nucleones entre sí, mientras que el primero parece escaparse por la banda dando nacimiento a un electrón. Diez años más tarde, durante el invierno 1947-1948, el gran sincrociclotrón de la Universidad de Berkeley consiguió producir mesones ir cuya trayectoria terminaba, sobre la placa fotográfica, en una soberbia estrella, prueba de que el mesón había encontrado un núcleo y que lo había hecho estallar.

¿Qué había sucedido? Entonces surgió la pregunta de si no se habría producido algo más y de si la violencia de la explosión no supondría la presencia de una de esas antipartículas que, por simples deducciones matemáticas, había previsto el físico inglés Pirac en una nota dirigida a la Sociedad Real de Londres con fecha 6 de diciembre de 1929.

La ecuación era tentadora. Podría representársela así:

en la que ¶ es un mesón pesado o, como se dice técnicamente, un hiperón, N un nucleón cualquiera, p un protón normal, es decir positivo, y p´ un protón negativo o antiprotón. Por supuesto que el par p y p´ no podían subsistir juntos sino que se aniquilaban recíprocamente.

En 1935 hubo quien pensó que el intermedio del mesón ¶ no hacía más que complicar las cosas y que, si se dispusiera de unos seis mil millones de electrones-voltios, quizá se pudiera crear directamente un “par” conforme a la fórmula siguiente:

Esta fórmula fue realizada en el laboratorio de Berkeley el 24 de octubre de 1955.

En el estudio de la radiación cósmica, fue una primera figura mundial el meteorólogo español A. Duperier, quien descubrió el “efecto positivo” de la radiación y contribuyó con una de las más importantes aportaciones al campo de la física en los últimos años con el cálculo de los fenómenos de interacción entre las partículas dotadas de altísima energía, y sus trayectorias, que expuso en el Congreso Internacional de Edimburgo de 1958. El descubrimiento del antineutrón, aunque erizado de dificultades, pudo realizarse en una fecha difícil de determinar.

En cuanto al electrón positivo o antielectrón, había sido descubierto antes de la segunda guerra mundial, ya que la obtención de un par (e y é) no exigió más que una energía relativamente baja, del orden de 1.0 millón de electrón-voltios aproximadamente.

El neutrino y el antineutrino han venido a completar la serie de los leptones o partículas ligeras. Atisbado unos veinticinco años antes por el físico Pauli, el neutrino no fue descubierto hasta 1958 gracias a los escintiladores instalados en Savannah River.

¿El neutrino es la partícula que, en el campo gravitatorio, corresponde al electrón en el campo electromagnético? Quien viva lo verá. Entre tanto, los físicos trabajan a contra reloj para descifrar los secretos de la materia y de la antimateria. Enormes aparatos han entrado en funcionamiento, especialmente el gran sincrotrón de protones del CERN (Centro Europeo de Investigaciones Nucleares). En 1961. este instituto procedió a millares de experimentos y tomó millón y medio de clichés que están actualmente en proceso de análisis.

Parece que se trata sobre todo de estudiar las interacciones de altas energías que implican las diversas especies de mesones, ya que ahí es donde en definitiva reside el secreto del átomo y del antiátomo. ¿Hacia dónde se encamina la física? El eminente científico francés Leprince-Ringuet confiesa que no sabe nada al respecto. “Os diré únicamente, declaraba, que estamos trabajando pero sin saber exactamente lo que vamos a hacer y, en el fondo, eso es lo agradable.”

Naturaleza de la Materia                                   Concepto Descriptivo Sobre la Conservación de la Energía

Etica del Desarrollo Tecnologico del Siglo XX Cuestionamiento al Avance

Etica del Desarrollo Tecnológico del Siglo XX

Durante la Segunda Guerra Mundial el avance técnico y científico se desarrolló sorprendentemente y fue aplicado además a todas las esferas del conocimiento humano, las manifestaciones artísticas, la comunicación, los transportes y la mercadotecnia. Todo se ha permeado, y no podemos explicarnos un mundo sin estos elementos. Avanzan tan rápido que los conocimientos actuales serán obsoletos en un corto tiempo.

El uso de la ciencia y la técnica nos ha llevado también a reflexionar sobre cuestiones éticas. Han sido utilizadas para construir presas, puentes y ciudades; para curar enfermedades; para hacer rápidos y eficaces los medios de comunicación; para acelerar y mejorar los cultivos y la producción de satisfactores. Sin embargo, también han sido utilizadas en las guerras recientes para producir armas de alto poder, tanto químicas como biológicas.

Además, han aumentado la brecha que separa a los países desarrollados de los subdesarrollados, convirtiéndose en la diferencia del poder y la riqueza de unos, y la sumisión y pobreza de otros. Pero, ¿ hasta qué punto pueden ser utilizados los conocimientos técnicos y científicos?

Nace la sociedad de consumo, y el mismo se infiltró en todas las esferas, transformando hábitos y normas ancestrales, de manera incluso revolucionaria, tanto en el mundo occidental como oriental. Obviamente, las generaciones jóvenes fueron las que más resintieron el impacto de esta cosmovisión y del consumismo general, que llenó todo el horizonte de su existencia histórica.

Lo anterior fue sustentado por diferentes desarrollos tecnológicos que pasaron a formar parte de la vida cotidiana, entre ellos:

• La computadora: que en cierta forma se puede considerar el invento más significativo de la segunda mitad del siglo XX. Hace 50 años comenzaron a comercializarse los primeros modelos de computadoras. En su mayoría grandes aparatos que ocupaban habitaciones enteras y eran capaces de realizar sólo tareas rudimentarias. A partir de los últimos años de la década de los años 70, fue cuando la computadora se introdujo en los hogares y su uso revolucionó el estilo de vida de la sociedad.

Esta red de redes abrió las posibilidades para que las personas, desde diferentes lugares del planeta, pudieran comprar desde un libro hasta un auto, buscar cualquier tipo de información, o conectarse en video al comercializarse los primeros modelos de computadoras.

El rápido desarrollo de los microprocesadores: -el corazón de las computadoras-que aumentaron su capacidad paulatina y rápidamente a través del tiempo, lograron que las computadoras penetraran en todos los aspectos de la vida, desde la simple suma matemática de un alumno en la escuela hasta el complejo diagnóstico de un médico en un hospital.

• Internet, la red de redes: o también conocida como la autopista de la información, el símbolo de la era global, que desde su explotación comercial dejó de ser sólo una tecnología de vanguardia para la transmisión de datos militares y se convirtió en el medio que utilizan decenas de millones de personas para intercambiar toda clase de información, desde datos económicos hasta simples opiniones.

• La radio y la televisión: que desde su invención fueron impactantes, ampliaron su capacidad como medios de comunicación para recibir información de todo el mundo, a todas horas del día, y llegaron a establecer modelos de convivencia de otras culturas. En especial, la televisión fue esencial para el mantenimiento de la sociedad de consumo de masas, por ser un vehículo efectivo para la publicidad. Todos estos medios y canales multiplicaron las posibilidades de informarse; sin embargo, el problema que suscitaron ante el bombardeo masivo de información, fue la dificultad para seleccionarla y analizarla adecuadamente.

Los problemas al inicio del nuevo milenio

A pesar de este mundo tecnológica y científicamente desarrollado, la humanidad enfrenta graves problemas, entre los que fueron trascendentes:

• La existencia de un mundo dual: por un lado, la diferencia entre países ricos y pobres; por otro, la desigualdad de riqueza en el seno de las sociedades de los países ricos. Más de las tres cuartas partes de la humanidad vivía en países de América Latina, Asia y África, que no habían alcanzado un grado de desarrollo suficiente y la mayoría de sus habitantes apenas podían sobrevivir. Entre ellos existían grandes diferencias: algunos se encontraban en vías de desarrollo, pero otros vivían sumidos en la pobreza. El hambre, la enfermedad y el analfabetismo continuaban siendo graves carencias sociales.

• Una nueva sociedad internacional: más vertebrada, en la medida en que se fueron institucionalizando las relaciones internacionales multilaterales, y más compleja por la incorporación de nuevos actores, como los organismos internacionales, las organizaciones no gubernamentales, las multinacionales o las internacionales de los partidos. En última instancia, una sociedad internacional que expresaría en su totalidad la interdependencia y la globalidad de los fenómenos y los acontecimientos del mundo contemporáneo.

• Las sociedades de los países ricos: vieron surgir en su seno un conjunto de graves problemas entre los que destaca la marginación social. En las sociedades desarrolladas la pobreza afectaba fundamentalmente a los desempleados, los inmigrantes (sobre todo los procedentes de los países sub-desarrollados) y las mujeres.
Paradójicamente, un elevado número de emigrantes se concentraban en las fronteras de los países ricos, en busca de mejores condiciones de vida. El aumento de la intolerancia y del racismo en los países desarrollados convirtió a muchos extranjeros inmigrantes en grupos marginados.

• Los graves problemas del consumo y el tráfico de drogas: alcanzaron cotas inimaginables entre los sectores jóvenes de muchos países desarrollados. Junto a ello, el temor a enfermedades nuevas, como el caso del síndrome de inmunodeficiencia adquirida (SIDA), afectaron de forma dramática a los países desarrollados y subdesarrollados. A estas nuevas epidemias se sumaron otras tradicionales, como la malaria, que ocasionó casi tres millones de muertos cada año en las poblaciones africanas, asiáticas y sudamericanas.

• El peligro de un desarrollo industrial: desenfrenado provocó graves problemas ecológicos, y sigue siendo en este nuevo siglo un riesgo que amenaza con una degradación irreparable del medio ambiente.

• Políticamente, aunque el sistema democrático: se consideró como el “menos malo” de los sistemas políticos, los países bajo este régimen no lograron satisfacer las demandas de sus ciudadanos. Las críticas a lo anterior, realizadas en gran medida por destacados representantes de la política y por muchos de los militantes en los nuevos movimientos sociales, se basaron en el deseo de re-definir los principios de la participación política, de la gestión de los asuntos del Estado y de la construcción de sociedades más justas.

Al comienzo del tercer milenio, los aspectos más destacados fueron la globalización de las relaciones entre los pueblos, los progresos en la técnica y la ciencia y la revolución de las comunicaciones, pero también las profundas desigualdades, con conflictos endémicos y con un crecimiento industrial que puso en peligro el medio ambiente, por lo que se inició una esforzada labor a favor de la aplicación de las teorías de desarrollo sostenible.

Pero, sobre todo ello, cabe destacar el progresivo aumento de la solidaridad humanitaria que surgió de forma espontánea ante la presencia de los graves problemas que afectaban al mundo contemporáneo.

La combinación entre una verdadera actitud solidaria e igualitaria y la constante crítica ante todo exceso de poder y ante la injusticia sería la que permitiera construir un mejor siglo XXI.

Fuente Consultada:
El Mundo Moderno y Contemporáneo de Gloria Delgado
Wikipedia – Historia del Mundo de Peter Haugen
Historia Universal de Gómez Navarro y Otros